AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Ansonsten finde ich das Effizienz-Thema mit allen Auswirkungen zu Verbrauch und damit Kühlung persönlich eben sehr wichtig. Daran messe ich auch die 3070 oder eben eine künftige AMD-GPU bevor ich etwas kaufe

Kühlung wird überbewertet, was meinst du warum ich zusätzlich noch zwei 560er Radiatoren ins Gehäuse baue. :d Aber trotzdem denke ich das wir an einem markanten Wendepunkt in der PC-Geschichte stehen, weil wenn die 350W fallen, wo setzt man dann in einer GPU die nächste Grenze? 400W oder 450W? Und wenn der Erste mit dem Wettrüsten anfängt, dann zieht der (oder besser bald die anderen) unter Garantie auch mit. Aber zum Glück gibt es ja eine breite Palette, da ist für jeden Geschmack was dabei. :)

Man erreicht also etwa das Level einer 2080ti

Für den großen Navi21 wurden 5.120 Kerne vermutet, die 3070 hat 5.888. Also was erwartest du? Wenn die wirklich nur auf 2080 Ti-Level liegen, dann sollte Lisa ihren Mitarbeitern besser raten die Karten einzustampfen, weil die paar Low Karten werden keine großen Margen abwerfen. Aber damit kann man AMD für die nächsten zwei bis drei Generationen von der Einkaufsliste streichen, dafür will ja Intel in den Ring steigen.

Wartet mal offiz. Benchmarks ab.

Die werden definitiv spannend werden und eine erneute Klatsche für Team Red. Und ich schätze mal 3070 = 2080 Ti, 3080 = 1,4-1,5x 2080 Ti, 3090 = 1,7x 2080 Ti. Und selbst wenn die 3070 etwas unter der 2080 Ti liegen sollte, mit dem Preis kann man die Blind kaufen. Den meisten wird der etwas geringe VRam nicht einmal wirklich auffallen im Alltag aber dafür hat man Leistung satt für einen relativ schmalen Taler.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ihr dürft euch nicht blenden lassen. die RTX 3000 hat im maximalem vollausbau 5376shader
die RTX 3080 hat 4352shader und die RTX3090 hat 5248shader.

edit: ein Ryzen 3900x ist ja auch kein 24kerner nur weil er 24Threads hat.

edit2: also ich hätte als AMD die leaks direkt am Testtag der RTX3080 rausgehauen weil dann haste sofort auf der ersten seite beides den Test der RTX 3000 und die News das Big Navi auf augenhöhe von der 3080 liegt aber eben 649€ kostet bei 16GB RAM und dazu weniger verbrauch. Das wäre schon einprägsam.
 
Zuletzt bearbeitet:
Mensch haben die 2080Ti besitzer nen scheiß Los gezogen ^^

Wenn man das sehr reduziert einsimensional preisbezogen sehen möchte, ja.

Ich habe meine 2080 Ti seit 2 Jahren, spiele Witcher 3 UWQHD maxed (inkl. HW) mit 100+ FPS. Und stell Dir vor, das wird die nächsten 2 Jahre noch annähernd genausogut funktionieren. Von 'scheiß Los' kann man allerhöchstens dann sprechen, wenn man auf Basis eines sehr beschränkten Horizonts argumentiert.

Und nur im irgendwelchen Strohherren gleich vorzugreifen:

Niemand hier (=ich) stellt in Abrede, dass die 3000er Ampere-Serie (aller Voraussicht nach) imposante Leistung verspricht und das zu wesentlich humaneren Preisen im Vergleich zu Turing. Deswegen allerdings hinsichtlich der ebenfalls nicht unerheblichen Rohleistung der 2080er Turing Ti Serie so zu tun, als sei sie quasi zwei Jahre bis zum Erscheinen der nächsten Generation vollkommen irrelavant gewesen ist - gelinde gesagt - ein nicht ansatzweise valides Argument.
 
edit2: also ich hätte als AMD die leaks direkt am Testtag der RTX3080 rausgehauen weil dann haste sofort auf der ersten seite beides den Test der RTX 3000 und die News das Big Navi auf augenhöhe von der 3080 liegt aber eben 649€ kostet bei 16GB RAM und dazu weniger verbrauch. Das wäre schon einprägsam.
So würde ich es auch machen.
 
Wenn man das sehr reduziert einsimensional preisbezogen sehen möchte, ja.

Ich habe meine 2080 Ti seit 2 Jahren, spiele Witcher 3 UWQHD maxed (inkl. HW) mit 100+ FPS. Und stell Dir vor, das wird die nächsten 2 Jahre noch annähernd genausogut funktionieren. Von 'scheiß Los' kann man allerhöchstens dann sprechen, wenn man auf Basis eines sehr beschränkten Horizonts argumentiert.

Und nur im irgendwelchen Strohherren gleich vorzugreifen:

Niemand hier (=ich) stellt in Abrede, dass die 3000er Ampere-Serie (aller Voraussicht nach) imposante Leistung verspricht und das zu wesentlich humaneren Preisen im Vergleich zu Turing. Deswegen allerdings hinsichtlich der ebenfalls nicht unerheblichen Rohleistung der 2000er Turing Ti Serie so zu tun, als sie sie quasi zwei Jahre bis zum Erscheinen der nächsten Generation vollkommen irrelavant gewesen ist - gelinde gesagt - ein nicht ansatzweise valides Argument.

ich denke er meint diejenigen die sich im juli oder august eine 2080ti gekauft haben bei immer noch ca. 1200€.
mit der 3070 für 500€ bei ~ gleicher leistung, wird die 2080 ti auf eben nahezu diese 500€ degradiert. ok sie hat 3gb mehr speicher, aber ich denke eine neue 2080ti währe so nur noch die hälfte wert.
und wer kauft schon eine "veraltete" karte wenn er für deutlich weniger geld eine nahezu ebenbürtige karte kaufen kann?

ich hab ne rechnung gesehen, wo 96 neue 2080ti für ca 35.000€ verkauft wurden. (vermutlich gewerblich ohne mwst)
die 2080ti in den geschäften vor ort sind nicht mehr gelistet/verschwunden.
was sagt dir das?
 
Woher kommt eigentlich die Idee, dass BigNavi 16 GB VRAM haben wird?
Hier wird so oft so getan, als hätten wir schon alle Specs und würden nur noch darauf warten, dass Lisa sagt: "jetzt geht's los!".

Ist den IRGENDWAS bestätigt? Hoffen kann man ja viel. Vorhersagen kann man auch Dinge, die relativ offensichtlich sind,... aber wissen wir irgendwas sicher?
 
Ich weiß auch nicht mehr wo ich das her habe.
die 5120shader Karte hatte wie ich das gelesen habe normalen GDDR6 und 512bit
die 4608shader karte hatte 384 Bit mit 12GB
 
ich denke er meint diejenigen die sich im juli oder august eine 2080ti gekauft haben bei immer noch ca. 1200€.
mit der 3070 für 500€ bei ~ gleicher leistung, wird die 2080 ti auf eben nahezu diese 500€ degradiert. ok sie hat 3gb mehr speicher, aber ich denke eine neue 2080ti währe so nur noch die hälfte wert.
und wer kauft schon eine "veraltete" karte wenn er für deutlich weniger geld eine nahezu ebenbürtige karte kaufen kann?

ich hab ne rechnung gesehen, wo 96 neue 2080ti für ca 35.000€ verkauft wurden. (vermutlich gewerblich ohne mwst)
die 2080ti in den geschäften vor ort sind nicht mehr gelistet/verschwunden.
was sagt dir das?

Wenn er das meint, hätte er sich dementsprechend präziser ausdrücken müssen. Das funktioniert tatsächlich im Deutschen. Nennt sich Temporaladverbien.

Er hat ein generalisiertes Statement abgegeben, das ich ohne zusätzliche Mutmaßungen exakt so, wie es formuliert wurde, kritisiert habe.

Die kolportierten 96 Ti für 35.000 € sagen mir gar nichts. Sind aber auch für mein Argument absolut irrelevant.
 
Bei NV gabs auch viel Gerüchte obs 10 GB werden und zack war es bestätigt.

Die meisten Gerüchte haben bis jetzt immer gestimmt.
Beitrag automatisch zusammengeführt:

Er hat ein generalisiertes Statement abgegeben, das ich ohne zusätzliche Mutmaßungen exakt so, wie es formuliert wurde, kritisiert habe.
Ja, an die Käufer hab ich gedacht. Hätte ich besser formulieren sollen.
 
Es gibt einfach Gerüchte zu jeder halbwegs sinnvollen Möglichkeit.
Natürlich hat man da laufend Treffer. ;-)
 
Also ich warte noch bis zum 17ten wenn amd bis dahin nichts positives raus gibt über bn, dann werde ich eine 308010gb als Übergang zu rdna2 ins Auge fassen, so schwer es mir auch fällt aber habe dann auch lange genug gehofft und auch gewartet. /:
 
Also ich warte noch bis zum 17ten wenn amd bis dahin nichts positives raus gibt über bn, dann werde ich eine 308010gb als Übergang zu rdna2 ins Auge fassen, so schwer es mir auch fällt aber habe dann auch lange genug gehofft und auch gewartet. /:
und wenn rdna2 kommt willste ein Downgrade machen?
 
Sorry ich meinte rdna3 🙈
 
ich würde sagen die nächsten Karten bleiben uns erstmal 2Jahre erhalten
 
ich würde sagen die nächsten Karten bleiben uns erstmal 2Jahre erhalten
Ich denke noch länger... Ampere kann man nun als Pascal Nachfolger betrachten (4 Jahre!), Turing sehe ich nur als Portfolio Erweiterung nach oben.
Also der Fortschritt wurde schon merklich langsamer... ich denke das wird in Zukunft nicht besser/schneller werden.
 
Die 16gb für bn sind doch in jedem leak Thema auch in der Zusammenfassung von Igor zb.
 
Gehe fest von 16GB aus schon deshalb weil es alle News immer wieder erwähnen.
 
14 Tage sehe ich mir das ganze noch an, Gott brauchte 7 Tage um die Welt zu erschaffen, kann also noch einges passieren;)
 
ich hoffe mal das die Gerüchte stimmen und AMD mit Big Navi bei 300watt mit der RTX3080 konkurrieren kann.
weil wenn das stimmt hätte man eine karte die in etwas gleich stark ist bei etwas weniger verbauch und
satte 6GB mehr. Da wäre für mich die AMD richtig gut.
wenn dann noch die übertaktbarkeit so gut ausfällt wie bei Navi 10 mit dem Morepower tool dann ist die karte super.

Der Teil das es heuer keine Partnerkarten mehr geben wird ist wieder so typisch AMD....
Ich habe 0 Vertrauen darin das AMD nen guten Referenzkühler abliefern kann, weil das leider noch nie pasiert ist.

Also entweder basteln oder bis nächstes Jahr warten wenn Nvidia den Markt schon 3 Monate lang abgegrast hat.
 
Bleibt zu hoffen, dass AMD diese bisherige Regel irgendwann irgendwie in der Lage ist zu brechen ;) Nächste Chance -> BigN. NV hat geliefert mit Ampere. Vllt liefert AMD dieses mal gar mehr ;)
die Frage ist nur wo Amd mehr liefert :unsure: - aber solange es nicht bei Preis, Lieferzeit oder was ähnlichem ist :d


und das Orakel aus Bruneck, weiß jetzt nicht nur schon alles mögliche zu Big Navi, sondern mittlerweile auch schon wie genau Ampere performen wird - es wird immer besser, ganz toll wären mal die Lottozahlen für den nächsten Jackpot, wenn wir schon dabei sind :lol:
 
Das wir alle entäuscht sind bis hier hin ist klar aber es nützt nichts auf Berni weiter rum zu hacken denn es ist Amd was liefern "muss"
 
Ich "hacke" nicht mehr auf ihm herum als er auf der Tastatur. Am Dienstagabend hat er eine (Preis)Ankuendigung versprochen und, mal wieder, mit Zahlen jongliert. Bis heute passiert ist: nix. AMD muss liefern, schweigt aber. Andere sollten schweigen, blubbern aber.
 
@eXtremist
word! dann soll er halt einfach nicht immer irgendwelche "handfeste Fakten" posten, die er sich in Wirklichkeit irgendwo aus der Nase gezogen hat :d

aber was verschwende ich meine Zeit, das wird sich nie ändern, also was bleibt einem als herzlich drüber zu lachen über die ganzen "Insider" Infos aus unserem südlichen Nachbarland :)


ich vermute mal das so Anfang Oktober die ersten guten Customs von Ampere erhältlich sein werden und bis dahin wäre es nett auch irgendein Lebenszeichen von Amd zu erhalten.

btw. ich verstehe das Verhalten von Amd auch nicht, wenn ich wirklich was brauchbares in der Hinterhand habe, dann fahre ich dem Konkurrenten bei dessen Vorstellung gehörig in die Parade, aber ich bin weder Marketingfuzzi noch Wirtschaftsguru - nur ein simpler Techniker :d vielleicht kapiere ich den tieferen Sinn hinter Amds aktuellem Verhalten einfach nicht :banana:


eventuell ist es ja wirklich so das man Nvidia bis zum Verkaufsstart ihrer Karten nicht die kleinste Chance geben will noch nachzubessern und haut dann beim Verkaufstart einen richtigen Kracher raus, ich klammere mich halt auch noch an diesen letzten Strohhalm der Hoffnung für Amd :)
 
Zuletzt bearbeitet:
Die 16gb für bn sind doch in jedem leak Thema auch in der Zusammenfassung von Igor zb.

Igor ist so ne Sache.
Der bereitet auch immer nur alle Gerüchte auf, packt etwas Pseudowissenschaft dahinter und zwinkert dabei massiv, damit jeder meint er hätte Insiderinformationen.

Gehe fest von 16GB aus schon deshalb weil es alle News immer wieder erwähnen.

Nur weil man es laufend wiederholt, ist es trotzdem nicht bestätigt.
Ich halte 12-16 GB ja auch für wahrscheinlich. Da streite ich nix ab. Meine Frage war nur: Woher kommen die 16 GB, die anscheinend so sicher sind? Nur weil es eine realistische Annahme ist, ist das ja trotzdem keine Bestätigung. Ich hatte ja nur hinterfragt, ob diese Info irgendwo bestätigt wurde.

Würde vermuten, dass es RDNA2 sowohl mit 8, 12 als auch 16 GB geben wird. Evtl packen sie auch ne 32 GB Variante hin für die Show.
Aktuell ist der VRAM für AMD ja quasi DIE Lücke, die sie ausnutzen können. Mal ganz trocken ausgesprochen.

Software? NVidia klar vorne.
AI? NVidia meilenweit vorne.
Hardware? Aktuell auch NVidia vorne, aber da steht BN im Raum (nur mit ungewissen Werten).
VRAM wäre der eine Punkt, den AMD sehr einfach und sicher ausnutzen kann, um Kunden zu gewinnen. Einfach überall etwas mehr als NVidia.

Es gibt so viele Leute, die einfach nur mehr wollen. Mal ganz von der Debatte über den eigentlichen Bedarf abgesehen. Ob man nun glaubt, dass es nötig ist, oder nicht, ist dabei egal. Mehr ist immer besser als weniger (Wenn man es nicht im Preis merkt). Auch ich nehme gerne die 24 GB der 3090, obwohl ich 10 für absolut ausreichend halte.

Um die Worte knapp zusammenzufassen:
16 GB ergeben Sinn, weil es der einfachste und sicherste Weg ist Kunden von AMD zu überzeugen, egal welchen realen Wert die 16 GB haben.
Historisch hat AMD auch immer mehr VRAM verbaut (und damit wohl die eigene Marge reduziert). Es ist also naheliegend von 16 GB auszugehen in mind. einem Modell.
Aber egal wie logisch und sinnhaft es ist, diese 16 GB sind nicht bestätigt, sondern nur Wunschdenken.

Wir wissen auch alle wie die Leistung aussehen muss, damit die GPU auf dem Markt Kunden findet. Das bedeutet aber trotzdem nicht, dass sie so kommen wird.
Ich bitte nur darum Wunschdenken und Fakten klar abzutrennen und wollte nur erfragen, ob eine zuverlässige Quelle diese Werte bestätigt hat. :-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh