Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Preise hatte ich gestern zum Kollege (Freund welcher gleich neben mir wohnt)
Beim RyZen 3 5800XT bereits prognostiziert
449 Dollar / Euro und hatte vollkommen Recht.

Big Navi denke wird so aufgestellt werden.
3 Karten zum Launch!

XL 16 GB 529 Dollar
XT 649 Dollar
XTX 829 bis 849 Dollar

XTX kommt der 3090 Gewaltig Nahe
XL Gute 10% unter der 3080
und die XT einmal Minimal Besser, einmal knapp unter der 3080 von Nvidia

Und die Speichermengen immer zu 16GB
und dann hat NV schon verloren!

225 Watt
zu 275 Watt
zu 340 Watt
Wenn es so was wie eine xtx tatsächlich geben sollte um rund 900 Eur dann ist die fast schon gekauft ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, deutlich sogar.
Dann haben wir das Meinungsgeflecht endlich entwirrt. :)

Zu Igors Analyse: Er hat explizit und mehrere Mal erklärt, dass es eine Verkettung von kausalen Zusammenhängen ist, die zum Absturz geführt hat. Das kann durchaus am Netzteil liegen, am Mainboard, an den Caps, an der Chipqualität, an den individuellen Streuungen des Kühlers, der Netztschwankung des Stromanbieters, der Verteilerdose etc... Wenn ein System an die Grenze gefahren wird und es unter idealen Testbedingungen lief, kann es sein, dass es beim Kunden mit elektrischer Verkabelung aus den 50'er Jahren und einer entsprechend... "kompetenten" Wahl des Netzteiles und der entsprechenden Kabel/Railbesetzung zu Crashes kommt. Da hat Igor nicht zum ersten Mal was rausgefunden.

PS: Nvidia hat seine 3000'er Videos kräftig mit Karten und Equipment gesponsort. Sein Anspruch ist nicht Nvidia eins auszuwischen - ganz im Gegenteil: Er sucht nach möglichen Lösungsansätzen durch die Findung der Ursache. Das als "Anti-Nvidia" darzustellen finde ich... seltsam.
 
Naja, es ist auch MÖGLICH, dass die Mondladung gefaked ist, Merkel ein Alien und Du ein Bot.
Ich sage ja nicht, dass es so ist, aber ich schreibe es einfach mal trotzdem.. weil,.. es könnte ja sein und wird mir Aufmerksamkeit bringen!

Natürlich kann man Softwareprobleme auch mit Hardware fixen manchmal. Das macht aber noch kein Hardwareproblem daraus.
Wenn Ampere 800 Watt schlucken würde, weil im treiber ein depperter Loop drin ist, dann kann man das auch mit einem 1500 Watt Netzteil "fixen", aber es bleibt ein Softwareproblem.

Aber ja, es war ein Problem. Unbestritten.
Die Lösung war aber auch vorbildlich, oder nicht? Mir wäre es natürlich lieber, dass es keine Probleme gibt, aber es waren glaube 3 oder 4 Tage (?) bis der Fix da war. Das empfinde ich teilweise sogar positiv, weil es zeigt, wie fix man bei NVidia von einer Problemlösung ausgehen kann, solange es Softwarerelated ist. Ich warte bei einer meiner Entwicklungstools seit bald 8 Monaten auf Fixes und da zahle ich hohe 4 stellige Summen pro Jahr für.
 
Das Problem war imho nicht der Rede wert. Der Fix kam schnell und es gibt - wie du bereits gesagt hast, keinen merkbaren Performanceeinbruch. Es wurde nur deshalb ein Problem, weil Nvidia sich ganz groß "Qualität" auf die Fahne schreibt und die Karten dann crashten. So wie bei AMD die 3W mehr über den PCIe-Bus auch kein Problem waren, das Netz aber in voller Aufruhr war.

So wurde die Münze mal umgedreht. Wenn man bei Release-Problemen bei AMD dann genauso entspannt sein würde... ;) Aber wir wissen beide, was dann passieren würde - bzw ich erwarte es sogar.
 
Das wäre nur allzu traumhaft - Eine XTX nahe der 3090 so 5 %. Denn so viel weiter weg ist die 3080 nun auch nicht - Selbst die 2080 Ti nicht, ich meine es waren insgesamt 35 % zur FE und nur noch 25 % ausgehend von einer OC-Ti - Wobei die 3090 wiederum schlechter OCt.
 
Das Problem war imho nicht der Rede wert. Der Fix kam schnell und es gibt - wie du bereits gesagt hast, keinen merkbaren Performanceeinbruch. Es wurde nur deshalb ein Problem, weil Nvidia sich ganz groß "Qualität" auf die Fahne schreibt und die Karten dann crashten. So wie bei AMD die 3W mehr über den PCIe-Bus auch kein Problem waren, das Netz aber in voller Aufruhr war.

So wurde die Münze mal umgedreht. Wenn man bei Release-Problemen bei AMD dann genauso entspannt sein würde... ;) Aber wir wissen beide, was dann passieren würde - bzw ich erwarte es sogar.

Klar.
Der absolute Drang zu Skandalen ist offensichtlich. Egal welche Firma im Zentrum steht.
Und es nervt gewaltig, wie ich finde. Aus jeder noch so kleinen Mücke wird heute ein riesen Elefant gemacht,... aber niemand sagt "sorry", wenn es dann doch nur ne Mücke war.

Igors Videos dazu sind das Video Äquivalent zu ClickBait Überschriften.
Auf Formel1 de steht aktuell z.B. "Vertrag mit Hamilton: Wir kommen nicht zusammen!",... und dann kommt raus, dass es echt nur ein Problem wegen Lockdowns gibt und die Parteien zu Verhandlungen nicht in das jeweils andere Land dürfen, es aber persönlich machen wollen.
So extrem ist Igor noch nicht, aber bleiben wir realistisch: Sein Channel ist sehr klein. Gerade so am Rande des "man kann davon leben". Er ist auf ClickBait angewiesen und versteht es vortrefflich das als "ich will nur helfen" und "ich teste nur alles!" zu verschleiern.

Jede Wette: Hätte er 500.000+ Abos, würde er das komplett anders aufziehen.
Nicht mehr und nicht weniger sage ich zu ihm. Ich behaupte nicht, dass er das böswillig macht, oder nur negative Absichten hat. Mitnichten. Er ist ein echter interessierter Nerd. Ich empfinde es nur als sehr auffällig, wie offensichtlich er die Kontroverse sucht und für sich nutzt. Das ist perse nicht falsch und ich würde das auch machen in der Situation, aber gut finden muss ich es trotzdem nicht. ;-)
 
Na ja, wenns kein Anderer macht... Er hat ja nicht umsonst eine gewisse Szenen-Beliebtheit. Würde Roman genauso tief graben (was er ja ab und an sogar macht) hätte Igor wohl echt ein Problem - nur hat Roman halt besseres zu tun als Tag ein und Tag aus auf solche Details zu achten - denn er hat mehrere Unternehmen/Projekte etc unter einen Hut zu bekommen. (Ich bin nebenbei gesagt aber vom Zeitmanagement dieser Leute beeindruckt)

Ansonsten: Jupp - stimme dir zu. Aber auch Linus ist Click-Baity as hell - obwohl er schon genügend Abos hat.
 
Linus war ohne Frage deutlich angenehmer zu schauen, als er noch keine 30+ Leute hatte.
Bei denen ist die Größe der Firma einfach der Grund für den Bedarf jedes Register zu ziehen.

Mit den ersten 2-3 Leuten, noch aus seiner Garage heraus,... da hat mir der Channel viel besser gefallen.
Auch inhaltlich merkt man, dass sie zwar kritisieren, aber immer versuchen nicht zu stark verbrannte Erde zu hinterlassen.
Wird nu aber zu OT. ;-)
 
Berni gebe ich recht:
  • 6900 = 80 CU = 300 Watt ---- +10%
  • 6800 XT = 72 CU = 250 Watt ---- 3080 FE
  • 6800 XL = 64 CU = 200 Watt ---- -12.5%
Alle Karten kommen vermutlich mit 16GB VRAM. Wobei die 6800XL keine Konkurrenz haben wird, weder von der Leistung, Verbrauch und Preis. Da kann die 3070 selbst in der 16GB Version einpacken. Nvidia zieht den Launch der 3070 8GB vor, um überhaupt noch Einheiten zu verkaufen. Das Ding ist DOA.

Mein Gefühl sagt mir, das AMD wie bei der CPU gestern im Teaser nicht die Topkarte gebracht hat. Sie haben Anfangs den 5950X nicht erwähnt, erst den 5900X als Gaming CPU präsentiert und irgendwann kam dann 631 CB Score, und dann wir können Singlethreaded noch höher 640 CB Score. Da war noch was. :sneaky:
 
Zuletzt bearbeitet:
Und trotzdem ist ein Konstruktionsfehler / Designfehler, auch wenn es durch Software gefixt werden kann. Schließlich sind die ursprünglichen Treiber und Einstellungen von anderen Voraussetzungen ausgegangen als tatsächlich vorliegt.
Stell dir vor du hast eine Park Assistenz Software und da wurde nicht berücksichtigt das du eine Anhängerkupplung ausklappt haben kannst.... Es kann nichts passieren, kann aber auch was ungewolltes passieren. Jetzt wird nach einem Softwareupdate der Fahrer gefragt wenn er die Einparkautomatik starten möchte ob er überprüft hat das eine Kupplung eingeklappt ist.

Es ist nichts dramatisches, trotzdem ein Design/Konstruktionsfehler.
 
Oder eine 6900 und eine 6900 XT mit dem XTX-Chip und mehr Takt.
 
RX 5700 XT sind es 225 Watt +50% Performance bei gleichem Verbrauch. So war die Planung von AMD
Beitrag automatisch zusammengeführt:

An der Stelle war BIG Navi allerdings noch nicht geplant. (Das wurde spontan im Januar auf CES entschieden.)
 
Es ist nichts dramatisches, trotzdem ein Design/Konstruktionsfehler.

Der Vergleich hinkt total.
Wenn die Software den Fehler komplett behebt und Kunden den Fehler nicht mehr bemerken, dann ist das doch kein Konstruktionsfehler? Konstruktions und Designfehler sind in der Hardware zu finden und können nicht "per Knopfdruck" gefixt werden.
Ein Konstruktionsfehler wäre es, wenn es wirklich an der Hardware liegen würde, egal was die Software macht.

Eine Konstruktion, die fehlerfrei das gewünschte Ergebnis liefert, ist doch per Definition nicht fehlerhaft.
 
Der Vergleich hinkt total.
Wenn die Software den Fehler komplett behebt und Kunden den Fehler nicht mehr bemerken, dann ist das doch kein Konstruktionsfehler? Konstruktions und Designfehler sind in der Hardware zu finden und können nicht "per Knopfdruck" gefixt werden.
Ein Konstruktionsfehler wäre es, wenn es wirklich an der Hardware liegen würde, egal was die Software macht.

Eine Konstruktion, die fehlerfrei das gewünschte Ergebnis liefert, ist doch per Definition nicht fehlerhaft.
Dieser Fehler muss mit jedem neuen Treiberupdate berücksichtigt werden, schließlich betrifft es ja nicht alle Produkte sondern nur welche mit gewissen Custom-Designs, tatsächlich kann man aber den Herstellern keinen Vorwurf machen weil die nach den Vorgaben von Nvidia freie Wahl bei den Caps hatten.
Wenn die Software / Treiber diesen Fix bei einem update mal vergessen, gibt es möglicherweise unvorhersehbare schwierigkeiten.
 
Der Fix wird doch nicht mit jedem Update neu gemacht, wie kommst Du da drauf?
Die Treibersoftware ist modular aufgebaut. Der Fix ist Teil der Spannungsverwaltung. Die wird doch nicht mit jedem Update verändert.
Das ist doch kein Pflaster, dass da irgendwo klebt und abgehen kann. Das ist Softwarecode, der verändert wurde und nun fehlerfrei läuft.

Mit der Logik wäre jede GPU ever unsicher, weil bei jedem Update die Grundfunktionen kaputtgehen könnten, wenn ein Azubi meint einfach mal wahllos Zeug zu ändern.
Sorry, ergibt keinen Sinn für mich diese Sichtweise.
 
Du kannst dir nicht vorstellen, auf welch kreative Weise manche Software-Stacks zusammengebaut sind. Ich hab schon mehr als einmal gesehen, wo ein "Update" alte Fehler wieder hat auftauchen lassen. Passiert gerne mal, wenn man parallel entwickelt und der eine Dev vom anderen nix kennt und einfach ohne Versionskontrolle drübergebügelt wird.
 
weil bei jedem Update die Grundfunktionen kaputtgehen könnten, wenn ein Azubi meint einfach mal wahllos Zeug zu ändern.
Sorry, ergibt keinen Sinn für mich diese Sichtweise.

Also ich kann nicht für Grafikkarten Treiber sprechen, aber ich bin eng in die Entwicklung von diversen Treibern als Tester eingebunden.
Du glaubst gar nicht was einem da alles unter kommt bevor etwas Final auf den Markt kommt.
Selbst bei Hardware die schon Jahre auf dem Markt ist schleichen sich manchmal Fehler bei neuen Treibern ein die eigentlich schon lange als erledigt galten!
Ich kann mir schon vorstellen das sowas auch bei Grafikkarten vorkommt, Fehler passieren, dafür gibt es Tests...
 
Natürlich ist das möglich.
Ich baue selber 10+ Bugs in Software ein pro Tag.

Würde nur nicht davon ausgehen, dass es sich hier um so eine Art Bug handelt, der wieder auftauchen kann.
Die Spannungsversorgung ändert man doch nicht laufend. Die hat auch kaum bis keine Abhängigkeiten.

Dass es total wilde Softwaresysteme gibt, ist mir bewusst. Ich muss aktuell mit einer Firma arbeiten, die mit 100 Entwicklern kaum mehr schaffen als wir mit 10, weil die so wirr arbeiten, dass selbst simple Buttons im UI nen Tag kosten. Würde aufgrund der Vergangenheit von NVidia und deren Treiber aber nicht davon ausgehen, dass hier so ein Worst-Case vorliegt. Zumal ich diesen "fix" auch nicht für extra Code einstufe, der irgendwo "rumfliegt", sondern bestehender Code wurde sicher komplett angepasst und ist nun einfach so.

Also die Art des Problems und die Art des Fixes suggerieren mir einfach, dass hier normal keine Folgeprobleme zu erwarten sind. Kann mich schon auch irren, halte es nur für sehr unwahrscheinlich. Hätten sie diesen Code zwei Wochen vorher geschrieben, würde jetzt auch keiner Panik schieben.
 
Deshalb heißen sie ja auch meist "smart" Caps, weil sie Werte verarbeiten können und in Software bzw. Treiberarbeit eingebunden sind, es sind schlicht flaggs die gesetzt werden je nach Karte, daher wird abgesehen von Zusatzfeatures der Treiber auch immer größer.
Ich denke unter anderem wegen vereinzelter Szenarien wie bei der RTX 3080 verwendet man auch solche Bauteile, bei normaler Software streicht man ja soweit ich weiß hin und wieder mal Sachen die man nicht benötigt, der Nvidia Treiber arbeitet auch immer im IRQ Mode anstatt MSI in Windows zumindest, eigentlich ist das doch ziemlich Steinzeit und leuchtet nicht wirklich ein.

Was man allerdings im Nachhinein nicht mehr fixen kann ist das anziehen der Kühlkörper wie Asus bei der TUF ;D, Powerstages werden auch bei der 6900XT überdimensioniert sein denke ich.
 
Letztes Offtopic zum Thema "wirre Software Bugs, die keinen Sinn ergeben",.. zwar keine Treibersoftware, sondern ein Spiel, aber folgende Zeile in den Patch-Notes:

• Das Spiel überschreibt im Pause-Modus nicht mehr alle Autosaves.

Ehm, ja.
Mit solchen Spezialisten hat man es in der Industrie zu tun.
Da können wir sowohl AMD, als auch NVidia richtig feiern dagegen.
Mir erschließt sich nicht, wie so ein Bug auftreten kann. Da muss man doch absichtlich Code schreiben, der Autosaves überschreibt und durch den Pausemodus getriggert wird. Aber so was gibt es halt,...

Von dem her:
Ein Hoch auf die AMD und NVidia Treiber. Ganz so depperte Fehler hatten die noch nicht (soweit mir bekannt,...).
 
Alle Karten kommen vermutlich mit 16GB VRAM. Wobei die 6800XL keine Konkurrenz haben wird, weder von der Leistung, Verbrauch und Preis. Da kann die 3070 selbst in der 16GB Version einpacken. Nvidia zieht den Launch der 3070 8GB vor, um überhaupt noch Einheiten zu verkaufen. Das Ding ist DOA.

Mein Gefühl sagt mir, das AMD wie bei der CPU gestern im Teaser nicht die Topkarte gebracht hat.

Möglich. Ich denke AMD hat durchaus Potential. Auf das RT bin ich auch mal gespannt, denn das war bei Turing hat noch Marketingargument Nummer 1 um die fehlende Mehrleistung zu kaschieren, nun mit Ampere sieht es noch schlechter aus und die Effizienz könnte bei AMD glatt besser sein. Sollte deine Theorie stimmen und die 6800 besser als die 3070 sein wird man diese höchstens noch verscherbeln können, wobei ich eigentlich schon erwarte dass die Modelle wieder um die 600 € kosten wie die 2070S auch. Später bekam man auch ein paar günstige Modelle um die 450 - Günstig ist das aber nicht, beispielsweise die 970 bekam man damals für knapp 300 neu für die günstigeren Modelle am Ende des Zyklus. Auch bei Pascal waren die 70er günstiger, je nach Modell meist um die 400 € - Die 2070S geht da ja selbst jetzt erst überhaupt los. Die 3090 wird dennoch sicher konkurrenzlos als Non-Plus-Ultra-Modell sein, sich jedoch preislich kaum lohnen gerade für die Gamer die die 24 GB sowieso nicht brauchen, aber AMD muss sie auch gar nicht ganz einholen, für die Profis gibt es sicher noch eine Variante mit 32 GB oder HBM, für die Gamer gibt es eine Karte die fast die 3090 einholt aber nur ein Drittel des Preises kostet.
 
...für die Gamer gibt es eine Karte die fast die 3090 einholt aber nur ein Drittel des Preises kostet.
Ich denke die Spezial-XTX Variante wird man nicht für unter 700€ bekommen. Geht aber auch eher Richtung "Sammlerstück". Ich werds eh im Bundle mit nem 5950X bestellen - von daher warte ich einfach mal gechillt die Benches ab.
 
Selbst für 900 oder 1000 wäre so eine Karte noch günstig. Ich denke aber eventuell kann es sogar Richtung 700 gehen - Dann also immer noch 700 x 3 = 2100 € also ein Drittel. Ist ja leider so, selbst die "günstigen" 3090er kosten dann halt 1700 oder 1800... Ob sich die XTX lohnen wird ist eine andere Sache, es gab ja auch die Anniversitary Edition, aber letztlich wird jede Nitro besser gehen außer man kühlt mit Wasser.
 
Wenn das mal alles so stimmt, freue ich mich schon sehr auf die Karten.
Seit der GTX-480 war ich ausschließlich im grünen Lager.
Meine letzte rote war glaube ich eine HD4850/70. :d

Wird Zeit, wenn AMD etwas auf Niveau der RTX-3070 mit mehr Speicher und moderatem Preis raushaut, ist das Teil Instant gelauft.
Meine aktuelle übergangs GTX-970 muss dringend ersetzt werden.
 
Ich hatte schon eine 3080 vorbestellt aber nun wieder storniert. Neben dem höflich formuliert suboptimalen Launch der 3080 und den Gerüchten um ein baldiges Modell mit mehr Vram war ausschlaggebend die Präsentation von AMD. Ich bin vorher davon ausgegange, dass AMD maximal das Niveau der 3070 erreichen wird. Das scheint nun anders zu sein. Wenn das Topmodell auf Augenhöhe mit der 3080 ist oder uU sogar knapp darüber, der Preis so um die 700-800 liegt und die Karte auch verfügbar ist dann wäre das sehr erfreulich.
 
Na, da haben wir ja wieder die Wunder GPU herbeschworen.

3080 und 3090 Leistung, easy für 400-700 Euro
16GB VRAM, die nix an Aufpreis kosten
Verfügbarkeit instant, ohne Engpass

Wenn das mal nicht alles nur Wunschdenken ist, dann wird es nen geiles Jahresende.
 
Was macht Nvidia eigentlich.. so schlecht kann doch die Verfügbarkeit Ausbeute* garnicht sein. Wartet Nvidia auf einen größeren Batch um für den Marktstart von Big Navi hohe Verfügbarkeit zu haben? Man kann ja nicht einfach das 10GB 3080er PCB nehmen und da 20GB verlöten oder^^
 
Zuletzt bearbeitet:
Was macht Nvidia eigentlich.. so schlecht kann doch die Verfügbarkeit garnicht sein. Wartet Nvidia auf einen größeren Batch um für den Marktstart von Big Navi hohe Verfügbarkeit zu haben? Man kann ja nicht einfach das 10GB 3080er PCB nehmen und da 20GB verlöten oder^^

Irgendwer hat irgendwo anders gesagt dass sie auch das PCB von der 3090 nehmen könnten weil man dort bereits jetzt mehr Speicher verbauen könnte. Das wage ich dann aber doch irgendwie zu bezweifeln weil der Preis wohl etwas unterhalb der 3090 liegen würde und dann die Nachfrage eher nach unten geht. Diejenigen die bereit sind so viel Geld zu zahlen tun das nämlich jetzt schon. Der Rest will 699 für die FE und vielleicht paar Euro mehr für eine bessere Custom zahlen und wartet wenn es sein muss.
Ob die Rechnung am Ende aufgeht muss dann jeder für sich selbst beurteilen. Ob das die Kunden sind die vielleicht genervt bei AMD zugreifen, die Händler die die überteuerten Karten nicht mehr loswerden oder diejenigen die komplett leer ausgehen.
 
Na, da haben wir ja wieder die Wunder GPU herbeschworen.
Aber das wäre ja schon die GPU die wir haben - die 3080 für 700 Flocken. Was spricht dagegen, dass AMD das einfach mal egalisiert? (mit etwas mehr VRAM)
 
Du weißt ganz genau, dass hier keine egalisierte 3080 heraufbeschworen wird. ;-)

Die Vergangenheit hat einfach nicht gezeigt, dass so hohe Erwartungen ohne Enttäuschung enden,... ich will es ja auch glauben, aber wir bewegen uns hier im Topic echt weit weg von allem, was ich noch für realistisch und machbar halte.

AMD kann nicht "einfach" alles einen Ticken besser machen als NVidia.
Das wäre ne extreme Aufgabe, die einem Wunder gleichkommen würde. Ich sehe die hier geschürten Erwartungen einfach als zu hoch an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh