Endlich wieder ein Duell auf Augenhöhe: Radeon RX 6800 und Radeon RX 6800 XT im Test

Niftu, du hast recht, ich denke die 6800xt ist so ziemlich der SweetSpot, die 6900er hätte sicher gut GDDR6X oder ein breiteres SI vertragen können. Denn der mit 128MB zwar riesige Cache läuft unter Umständen auch mal voll. Könnte mir deshalb auch vorstellen, dass Ram OC einiges bringt. Ist aber nur eine Vemutung. Vielleicht kommen ja auch Custom Karten mit etwas höherem Speichertakt.
Was auf jeden Fall Spannend für mich wird ist das Thema OC @Wakü. Könnte mir gut vorstellen, dass wir hier mit Igors PowerMod in moderaten Einstellung öfter die 2500Mhz Gamestabel sehen werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Drei verschiedene Tests gelesen, drei verschiede Angaben zum Verbrauch und teilweise bei den Leistungsangaben erhalten. Läuft.. :bigok:
 
Drei verschiedene Tests gelesen, drei verschiede Angaben zum Verbrauch und teilweise bei den Leistungsangaben erhalten. Läuft.. :bigok:
Also wie immer :d

Richtig überraschen mich Aussagen wie "grottige Performance pro watt" und dann sowas:

Passt ja irgendwie nicht zusammen... aber Hey 🤷‍♂️

Screenshot 2020-11-19 000756.jpg
 
Also wie immer :d

Richtig überraschen mich Aussagen wie "grottige Performance pro watt" und dann sowas:

Passt ja irgendwie nicht zusammen... aber Hey 🤷‍♂️
TPU halt - die geben da absoluten Blödsinn an. Steht sogar da. Nur wird wen interessiert schon der Text wenn die Balken funktionieren :fresse:

Kleiner Exkurs, bei TPU wird das Perf/Watt Verhältnis aus der Durchschnittsleistungsaufnahme ALLER Benches in der jeweiligen Auflösung gegen die Durchschnittsleistung ALLER Benches gestellt (hier bin ich mir nichtmal sicher ob da sogar die Auflösungen gemixt wurden??). Das jeweils auf eine Renderauflösung hin runter gebrochen dann in der Ausgabe. Nur blöderweise wird eben die 6800XT mit ~210 Watt avg. Gaming Last angegeben. Was allein eben totaler Käse ist. In Kombination mit der weitestgehend recht CPU Limit freien Performance im 1440/UHD Rating, ja da kommt doppelt Käse bei rum. Denn da hast du dann volle Performance, wo die Karte eigentlich ~280-300W nuckelt - aber in dem Diagramm wird nur mit 210 gerechnet. :stupid:

EDIT: an der Stelle möchte ich die Angaben von Igor dazu mal lobend erwähnen. Dort findet man es so, wie es am sinnigsten ist. Eine Messung der Leistung in einem Spiel und im Verhältnis das ganze dann mit der Leistungsaufnahme im gleichen Titel. Nix mit irgendwie Durchschnitten oder so Blödsinn. Man erkennt sehr schön, Titel wo es mal mehr, Titel wo es mal weniger Energie benötigt. Man sieht schön, wo womöglich ein Limit auftritt - CPU, Bandbreite, Speicher, whatever und wo die GPU voll ausgefahren wird usw. Den Schnitt am Ende, was ca. zu erwarten geht, kann man ja selbst ermitteln - halte ich für kein Problem. Die Details hingegen aus Durchschnittem vom Durchschnitt zurück zu rechnen ist effektiv unmöglich.
 
Zuletzt bearbeitet:
Also wie immer :d

Richtig überraschen mich Aussagen wie "grottige Performance pro watt" und dann sowas:

Passt ja irgendwie nicht zusammen... aber Hey 🤷‍♂️

Anhang anzeigen 551431
Dann bist du da aber schön drauf reingefallen. Die haben ihren Fehler schon zugegeben.:ROFLMAO::ROFLMAO::ROFLMAO:
 
Zuletzt bearbeitet:
??? Werd doch mal konkret?
"mehr als gut" ist ne Aussage ohne Bezug zu irgendwas. Weil gut im Bezug zu was??
"sind sie nahezu gleich auf" hat hingegen einen Bezug...

Was möchtest du damit ausdrücken? Keine Ahnung wo da bei 5% overall Unterschied in Relation zwischen den mittlerweile grund verschiedenen Aufbauten der GPU irgendwas von gut oder schlecht zu entnehmen ist?

Heute auf Krawall gebürstet? ;-)
Du weißt es doch selber, was man zum Thema AMD sagen darf und nicht darf hier im Forum.
Wenn ich genauer werde, wird mir vorgeworfen nur selektiv auf einen Benchmark zu sehen. Egal von welchem Team. Gerade weil die Ergebnisse über alle Outlets hinweg wild schwanken, kann man eh nicht genauer werden als "gut". Im Schnitt also. Gut für AMD Standards, gut im Vergleich zu Ampere, such Dir was aus. Beides wäre korrekt.

Was ich ausdrücken will, ist eigentlich simpel:
BigNavi ist kein NVidia-Killer, wie einige hartline Fans das vorhergesagt haben, aber auch kein Flopp.
Es ist halt gut, mit den auch genau benannten Einschränkungen in 4K und RT. Haut sicher niemand vom Hocker, aber wer auf AMD besteht, wird auch nicht unglücklich damit.
 
Naja wie auch immer, für den ersten Weltrekord hat sie scheinbar gereicht....
Dann soll er es mal online validieren. Ansonsten, mach ich dir das in einer Stunde mit Phtoshop auch fertig.:fresse2:
 
so wie ich das verstehe sind das deren messergebnisse. nicht die angabe von amd.
Gegen das Leistungsrating ist mMn ja auch nix einzuwenden. Aber ein Schnitt aus der Leistungsangaben gegen einen Schnitt (nichtmal ner spezifiziert was genau) beim Verbrauch zu rechnen um ein Perf/Watt Angabe daraus zu machen, ist irgendwie Käse. Wenn dazu die Leistungsaufnahme noch um fast 100W drunter liegt, als sie liegen müsste, wirds falscher als falsch :wink:

Wenn man sich die Details mal ansieht - nicht bei TPU, da sieht man das nicht, aber bei anderen schon, dann schwankt die Leistungsaufnahme je nach Titel teils deutlich. Bei BigN genau so wie auch bei Ampere schon. Und anderer Hardware ebenso. Da mit Durchschnitten zu rechnen ist insofern komisch, dass der Schnitt eben die Ergebnisse verfälscht, je nachdem, wie weit die Werte auseinander gehen. Und dann kommt sowas bei rum wie da oben... Ist btw. bei ihren anderen Benches schon nicht anders gewesen. Also bei Ampere konnte man das ebenso kritisieren.
Heute auf Krawall gebürstet? ;-)
Du weißt es doch selber, was man zum Thema AMD sagen darf und nicht darf hier im Forum.
Wenn ich genauer werde, wird mir vorgeworfen nur selektiv auf einen Benchmark zu sehen. Egal von welchem Team. Gerade weil die Ergebnisse über alle Outlets hinweg wild schwanken, kann man eh nicht genauer werden als "gut". Im Schnitt also. Gut für AMD Standards, gut im Vergleich zu Ampere, such Dir was aus. Beides wäre korrekt.
Es kommt eher darauf an, wie du es sagst... Mein Eindruck - du suchst hier nen Fehler in der Hardware, den es nicht gibt um irgendwo noch ein Krümelchen in der Suppe zu finden ;) Deswegen auch nicht konkret. Warum nicht einfach sagen was du denkst? Frei raus? Bei der einen Aussage ruderst du so rum - bei der anderen ist es der direkte Vergleich. Das ergibt so keinen Sinn... Wenn das für dich Krawall ist, ist dir allerdings nicht zu helfen, sorry...
Was ich ausdrücken will, ist eigentlich simpel:
BigNavi ist kein NVidia-Killer, wie einige hartline Fans das vorhergesagt haben, aber auch kein Flopp.
Es ist halt gut, mit den auch genau benannten Einschränkungen in 4K und RT. Haut sicher niemand vom Hocker, aber wer auf AMD besteht, wird auch nicht unglücklich damit.
Die Frage ist eher, welche Einschränkungen? Du hängst dich an 5% auf... RT ja, das war vorher klar. Aber was soll an 4k sein?
 
Dann soll er es mal online validieren. Ansonsten, mach ich dir das in einer Stunde mit Phtoshop auch fertig.:fresse2:

Hall of Fame Platz 5... okay... :d
Hat HW Bot wohl eigene Vorstellungen von Weltrekorden... 🤷‍♂️
 

Hall of Fame Platz 5... okay... :d
Hat HW Bot wohl eigene Vorstellungen von Weltrekorden... 🤷‍♂️
Das Ergebnis welches verlinkt war mit dem Rekord ist nicht HoF-Konform. Also erstmal nicht relevant.^^ Da spielt der Hr. Übertakter doch einfach am Tesselation-Regler. Immer diese Cheatversuche. :ROFLMAO:
 

Hall of Fame Platz 5... okay... :d
Hat HW Bot wohl eigene Vorstellungen von Weltrekorden... 🤷‍♂️
Im HWBot -> 47932. Im der 3dmark DB 45xxx. Der HWBot Eintrag wäre in valider Form Platz 1 in der 3dmark DB
 
Es kommt eher darauf an, wie du es sagst... Mein Eindruck - du suchst hier nen Fehler in der Hardware, den es nicht gibt um irgendwo noch ein Krümelchen in der Suppe zu finden ;) Deswegen auch nicht konkret. Warum nicht einfach sagen was du denkst? Frei raus? Bei der einen Aussage ruderst du so rum - bei der anderen ist es der direkte Vergleich. Das ergibt so keinen Sinn... Wenn das für dich Krawall ist, ist dir allerdings nicht zu helfen, sorry...

Die Frage ist eher, welche Einschränkungen? Du hängst dich an 5% auf... RT ja, das war vorher klar. Aber was soll an 4k sein?

Ich habe explizit nur auf den stark abfallenden Wert bei 4k verwiesen. Ich suche da gar keinen Fehler in der Hardware. Das ist ne Vermutung von Igor anscheinend. Habe das auch nie als Tatsache hingestellt, sondern die Ironie belächelt und es so hingenommen, weil alle immer sagen "Igor weiß es am besten". Er gilt als verlässliche Quelle hier, also wieso darf ich ihn nicht als Quelle nutzen, nur weil ich ihn nicht leiden kann? ;-).

Im Endeffekt ist mir das WARUM eh komplett egal. Den Fakt ändert es nicht und dieses Bild ist nahezu die einzige Angabe, die sich durch alle Reviews, aller Outlets hindurchzieht.
Selbst wenn ne 6800XT 30% vor ner 3080 in 1080p liegt, liegt sie in 4K auf einmal hinterher manchmal. Das würde ich schon als signifikanten Punkt für eine Diskussion sehen, oder nicht?
Auch für eine Kaufentscheidung ist das sicher relevant. Gerade die 16GB waren ja für 4K gedacht und nun liegt genau da eine RELATIVE Schwäche gegen die Konkurrenz. Ob die FPS trotzdem ausreichend sind, muss eh jeder selber wissen.

Wie oft muss ich den sagen, dass die GPUs gelungen sind, mit den kleinen Einschränkungen, die (auch mehrfach erwähnt), für kaum jemand relevant sind?!
Und es sind sicher auch mal mehr als 5% in 4K. Deutlich mehr. Aber halt nicht in allen Benches. Cherrypicking bringt da niemand weiter (in keine Richtung), aber pauschal 5% daraus zu machen ist sicher auch eine falsche Beschönigung.

Ich hoffe wir bekommen die kommenden tage Deep-Dive Videos, die dieses auffällige Verhalten beleuchten. Dann erfahren wir hoffentlich auch, ob das ein fixbares Problem ist, oder ein nicht fixbarer Designansatz. Beides ist möglich und wird für potenzielle Käufer durchaus Relevanz haben. Diskussionen zu diesem Thema werden auch mit die sinnvollsten im Forum sein bis dahin. Ideen sammeln, Benches / Reviews verlinken, die evtl. einen Ansatz zeigen usw. Die ganze zeit nur wiederholen wie toll es ist, dass wir wieder ne High-End Konkurenz haben, mag schön sein für 5-10 Seiten, aber doch nicht wirklich inhaltlich spannend für eine Diskussion.
 
@Tonmann
Es ist ja der einfache FireScrike - nicht Ultra oder Extreme. Da läuft die Karte eh in ein CPU Limit. Zumindest ist der CPU Einfluss ziemlich groß. Das kann schon hin kommen auch mit Luft...

Hat er aber wie geschrieben nicht durchgekriegt. Da wohl zu viel rumgetrickst wurde.^^

Jo, ich seh es grad im HWBot - da steht ja sogar ne Notiz von ihm, dass er die Tess-Regler hat bebüht... Insofern hast du klar recht :d

Ich habe explizit nur auf den stark abfallenden Wert bei 4k verwiesen.
Erschließt sich mir nicht, wo das sein soll... 2, 3, 4, oder auch mal 5% relativen Unterschied mal hier und da sind bei mir nicht "stark abfallend". Je nach Review performt die Karte sogar gleich ggü. ner 3080 bspw., egal ob FHD, 1440 oder UHD. -> bei Computerbase bspw. im Rating. 6%, die ganze Zeit. Auch wenn man dazu sagen muss, der eine Titel verfälscht das Bild. Wenn man ihn raus nimmt, sind es 3 bzw. 4% ggü. den 6% bei UHD. Ehrlich - das ist ne unnötige Übertreibung...

Was das Cherry Picking bringt ist mir btw. auch rätselhaft. Das Funktioniert doch andersrum genau so? So gibts Titel, da toppt die 6800XT die 3090 und nicht nur die 3080. Das mit "ja in Benches" abzutun ist genau so fragwürdig.


Du scheinst mir hier einfach der gleichen Geschichte wie ich oben versucht habe zu beschreiben, aufzusitzen. Erst mit Konkurrenz, wo man auch sinnvoll vergleichen kann, sieht man Stärken und Schwächen der jeweiligen Umsetzung. Von einer 4k Schwäche oder stark abfallender Leistung sehe ich hingegen nichts... Aber vielleicht hab ich auch was auf den Auge und du verlinkst einfach mal was du genau meist??
 
Zuletzt bearbeitet:
Niftu, du hast recht, ich denke die 6800xt ist so ziemlich der SweetSpot, die 6900er hätte sicher gut GDDR6X oder ein breiteres SI vertragen können. Denn der mit 128MB zwar riesige Cache läuft unter Umständen auch mal voll. Könnte mir deshalb auch vorstellen, dass Ram OC einiges bringt. Ist aber nur eine Vemutung. Vielleicht kommen ja auch Custom Karten mit etwas höherem Speichertakt.
Was auf jeden Fall Spannend für mich wird ist das Thema OC @Wakü. Könnte mir gut vorstellen, dass wir hier mit Igors PowerMod in moderaten Einstellung öfter die 2500Mhz Gamestabel sehen werden.
Ich denke dass Speicher-OC gerade hier der Schlüssel sein wird und daher würde ich mir Modelle mit besseren Modulen wünschen. Zudem scheint die Referenzkarte immer ins Powerlimit zu treffen, hier kommen die Nitros dann ins Spiel und darum werde ich mir wahrscheinlich auch nur so eine kaufen. Bei der 2080 Ti ist es dasselbe, ich komme mit fast 400 W schon oft ins PL, wie es mit einer FE ist will ich gar nicht wissen. Und flashen ist mir zu heikel aufgrund der Garantie.
Dann soll er es mal online validieren. Ansonsten, mach ich dir das in einer Stunde mit Phtoshop auch fertig.:fresse2:
Sieht mir auch was unrealistisch aus. Ich komme kaum über 32 K mit der 2080 Ti, ist aber auch stark CPU-limitiert. Darüber hinaus: Wir sollten bedenken dass es sich hierbei um Launchtreiber handelt. Es wird also auf jeden Fall noch besser.
 
Du scheinst mir hier einfach der gleichen Geschichte wie ich oben versucht habe zu beschreiben, aufzusitzen. Erst mit Konkurrenz, wo man auch sinnvoll vergleichen kann, sieht man Stärken und Schwächen der jeweiligen Umsetzung. Von einer 4k Schwäche oder stark abfallender Leistung sehe ich hingegen nichts... Aber vielleicht hab ich auch was auf den Auge und du verlinkst einfach mal was du genau meist??

Du hast ganz offensichtlich was auf den Augen, wenn Du das nirgends siehst. Oder Du magst es einfach nicht sehen, weil Du Dich auf die Sache mit den Stärken / Schwächen eingeschossen hast.

Hier wild die ersten zwei Benchmarks von HardwareUnboxed, wahllos angeklickt im Video:

001.png
002.png


In 1440P noch gleichauf, bzw. 3FPS vor der 3080.
In 4k schlagartig 7FPS (was hier sicher mehr als 5% ist,...) hinter der 3080.

003.png
004.png


Selbes Bild in WatchDogs: Legion.
In 1440p noch gleich auf, im Rahmen der Messtoleranz.
In 4k eindeutig nicht mehr gleich auf. Auch hier sind die 6FPS weit mehr als 5%.

Es geht um den RELATIVEN Abfall gegenüber dem Konkurrenten in 4k.
Das ist deswegen Relevant, weil gerade die 16GB VRAM von BigNavi für 4K als heiliger Gral und absolut nötig angepriesen wurde, bzw. auch im Forum so dargestellt wurde.
Jetzt, mit echten Zahlen, die man messen kann, verliert BigNavi gerade in 4K RELATIV zur Konkurrenz an Leistung.

Darum auch meine Analyse, dass ich die GPU jedem für 1440p bedenkenlos empfehlen würde, solange RT kein Thema ist.
In 4K ist eine bedenkenlose Empfehlung offensichtlich nicht so einfach. Ist die GPU trotzdem gut? Ja klar! Aber sie ist IN RELATION nicht so gut wie in 1440p.
Du wirst sicher irgendeinen Bench finden, wo das nicht der Fall ist, aber dieses Verhalten zieht sich durch alle Reviews und wird in jedem Forum behandelt und analysiert. Warum also nicht auch hier?
Ist dieses Verhalten den nicht auffällig und diskussionswürdig?

Schauen wir uns doch noch einen extremeren Fall an.
Damit es nicht heißt, ich würde nicht auch einen Benchmark raussuchen, bei dem AMD die 3090 schlägt,... lass das auch noch adden:
005.png


Wahnsinn was AMD da geliefert hat. Schlägt die 3090, für unter 700 Euro UVP.
Verdammt solide Leistung und eine riesen Freude diesen Fortschritt zu sehen.

Schauen wir auf 4K!

006.png


Moment mal,... nicht nur ist sie nicht mehr vor der 3090 in 4K,... sie ist 21 FPS unter der 3080 auf einmal.
Auch hier sind es weit mehr als 5%.

4k sollte die Stärke von BigNavi werden und nun sieht es wie die Schwäche aus. Und ich erinnere mich auch nicht an eine Architektur bei der die relative Leistung (außerhalb eines CPU Limits) zwischen den 3 primären Auflösungen so massiv verändert wurde. Mal 2-3%, klar. Aber das waren dann schon Ausreißer. Hier sehen wir teils 20% und mehr, was in diesem Fall den Unterschied zwischen "schlägt eine 3090" und "wird von einer 3080 geschlagen" ausmacht.

Ist das nicht diskussionswürdig, ohne die obligatorische Haterkeule, weil einem die gemessenen Daten nicht gefallen?

Edit:
Um die Schwankungen bei Cherrypicking auszugrenzen, hier noch die 18 Games Averages. Da sind Spiele drin, bei denen in 4k kein Einbruch ist,.. vor allem die AC games halt, die verzerren das etwas leider. Trotzdem das beste Average, dass ich spontan finde.

1080p:
010.png


1440p
011.png


4K
012.png



Also eine FullHD und 1440K GPU, aber Ampere ist besser in 4K, trotz des "Speicherkrüppels"?
Da würde ich doch lieber glauben, dass da ein Treiberproblem bei BigNavi den InfinityGauntlet nicht ordentlich schnippen lässt bei 4k.
Wenn AMD da nachbessern kann, ist die GPU nicht nur OK, sondern richtig gut. Mit dem Verhalten in 4k und der fehlenden RT Leistung, ist das halt.... durchwachsen.
 
Zuletzt bearbeitet:
@Tech Enthusiast

Also mir ist das auch sofort aufgefallen. Hier verliert die 6800XT mal schnell 60% Performance von 1440p auf UHD. Nvidia gerade 25% mit der 3080.

Unbenannt.jpg
 
Man muss natürlich ausloten, wo bereits CPU Limits sind und wo nicht.
Wenn die bei 1440p schon komplett greifen, wäre das zwar eine Erklärung, aber nicht unbedingt ein gutes Zeichen für BigNavi.

Wenn man nur im CPU Limit gleich auf ist, ohne CPU Limit aber nicht, dann sind wir wieder nicht da, wo wir sein wollten. Dann wäre die einzig relevante Vergleichsmetrik die in 4K und da sieht es ja eher mau aus momentan.
Es finden sich aber genug CPU Benches, die in den genannten Titeln weit mehr FPS zeigen, also würde ich hoffen, dass wir hier NICHT durch ein CPU Limit getäuscht werden.
Von dem her würde ich aktuell eher glauben, dass da ein Bottleneck in der Architektur (InfinityCache / Speicherinterface) oder ein Treiberproblem vorliegen.

Es kommt mir, eher subjektiv, so vor, als wäre der relative Verlust größer, je mehr VRAM benutzt wird.
Beim RT fallen die relativen Werte noch größer aus von 1440p auf 4k und RT soll ja den VRAM extra belasten gegenüber Rasterberechnungen. Vermute, dass in diese Richtung die ersten Deep-Dives der üblichen Channel gehen werden. Man könnte ja auch mal 4k@medium Settings mit 4K@Ultra vergleichen in einigen Spielen. Schauen, ob da ein Muster entsteht. Oder halt nur die Texturen umstellen. Wenn sich da nichts ergibt, hat man zumindest eine Sache mal ausgeschlossen.
 
Ich komme auf die ganzen Tests nicht klar. Irgendwie zeigt jeder was anderes und sowieso jeder was er möchte. Ein Bild könnte ich mir jetzt nicht damit machen. Wenigstens erkenne ich jetzt das die 3080 doch kein Fehlkauf war und ich mir keine Gedanken machen muss. Natürlich wäre ein direkter Vergleich im heimischen PC mega gut. Aber die Verfügbarkeit sagt leider "nein"

Schade finde ich das AMD vor dem Start der neuen Gen soviel geschrieben hat das am Ende nicht gehalten wurde. Das kreidet man ja eigentlich Nvidia immer wieder an. DIesmal wars aber recht ruhig. WIe eigentlich üblich bei AMD. Ob das jetzt daran liegt das der Kunde von AMD einfach mehr akzeptiert oder es generell weniger Kundschaft für AMD gibt. Weis man natürlich nicht.

Alles in allem ist man mit beidem gut bedient. Nächste Woche wenn die Customs kommen wird es vielleicht der Preis entscheiden. Ich glaube aber das wir gleiche Preise finden.
 
Man muss natürlich ausloten, wo bereits CPU Limits sind und wo nicht.
Wenn die bei 1440p schon komplett greifen, wäre das zwar eine Erklärung, aber nicht unbedingt ein gutes Zeichen für BigNavi.

Wenn man nur im CPU Limit gleich auf ist, ohne CPU Limit aber nicht, dann sind wir wieder nicht da, wo wir sein wollten. Dann wäre die einzig relevante Vergleichsmetrik die in 4K und da sieht es ja eher mau aus momentan.
Es finden sich aber genug CPU Benches, die in den genannten Titeln weit mehr FPS zeigen, also würde ich hoffen, dass wir hier NICHT durch ein CPU Limit getäuscht werden.
Von dem her würde ich aktuell eher glauben, dass da ein Bottleneck in der Architektur (InfinityCache / Speicherinterface) oder ein Treiberproblem vorliegen.

Es kommt mir, eher subjektiv, so vor, als wäre der relative Verlust größer, je mehr VRAM benutzt wird.
Beim RT fallen die relativen Werte noch größer aus von 1440p auf 4k und RT soll ja den VRAM extra belasten gegenüber Rasterberechnungen. Vermute, dass in diese Richtung die ersten Deep-Dives der üblichen Channel gehen werden. Man könnte ja auch mal 4k@medium Settings mit 4K@Ultra vergleichen in einigen Spielen. Schauen, ob da ein Muster entsteht. Oder halt nur die Texturen umstellen. Wenn sich da nichts ergibt, hat man zumindest eine Sache mal ausgeschloss

Das ist nicht das CPU Limit, sieht man gut bei dem HWL Gegentest mit dem 5950x vs. Intel, wo BigNavi mit stärkerer CPU nochmal deutlich zulegen kann (ohne SAM) und das über alle Auflösungen. Wäre BigNV nur mit einer vom CPU Limit gebremsten NV vergleichbar, gäbe es hier keine Steigerungen mehr.
Ich tippe mal ganz stark, wie weiter oben von mir angesprochen, dass der InfCache bei zu grßen Texturen voll läuft und der im Vergleich zu langsame VRam bremst. Zumindest bei nicht optimierten Spielen scheint das so zu sein.

Edit: Das ließe sich vermutlich nachstellen, indem man nur den Speicher übertaktet und auf die Veränderung schaut. Vermutlich würde in einem Refresh auch ein größerer InfCache helfen.

Edit2: Verschwörungstheorie \ Oder NV jubelt uns in 4k schon eine Form von DLSS light unter - intelligente Programmierung. Ist denn der Abfall bei NV und BigN jeweils proportional zu Steigerung der Auflösung?
 
Zuletzt bearbeitet:
Thema Verfügbarkeit: Kurz nach 15:00 Uhr bei MF ... 5 Karten pro Hersteller waren lagernd ... Lächerlich
Nice dass AMD wieder zurück im oberen Graka-Performance Segment ist.
Also digitech z.B hatte 26stk MSI Referenz 6800, 25Stk Asus 6800 und von der Asus 6800XT 30stk.

Mf hatte auch mehr als 5 Karten nur der Preis war dreist
 
@Tech Enthusiast @Luebke82
Eigentlich ist die Argumentation umgekehrt, Ampere hat eine Schwäche bei niedrigeren Auflösungen, was man bereits im Vergleich zur 2080TI gesehen hat. Erst bei 4K fliegt Ampere. Und der Speicher könnte in Zukunft knapp werden. Man könnte sich das fürchterlich programmierte Crysis Remastered ansehen oder andere Games, wo es einen deutlichen Unterschied zwischen 3080 und 3090 gibt. Theoretisch sollte da BigNavi besser dastehen. Das ist jetzt ein Thema für die Deep Dives.

Ansonsten hat Leonidas bereits eine erste Übersicht über die 4k-Ergebnisse gepostet. Die 6800XT liegt ca. 7% hinter der 3080.
 
Das liest sich dochmal ... das ja mal überraschend nice:)

Erinnert fast an die X800 und X1800 Zeiten, wo man überlegte welche Karte man vs Nvidia nehmen kann, überhaupt wieder eine Wahl haben, Konkurrenz auf Augenhöhe.

Tjaaa...wollte ja eigentlich eine 3080 haben, aber Preis, verfügbarkeit, 10GB ?! ..hmmm aber jetzt gibs ja ne 6800XT.. und wer weiß wie teuer die im Februar ist, wenns keine 3080Ti mit 16GB gibt wirds wohl ne 6800XT

nice work AMD
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh