Endlich wieder ein Duell auf Augenhöhe: Radeon RX 6800 und Radeon RX 6800 XT im Test

wäre ich ein Hardcore Nvidia Fan würde ich womöglich gar behaupten RX6000 ist ein Speicherkrüppel :shot:

So weit würde ich zwar nicht gehen, aber es entbehrt nicht einer gewissen Ironie, dass sie zwar massiv VRAM verbauen, der dann aber genau dort versagt, wo er gebraucht wird. ;-)
Der Versuch es billig, dafür massiv zu machen, ist wohl nicht so arg geglückt hehe. Klasse schlägt in dem Fall wieder die Masse.

Wäre aber echt cool gewesen, wenn es geklappt hätte. Sinkende Preise für mehr Speicher würde allen Kunden gefallen. Von dem her schmunzele ich über die Ironie, aber bedauere das Ergebnis trotzdem. War ein echt cooler Versuch. :-(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist doch fair. AMD ist bei den CPUs deutlich stärker, Nvidia bei den GPUs
Man darf auch mal rot/grün wählen :fresse:
 
Zuletzt bearbeitet:
So weit würde ich zwar nicht gehen, aber es entbehrt nicht einer gewissen Ironie, dass sie zwar massiv VRAM verbauen, der dann aber genau dort versagt, wo er gebraucht wird. ;-)
Der Versuch es billig, dafür massiv zu machen, ist wohl nicht so arg geglückt hehe. Klasse schlägt in dem Fall wieder die Masse.

Wäre aber echt cool gewesen, wenn es geklappt hätte. Sinkende Preise für mehr Speicher würde allen Kunden gefallen. Von dem her schmunzele ich über die Ironie, aber bedauere das Ergebnis trotzdem. War ein echt cooler Versuch. :-(
naja man muss ja so fair bleiben dass es nur eine leichter Abfall ist, ich glaube im Schnitt so 5% (muß mir das erstmal noch in Ruhe genauer anschauen) aber es ist halt nunmal da.

Für FHD und vor allem WHQD hier zum Teil sogar auch für RTX aber ein echter No Brainer mit den 16GB Vram (wenn die Preise halbwegs normal wären)
 
Gibts schon irgendwo Infos für den Video Encoder zum Streamen in OBS?
 
Na, deutlich ist da nix.
"Anders" trifft es eher, oder?


Schaut man auf 1080p und 1440p mit purer Rasterleistung, steht AMD mehr als gut da.
Schaut man auf 4k mit purem Raster, sind sie nahezu gleich auf.
Nur bei RT und den Softwareextras wie DLSS, RTX Voice und so, ist Nvidia deutlich vorne.

Der letzte Bereich ist AKTUELL, aber sicher noch der unwichtigste Bereich für die Masse.
Von dem her kann ich mir schon vorstellen, dass hier persönliche Präferenz, Preis, Verfügbarkeit wichtiger sind, als die Balken in Benchmarks.

Ich würde den BigNavi Launch bisher als ein Mittelding zwischen "Zen+ und Zen2" sehen, mit Potenzial im nächsten Schritt ein echter Gamechanger zu werden.
Also schon eher positiv, als "NVidia ist deutlich besser". Anders halt.
 
finde ich gar nicht so übel. der hat auch was zum ram oc gemacht und klang recht seriös
 
"5% Abfall bei 4K sind der absolute Dealbreaker, Speicherkrüppel!"
"Wie? Nur 5% Gewinn durch SAM? Merkt doch keiner!"

Yo, ich denke damit hat sich dann auch diese Relativierung und wir schalten Live rüber zu Robert Robbenklopper und wie die Scalping Saison so läuft.
 
Halt nur 16GB also haste recht :d
 
naja man muss ja so fair bleiben dass es nur eine leichter Abfall ist, ich glaube im Schnitt so 5% (muß mir das erstmal noch in Ruhe genauer anschauen) aber es ist halt nunmal da.
Niemand mal auf die Idee gekommen, dass die Ampere GPU mit ihren double FP32 Units einfach im CPU Limit hängt und erst obenraus anfängt ihre deutlich höhere Rohleistung überhaupt auszufahren?
Klingt mir so als sucht man hier schon wieder nach Fehlern, wo überhaupt keine sind :fresse:
Vor allem wo Auflösung einfach an der Skalierung in Sachen VRAM Menge sogut wie keinen Einfluss hat. FHD <> UHD = Faktor 4 bei der Pixelanzahl. Und der VRAM Bedarf steigt overall um vllt 10, 20, lass es mal 30% sein. Das ist doch ein Witz da von einer Abhänigkeit zu sprechen!??
Weiterhin ist es technisch auch ziemlicher Käse, wo gerade bei BigN der Cache mit 128MB viel viel viel früher deckelt/deckeln würde. Steigende Auflösung = steigender Bandbreitenbedarf, weil das zu errechnende Bild eben in der absoluten Größe steigt. Das muss also in entsprechender Menge immer schneller zwischengespeichert werden. Wenn das irgendwann abflacht in der Skalierung, spricht man von einem Bandbreitenlimit. Die Bandbreite bei BigN ist aber überhaupt nicht mehr das Thema, wo der Cache mit 2TB/sec an der GPU klemmt. Solange eben die Daten rein passen, die da rein müssen...
Wie man schön an den Werten erkennt, die da genannt werden -> steigt die Auflösung -> steigt der Bedarf an Platz im Cache -> sinkt der Anteil der Cache Kapazität für den "Rest", die Cache-Hitrate sinkt, weil die Wahrscheinlichkeit auch aus dem kleiner werdenden Restpool das richtige zu finden/drin zu haben, logischerweise sinkt. Ab einem Punkt kippt das dann um und die Skalierung bricht zusammen. Aber für die real in Massen genutzten Auflösungen kann man das mMn komplett vernachlässigen.

Schaut man auf 1080p und 1440p mit purer Rasterleistung, steht AMD mehr als gut da.
Schaut man auf 4k mit purem Raster, sind sie nahezu gleich auf.
??? Werd doch mal konkret?
"mehr als gut" ist ne Aussage ohne Bezug zu irgendwas. Weil gut im Bezug zu was??
"sind sie nahezu gleich auf" hat hingegen einen Bezug...

Was möchtest du damit ausdrücken? Keine Ahnung wo da bei 5% overall Unterschied in Relation zwischen den mittlerweile grund verschiedenen Aufbauten der GPU irgendwas von gut oder schlecht zu entnehmen ist? Naheliegend ist hier einfach nur, NVs Ampere mit double FP32 Performance rennt in ein CPU Limit, deutlich härter noch als AMD mit BigN. Was gehen kann siehst du bspw. bei reinem Rander-Workload, da fährt so ne Ampere Schlüssel mal eben knapp Faktor 2 an Leistung aus den Einheiten, im Gaming kommt man da bei weitem nicht ran... Es gibt also offenbar sehr viel mehr an Einfluss als es auf den ersten Blick den Anschein macht. Da aus 5% relativem Unterschied was ableiten zu wollen ist schon bisschen gaga...
 
nagelt mich nicht auf die 5% fest ich muß mir das erst mal genauer anschauen, es stach mir halt sofort ins Auge, da mir das ganze seit der Vorstellung immer wieder durch den Kopf gegangen ist, ob das mit dem mickrigen Si und dem Cache auch in 4K noch aufgeht und das tut es halt nicht.

selbst wenn es ca 10% ausmachen sollte, ist es sicher noch nicht unbedingt ein Dealbreaker, aber für mich auf jeden Fall ein Wermutstropfen.

Was meint ihr bei de 6900XT mit mehr Rohleistung, tritt das Problem noch deutlicher zutage oder wird es eher weniger ?

@Shevchen
falls du dich mit Speicherkrüppel auf meinen Post beziehst bitte nicht meine gesamte Aussage inklusive dem Smile ausser Acht lassen, da sollte eigentlich klar sein das die Bezeichnung nicht wirklich ernst gemeint war - aber ich denke das weisst du ohnehin ;)

Aber für die real in Massen genutzten Auflösungen kann man das mMn komplett vernachlässigen.
nichts anders habe ich behauptet :unsure: meine Aussage bezog sich einzig auf 4K, dass es in den anderen Auflösungen kein Problem ist, hab ich ja auch geschrieben direkt im Satz darunter, denn du dann aber leider in deinem Zitat von mir nicht mehr mitgenommen hast :) , aber in 4k (für mich persönlich das Haupteinsatzgebiet, darum interessiert mi das besondes) limitiert dieses Konstrukt aus kleinem Si und Cache halt leider doch.

Vielleicht wagst du ja mal nen Ausblick auf die 6900XT kann die das mit dem Mehr an Rohleistung ausgleichen oder tritt das Problem durch das mehr an Rohleistung eher noch deutlicher zutage ? ich bin mir unsicher was das betrifft
 
Zuletzt bearbeitet:
Also die 6800 mit dem XT Kühler und 50€ weniger und es wäre ein No-Brainer. 💁‍♂🎮
 
@Shevchen
falls du dich mit Speicherkrüppel auf meinen Post beziehst bitte nicht meine gesamte Aussage inklusive dem Smile ausser Acht lassen, da sollte eigentlich klar sein das die Bezeichnung nicht wirklich ernst gemeint war - aber ich denke das weisst du ohnehin ;)
Meine Antwort war auch eher ironisch gemeint und bezieht sich auf die Grubenkämpfe hier. Es gibt auch Fälle, wo die 6800XT die 3090 einsackt und das scheint niemanden zu jucken, aber wenn bei Minecraft RTX ne 500%-ige Performance-Differenz auftaucht, ist das total valide und so...

Wie ich es bereits beschrieben habe: Raster-Performance ist top. Spiele, die im klassischen modus rendern und ne gute "Screen-Spaced-Reflexion" Methode implementieren (und kompetente Szenen-Designer haben) zeigen nur marginalste Qualitätsdifferenzen zu den RT-Äquivalenten auf. Der RT-Hype wird halt gerne durch Titel befeuert, wo die klassischen Methoden voll im Eimer sind (ohne RT keine Reflexionen) und der "RTX on" Effekt dann um so krasser aussieht.

Dann gibt es auch noch bei der Implementierung starke Differenzen (Mal ist RDNA2 gleichauf beim RT-Verlust, mal verlieren sie doppelt so viel durch eingeschaltetes Raytracing) und - was nicht zu vernachlässigen ist: Die Karten takten laut Igor und GN gerne mal auf 2.500MHz - der Standard-Takt der anliegt geht aber eher Richtung 2.2 - 2.3GHz. Die Teile haben ein hübsches OC-Potential und der Flaschenhals "Speicher" wurde da noch gar nicht betrachtet. Auch Ampere kann man übertakten, da kommen aber sowas wie 3% (?) raus? Bei RDNA2 sehe ich mehr (so um die 7% - 10%)

Für mich als Tuner ist der Fall da ziemlich klar. Und wenn da mal ein RT Titel dabei ist, der nicht ganz so schnell läuft wird das durch 3 andere ausgeglichen, die schneller laufen.

Zur Zeit gibts n ziemlich krasses Cherry-Picking, warum RDNA2 angeblich "scheiße" wäre - das ist schon auffällig. Und die 6900XT wurde noch nicht mal gebencht, Treiber sind noch jungfräulich (aber erstaublich stabil für nen AMD Launch) und die Karten sind auch noch leiser als die Nvidia-Gegenstücke - und das obwohl das Design noch nicht mal optimal ist, wie GN es gerade vorgestellt hat.

Es ist... wie soll ich es ausdrücken... erstaunlich, wie wenig darüber berichtet wird, was AMD alles richtig gemacht hat und wie viel Gewicht auf die paar Kanten gelegt wird, die noch grob sind.
 
Leistung wie erwartet schlucken genauso wie die ampere dinger man darf nur gespannt sein wie sich die karten mit uv verhalten werden.
Vega ging mit uv gleich ca 200 mhz höher zu takten.
Wies bei big navi aussehen wird wird man sehen.
Wakü auf jedenfall die bessere lösung.
Nun wird nur noch interssant sein wie die 6900XT dann taktet.
OB da noch was geht ist aber zweifelhaft wenn die 6800 XT schon soviel schluckt.
 
Es ist... wie soll ich es ausdrücken... erstaunlich, wie wenig darüber berichtet wird, was AMD alles richtig gemacht hat und wie viel Gewicht auf die paar Kanten gelegt wird, die noch grob sind.
ah ok, ja das mag sein, ich bin heute noch irgendwie aufgewühlt :d weil der Murks mit dem Versuch eine zu bekommen wieder mal nicht geklappt hat und ich mich bei den Tests vor allem auf 4K konzentriert habe, das ist das Gezanke im Forum ein bisschen an mir vorüber gegangen :ROFLMAO:

muß mir das morgen früh mal alles in Ruhe anschauen und verdauen und dann die entsprechenden Schlüsse daraus ziehen ...
 
So waren ja auch die Slides bei der Veröffentlichung, ca gleich auf +- 5-6% jenach Titel. AMD haette aber am Besten die 6800 XT etwas günstiger rausgehauen, 599-629$ waeren deutlich interessanter..
 
nichts anders habe ich behauptet :unsure: meine Aussage bezog sich einzig auf 4K, dass es in den anderen Auflösungen kein Problem ist, hab ich ja auch geschrieben direkt im Satz darunter, denn du dann aber leider in deinem Zitat von mir nicht mehr mitgenommen hast :) , aber in 4k (für mich persönlich das Haupteinsatzgebiet, darum interessiert mi das besondes) limitiert dieses Konstrukt aus kleinem Si und Cache halt leider doch.
Das war eher ne Anspielung auf Tech Enthusiast mit seinem Ansatz da ne UHD Schwäche andichten zu wollen.
Und wie gesagt, ob das Si und/oder der Cache limitiert ist nicht wirklich belastbar aktuell zu beziffern - weil es einfach an Vergleichspaarungen fehlt. Ampere skaliert logisch besser, wenn du dieser Technik das definitiv vorhandene, weil nachweisbar messbar, CPU Limit Stück für Stück weg kürzt - was mit mehr CPU Bumms funktioniert, sofern es mehr CPU Bumms zu kaufen gibt, funktioniert (seit je her) aber auch mit Steigerung der Anforderungen. Klammert man BigN mal ganz aus, dann nimmt für sich allein Ampere mehr Fahrt auf, wenn du die Auflösung weiter erhöhst. 5k, 6k, 8k und/oder noch mit DSR Faktoren gepaart -> das wird immer "besser" funktionieren. -> ich denke da ist es doch nur logisch darauf hin zu weisen, dass eben diese zunehmende Skalierung nicht die sinnigste Basis ist um darüber zu urteilen ob das was ein anderer Player jetzt macht, gut oder schlecht ist? Oder gut oder schlecht skaliert?

Vielleicht wagst du ja mal nen Ausblick auf die 6900XT kann die das mit dem Mehr an Rohleistung ausgleichen oder tritt das Problem durch das mehr an Rohleistung eher noch deutlicher zutage ? ich bin mir unsicher was das betrifft
Ultra schwer vorherzusagen. Die 6900XT hat mehr Bumms als die 6800XT, nach den heutigen Reviews aber wissen wir, die 6800XT läuft primär (stock) ins Powerlimit. Wie das mit der 6900XT ausgehen kann/soll/darf? Kein Plan. Vorhersage mMn nicht möglich. Man kann raten, aber 5 Leute = 10 Meinungen dazu... Bringt mMn nur bedingt was.

Ich denke es kommt primär darauf an, ob/wie stark ein Binning hier Einfluss hat und wie viel Spielraum da noch ist. Man kann ne 6800XT auch OCen - was ich ggü. Ampere für sehr interessant halte. Denn ich hätte erwartet, dass AMD da weit mehr ans Limit geht. OC Spielraum mit 0815 Community-(in)stabilität könnte aber auch bedeuten, die 80CU Version bekommt die Sahnestücke und ist dann in der Lage die Leistung auch entsprechend auszufahren, obwohl das Powerlimit nicht anders ausfällt...
Aber viel würde ich mir eh nicht versprechen. Bisschen über 10% an der Rohleistung zzgl. bisschen am Takt stehen dem Powerlimit gegenüber. MMn macht das rein auf die Leistung gesehen, den Kohl nicht fett. Mehr Leistung wird bei CPU Einfluss in spürbarer oder wenigstens messbarer Form auch bei AMD nicht gut skalieren. Allerdings würde ich aus dem Bauch heraus sagen, Ampere hat da mehr Nachteile als Navi aktuell. Sie fahren auch das restrikivere Powerlimit - nämlich die gesamte Leistungsaufnahme. Bei AMD nur die GPU, der Rest darf "machen" war er will. -> steigt die Bandbreitenanforderung bei NV, so steigt auch die Leistungsaufnahme vom Beikram. Klaut damit der GPU "Anteile" -> negativ für die Skalierung. Kann dir bei AMD nicht passieren. Säuft dann halt einfach mehr...

Meine Antwort war auch eher ironisch gemeint und bezieht sich auf die Grubenkämpfe hier. Es gibt auch Fälle, wo die 6800XT die 3090 einsackt und das scheint niemanden zu jucken, aber wenn bei Minecraft RTX ne 500%-ige Performance-Differenz auftaucht, ist das total valide und so...
Find ich ehrlich gesagt ziemlich witzig muss ich sagen ;)
Weil die Ignoranz an der Stelle habt ihr euch leider selbst aufgehalst - Monate, ja gar Jahre lang gab es die "reicht ja" Aussage. Jetzt von heute auf morgen hat AMD ein Produkt, was seit 2013 mal wieder HighEnd würdig ist. Wundert es da bitte wirklich, dass exakt das, was man Jahrelang zu lesen bekam, andersherum genau so funktioniert?? Die Fälle, wo die 5700XT meilenweit am Schnitt vorbei ging, wurden doch genau so immer und immer wieder schön geredet? -> die Fraktionen nehmen sich da beide effektiv gar nix...
 
das kann man unterschreiben, da nehmen sich beide Fraktionen leider wirklich gar nix (ebenso wie die Amd vs Intel Fraktionen) :d und vielleicht erleben wir ja bei den Grakas in ein paar Jahren sogar Amd vs Nvidia vs Intel :shot:
 
Find ich ehrlich gesagt ziemlich witzig muss ich sagen ;)
Weil die Ignoranz an der Stelle habt ihr euch leider selbst aufgehalst - Monate, ja gar Jahre lang gab es die "reicht ja" Aussage. Jetzt von heute auf morgen hat AMD ein Produkt, was seit 2013 mal wieder HighEnd würdig ist. Wundert es da bitte wirklich, dass exakt das, was man Jahrelang zu lesen bekam, andersherum genau so funktioniert?? Die Fälle, wo die 5700XT meilenweit am Schnitt vorbei ging, wurden doch genau so immer und immer wieder schön geredet? -> die Fraktionen nehmen sich da beide effektiv gar nix...
Ach komm, da müssen wir die Kirche im Dorf lassen. Meine Argumente aus den letzten Monaten gingen hauptsächlich auf 5700XT vs 2070S Ergebnisse - wo die Differenzen echt nicht der Rede wert sind. Da gab es Spezis, welche der 5700XT "gerade mal 2060 Performance" ansprechen wollten und dann mit FF XV angekrochen kamen und ich hab da mit nem Bench geantwortet, wo die 5700XT auf Augenhöhe mit ner 2080 lag.

Wenn ich Nvidia Cherry Picking mit AMD Cherry Picking kontere um die Sinnlosigkeit der Vergleiche darzustellen, hatte ICH darauf gehofft, dass die andere Seite den Quatsch mal lässt und die ganzen Ausreißer ignoriert und mal auf die gesunde Mitte der Benches guckt. Statt dessen wurde aber mich *noch mehr* Cherry Picking getrollt.

Aber um mal zurück zum Thema zu kommen: du siehst ja evtl. auch Titel, wo die Differenzen zwischen AMD und Nvidia teilweise exorbitant (aka 30% zwischen min und max differenz) werden. Evtl. würde es da mal interessant werden die Ursachen zu hinterfragen, anstatt einfach nur "Och, hier ist AMD 15% schneller, während sie wo anders gleich auf liegen. Paßt schon!" vs "Och, Nvidia ist hier mal 15% schneller als AMD, paßt schon!"

Ich hab so den Eindruck, dass wenn Nvidia "schneller" ist, das einfach als Gott gegeben akzeptiert wird, aber wenn AMD mal "schneller ist", muss da was "faul sein". Vielleicht irre ich mich ja, aber so ganz ohne BIAS scheint das hier doch nicht zu laufen.
 
Hype ist für manche wie eine Droge, aber wenn Nvidia vorne liegt dann drückt AMD viel schneller die Preise
 
Und die sind dann auf Entzug, sobald der Hype vorbei ist^^
 
AMD hat für mich genug getan, als dass ich beim Kauf meiner nächsten Graka wohl größtenteils den Faktor Performance/Euro walten lassen kann.

Aber brauch ich überhaupt eine neue Graka bei 1440p@75hz und einer RTX 2070 OC?
 
Ach komm, da müssen wir die Kirche im Dorf lassen. Meine Argumente aus den letzten Monaten gingen hauptsächlich auf 5700XT vs 2070S Ergebnisse - wo die Differenzen echt nicht der Rede wert sind. Da gab es Spezis, welche der 5700XT "gerade mal 2060 Performance" ansprechen wollten und dann mit FF XV angekrochen kamen und ich hab da mit nem Bench geantwortet, wo die 5700XT auf Augenhöhe mit ner 2080 lag.
Natürlich - komische Aussagen maximal geschönt gibt es auch auf beiden Seiten, aber darauf wollte ich gar nicht mal so wirklich hinaus, eher beziehe ich mich da auf die Preisdiskussion von Turing seinerzeit - also die Gegenargumente gerade in Sachen der 2080TI in Sachen Preis. Man hat (auch wegen dem Preis) um diese "Klasse" einen Bogen gemacht. Es war regelrecht nicht wichtig dass da oben nochmal 20, 30 % mehr gingen. Ggü. der 5700XT waren es gar irgendwo 50%+ im Schnitt, was ne Menge Holz ist... Das ist eben gut doppelt so viel Unterschied als heute die 6800XT über der 2080TI liegt. Ironischerweise hab ich aber noch kein Argument gelesen, dass ne 2080TI ja auch reicht. Oder ne 2080S!?? :haha: Find ich lustig, weil das exakt so zu erwarten war, dass das jetzt so läuft ;)

Aber um mal zurück zum Thema zu kommen: du siehst ja evtl. auch Titel, wo die Differenzen zwischen AMD und Nvidia teilweise exorbitant (aka 30% zwischen min und max differenz) werden. Evtl. würde es da mal interessant werden die Ursachen zu hinterfragen, anstatt einfach nur "Och, hier ist AMD 15% schneller, während sie wo anders gleich auf liegen. Paßt schon!" vs "Och, Nvidia ist hier mal 15% schneller als AMD, paßt schon!"

Ich hab so den Eindruck, dass wenn Nvidia "schneller" ist, das einfach als Gott gegeben akzeptiert wird, aber wenn AMD mal "schneller ist", muss da was "faul sein". Vielleicht irre ich mich ja, aber so ganz ohne BIAS scheint das hier doch nicht zu laufen.
Ich denke da übertreibst du - denn A) wie schon erwähnt, Cherry Picking wurde gerade als AMD eben meilenweit abseits agierte ggü. HighEnd bei NV, gern von seitens der AMD Fraktion betrieben und B) das sind nunmal grund verschiedene Ansätze!? Ich versteh nicht, warum man immer meint, das müsse alles gleich skalieren? Ist das so ein Überbleibsel von Jahrelang nur Intel im CPU Bereich? Da war das schon das gleiche... Man erkennt doch erst mit einem Konkurrenzprodukt, was eine Sache besser kann, wo etwas nicht optimal läuft!? Das ist doch das normalste auf der Welt?

Stell dir vor es würde keine Wettkämpfe im Sport mehr geben - wie willst du dann sehen, wer wo wie besser ist? Und was bringt es, wenn du immer nur gegen dich selbst antrittst? Da siehst du zwar deinen Fortschritt, wenn du diesen erreichst - aber dass ggf. ein anderer in der einen oder andere Disziplin einfach mal deutlich besser ist, während du in einer anderen Disziplin den den anderen deutlich schlägst ist doch gerade normal!?? Mir irgendwie rätzelhaft wo da ein Problem dran ist?

Btw. zum letzten noch kurz - da stimme ich dir zu. Das ist auch ein Stück weit mein Eindruck. Zumindest in erster Instanz. Aber ich sehe hier auch klar den Ansatz, dass es eben bis auf Ausnahmen meist so lief in letzter Zeit, ja fast den letzten 10 Jahren, dass NV hat geliefert, während AMD bis auf Ausnahmen eben nicht immer hat geliefert. Augenhöhe im HighEnd, seit AMDs Kauf von ATI in 2006 gabs mit der 5870 (zeitlich ggü. Fermi 6 Monate im Vorsprung, Leistung absolut aber schlechter), 2011 (Tahiti ggü. Kepler, zeitlich 3 Monate im Vorteil, Leistung gleich, aber bei viel mehr Rohleistungseinsatz) und 2013 (Hawaii ggü. GK110, Rohleistung und Endleistung vergleichbar) Das war in Summe vllt mal 1 Jahr, lass es 1,5 Jahre gewesen sein, wo AMD die Statistik hat angeführt. Den Rest? NV - only NV. Ist das für dich verwunderlich, wenn die Leute dann primär zweifeln? Wundert mich persönlich nicht...
 
Aber brauch ich überhaupt eine neue Graka bei 1440p@75hz und einer RTX 2070 OC?
Diese Entscheidung liegt bei dir. So dumm es klingen mag. Bist du noch zufrieden und kommst nicht an die Grenzen? Dann super, behalte alles wie es ist. Kannst du auch zukünftig mal den Regler bedienen und nicht alles auf maxed Out zocken ? Super, dann bleib wo du bist. Willst du was besseres? Dann kauf was neues :)
 
Diese Entscheidung liegt bei dir. So dumm es klingen mag. Bist du noch zufrieden und kommst nicht an die Grenzen? Dann super, behalte alles wie es ist. Kannst du auch zukünftig mal den Regler bedienen und nicht alles auf maxed Out zocken ? Super, dann bleib wo du bist. Willst du was besseres? Dann kauf was neues :)
100% richtig. Man wird sehen, wie anspruchsvoll die Games in den nächsten Jahren sind. Früher hat mein Monitor oftmals die Grafikkarte bestimmt, als ich noch auf dem 144hz Zug drauf war. Inzwischen reichen mir 75hz aber absolut aus und Lautstärke und Temperaturen haben massiv für mich an Bedeutung gewonnen. Von daher ist eine neue Grafikkarte eher unter dem Aspekt interessant, dass die gewünschten 75fps@1440p unter guter bis sehr guter Qualität mit einem niedrigeren Lautstärkepegel (da niedrigere Auslastung) zu realisieren sind als vorher. Also letztendlich die Performance / Watt Ratio.

Das ist ein Punkt, wo mich AMD leider immer noch nicht ganz überzeugt. Nvidia hat da immer noch die Nase vorn aber immerhin hat AMD da jetzt endlich einen größeren Schritt nach vorne gemacht
 
Ironischerweise hab ich aber noch kein Argument gelesen, dass ne 2080TI ja auch reicht. Oder ne 2080S!?? :haha: Find ich lustig, weil das exakt so zu erwarten war, dass das jetzt so läuft ;)
Hab ich doch schon in nem anderen Thema geschrieben - ja ne 2080Ti oder 2080S reicht dicke. Vor allem bei 1440p würde ich nen Bogen um die jetzige Gen machen. Wenn man 4k hat und mit ner 2070/5700 unterwegs ist, macht die jetzige Gen aber evtl. schon Sinn.


Ich denke da übertreibst du - denn A) wie schon erwähnt, Cherry Picking wurde gerade als AMD eben meilenweit abseits agierte ggü. HighEnd bei NV, gern von seitens der AMD Fraktion betrieben und B) das sind nunmal grund verschiedene Ansätze!? Ich versteh nicht, warum man immer meint, das müsse alles gleich skalieren? Ist das so ein Überbleibsel von Jahrelang nur Intel im CPU Bereich? Da war das schon das gleiche... Man erkennt doch erst mit einem Konkurrenzprodukt, was eine Sache besser kann, wo etwas nicht optimal läuft!? Das ist doch das normalste auf der Welt?
Puh - gute Frage. Ich bin wohl einfach schon zu verbrannt von den ganzen "Cheats" um da noch mit naiver Fröhlichkeit Benchmarks anzugucken ohne sie zu hinterfragen. Von Intels "Schnellem vs langsamen Code-Pfad" (asiehe den kürzlichen Matlab-Fallout) über Balkendiagrammen mit "2x schneller, 3x schneller" oder heute (oder gestern) geposteten Intel-Folien mit "7x schneller!" - ich kann den ganzen Rotz halt nicht mehr ernst nehmen, wenn am Ende dann doch nur 5% übrig bleiben, von den versprochenen 700% (mal übertrieben ausgerdrück)

Entsprechend betrachte ich "Its meant to be played" Spiele, wo ne 2060 ne 5700XT schlägt als ziemlich Banane. Da könnte AMD auch einfach die Treiber-Optimierungen lassen, nochmal 50% der Performance wegschrauben und das Spiel auf dem Pranger als "Schande" stehen lassen, anstatt krampfhaft zu versuchen, dagegen anzukämpfen. Bei solchen Sachen hilft Exposition mehr als gegen Windmühlen zu kämpfen. Das hätte man bei FF XV machen sollen. Einfach mal "AMD ist 90% langsamer" und stehen lassen.

Stell dir vor es würde keine Wettkämpfe im Sport mehr geben - wie willst du dann sehen, wer wo wie besser ist?
Na ja, dafür gibts doch Standards, oder? Ob ich mich nun gegen mich selbst messe oder gegen 100 andere ändert nix an meiner Performance. Ich werde ja nicht schneller oder langsamer, nur weil jemand mitläuft. Es sei denn, mir wird Sand in die Augen geworfen...

Den Rest? NV - only NV. Ist das für dich verwunderlich, wenn die Leute dann primär zweifeln? Wundert mich persönlich nicht...
Wenn es *nur* Zweifel wäre... ;)
 
Krass wie das AMD System teilweise mit Intel den Boden wischt. Bei Anno bis zu 20% in den min FPS besser.

Ich finde die RX wird dem Hype voll gerecht, der drehte sich nämlich nicht darum das sie NV "vernichten" sondern unerwartet erstarkt zurückgekommen sind. Den niedrigen UVP der NV 3080 haben wir dadurch direkt AMD zu verdanken. Denkt mal an die letzte Runde von der 1000er auf die 2000er Serie, damals noch ohne nennenswerte Konkurrenz. Da wurden wir Nutzer noch ganz schön gemolken.

Danke Lisa;)
 
Zuletzt bearbeitet:
Also man kauf einfach das was zuerst da bzw. zuerst den Normalpreis hat..
 
Super. Endlich nach Jahren hat AMD mal gleich gezogen. Das ich das noch erleben darf.
Trotzdem kommt mir keine AMD Karte mehr ins Haus. Zuviel schlechte Erfahrung.
 
Eine 2080 Ti reicht mir im Moment, trotzdem werde ich wechseln wenn sich eine "günstige" Gelegenheit dazu bietet. Hier würden mich ein paar Kinderkrankheiten bei den 6000ern gar nicht stören: Denn dann werden viele NVIDIA-Fetischisten abgeschreckt und die kaufen mir dann meine 2080 Ti für eine ordentliche Summe ab. Wenn ich Glück habe mache ich dabei sogar etwas Gewinn oder aber verliere zumindest nichts. Das hängt auch von den Preisen der RX ab, das Gute ist dass hohe Neupreise hohe Gebrauchtpreise alter Karten bedeuten. Aktuell macht diese Karte so ziemlich genau 60 FPS in 4K, endlich kann ich Spiele wie AC: Origins nachholen.

Wenn dann die 3080 Ti kommt würde ich trotzdem eine RX nehmen, es sei denn die Ti ist günstiger. Das wird aber nicht passieren. Bei einer UVP von 999 $ werden die Karten in der Realität locker wieder 1400+ kosten. Wenn ich die 3070er für ~700 € sehe weiß ich nicht ob ich lachen oder weinen soll... Dass die Karten aus grünem und rotem Lager je nach Titel unterschiedlich performen ist doch eigentlich bekannt. In BFV liegt eine 5700 XT nahe einer 2080S, ich wette da wird auch selbst die 6800 XT an eine 3090 rankommen. In anderen, für das grüne Lager optimierte Titel sieht es schlechter aus, aber was juckt einen ob NVIDIA da 5 FPS mehr macht? Es wird dadurch nicht spielbarer oder signifikant flüssiger.

AMD hatte es wohl schwer mit der Speichermenge. Ich bin sehr gespannt ob sich dieser Smart-Cache noch optimieren lassen wird, er hilft bei der geringen Bandbreite aber eine Variante mit schnellerem Speicher wäre schon schön gewesen. Oder aber nur die 6900 XT mit 384-Bit, dann wäre deren Aufpreis auch eher gerechtfertigt, denn in 4K ist jedes GB/s an Bandbreite Gold wert. Laut den Benches ist die Leistung aber auch in 4K immer noch ganz gut, sie hat dort nur eher Schwierigkeiten die 3090 anzutasten, kein Wunder, die hat fast die doppelte Bandbreite.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh