AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Fanboy Gelaber halt, ich bin auch offen für alles, aber diese Pro diesen oder diesen Hersteller Laberei geht mir wirklich hart auf die Nüsse und die Objektivität die manche dabei verlieren ist das aller schlimmste. Ablosut unseriös und lächerlich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vor allem rechnet er dann auch noch falsch. Ich habe mich schon gewundert wie er auf diese komischen Werte kommt mit
Shadow of the Tomb Raider
2080Ti UHD: 4,29 Watt/FPS
3080 UHD: 4,18 Watt/FPS

Flight Simulator
2080Ti UHD: 4,85 Watt/FPS
3080 UHD: 4,76 Watt/FPS

F1 2020
2080Ti UHD: 2,73Watt/FPS
3080 UHD: 2,52 Watt/FPS

Geht dann halt so weiter....
Auf einmal ist es da dann ja doch nicht mehr so ineffizient. Oh wunder!!!
Mehr FPS bei gleicher Watt/FPS Verhältnis.
Anno ist das einzige Beispiel in dem es umgekehrt ist...

Muss peinlich sein wenn man auf einmal so bloß gestellt wird.
Wahrscheinlich kommt dazu dann auch kein Kommentar mehr.

Gut hier soll es eher um AMD gehen.
Schade, dass RDNA2 erst Ende Oktober vorgestellt wird. Auf de Ryzen 4000 bin ich jedoch auch extrem gespannt.
Mal sehen ob ich dann nochmal günstig vom 1600x auf einen 3600x oder 3700x upgraden werde.
Komplett neu kaufen wollte ich eigentlich nicht, aber eine neue GPU braucht eben auch eine stärkere CPU.
 
:hust: kurzes OT - mein 3700X steht ziemlich sicher zur Disposition :wink: und wird durchen einen 5700X oder 5900X ersetzt werden sobald als möglich :d

leider wissen wir ja vom 3xxx Launch das es mit dem 12 Ender mitunter auch länger dauern kann ...

hoffe halt das ich im Laufe des Novembers sowohl Cpu (hier sicher Amd) als auch Graka (hier Nvidia oder Amd) umrüsten kann, um dann spätestens im Weihnachtsurlaub RDR2 und den Mafia 1 Remake in 4K geniessen zu können ...
 
und wird durchen einen 5700X oder 5900X ersetzt werden sobald als möglich :d
Du meinst 4700X oder 4900X

Edit: Auch OT da es um CPU geht aber: Wisst ihr ob ein 3600x oder 3700x auf einem Asus Prime X370 pro ohne Probleme läuft?
 
Gibt doch bei NV den 102er und 104er Chip?
Wäre es denn ausgeschlossen, dass es einen 103er geben könnte? Als 3080ti? Irgendein Zwitter?

Wenn wirklich mal eine ernstzunehmende Alternative von AMD käme, würde ich sogar vielleicht ein sidestep zu AMD mit 16GB wagen.
Natürlich nur wenn die 3090 hinter den Erwartungen bleibt und eh nicht gekauft werden kann, mangels P/L
 
Natürlich nur wenn die 3090 hinter den Erwartungen bleibt und eh nicht gekauft werden kann, mangels P/L
Dass die 3090 keine P/L Krone gewinnen kann ist ja schon abzusehen. Spekuliert werden 10% mehr Power, maximal 20% mehr. Nach nun (aus meiner Sicht) 2 schwachen Evolutionsstufen bein Nvidia (effizienztechnisch ging da relativ wenig...) hätte AMD nun erstmals wieder eine Chance, hoffen wir das Beste :)
 
  • Danke
Reaktionen: THK
anscheinend soll Zen3 gleich als 5xxx kommen laut Rumors (https://www.computerbase.de/2020-08/cpu-zen-3-vermeer-desktop-ryzen-5000/) und ja, ein Kollege hat das Board mit nem 3600X - aber die neuen Zen3 werden eher nicht mehr auf X370 laufen...

Ah vielleicht damit es da mit den 4000er APUs keine Verwechslung gibt? Könnte ja durchaus sein.
Wenn ich das BIOS auf eine Version für Zen2 upgrade, laufen dann die Zen CPUs noch also wie z.B. der 1600x jetzt? Weil ich muss mit dem ja auch das Update dann machen.
 
Die neuesten Leaks sprechen von Navi23 mit 40 CUs samt 192-Bit Speicherschnittstelle, und somit folglich Navi22 mit 40 - 50 CUs bei 256-bit SI?

Was ist dann Navi21 aka big fucking navi? :haha:
320 - 384-bit SI, 80 CUs mit 20 - 24 GB Vram?
Oder doch gleich ein Chip mit ganz anderem SI (HBM)?

Der Leak mit dem Foto wo angenommen wird es ist das Entwickler-PCB, wäre dann für Navi23 und 22. Laut Foto passen da ja max. 8 Speicherchips drauf.
 
Little Navi Navi Flounder mit 40 CU?

Mal sehen, zur Zeit verdichtet sich also laut letzten leaks, dass Big Navi" 80CU mit nur einem 256bit SI und 16GB und die Kleinere genau ein halber N21 mit 40CU haben wird.
 
Funktioniert das überhaupt bei 256bit SI mit 16GB?
 
Funktioniert das überhaupt bei 256bit SI mit 16GB?

Ja, das funktioniert.

Das RDNA 40 CU Derviat soll zirka 25-30% Leistung auf das RDNA1 40 CU Pendant zulegen bei deutlich weniger Verbrauch. Damit wäre man im Bereich zwischen 2080 Super und 2080Ti. Sollte die Architektur fast linear skalieren bräuchte man nichtmal 80 CU um in den Bereich der 3080 zu kommen. Sollte es stimmen, wäre ein 60 CU Chip bereits dazu in der Lage. Klingt zu gut, aber wenn es so kommt, hat Nvidia ein Problem.
 
Zuletzt bearbeitet:
Gibt doch bei NV den 102er und 104er Chip?
Wäre es denn ausgeschlossen, dass es einen 103er geben könnte? Als 3080ti? Irgendein Zwitter?

Wenn wirklich mal eine ernstzunehmende Alternative von AMD käme, würde ich sogar vielleicht ein sidestep zu AMD mit 16GB wagen.
Natürlich nur wenn die 3090 hinter den Erwartungen bleibt und eh nicht gekauft werden kann, mangels P/L
Ausgeschlossen ist natürlich nix - aber was soll denn ein 103er Chip sein?
Zwischen 43xx und 52xx ALUs liegen ~20%. Wie soll ein 103er Chip da irgendwo zwischen passen?

So wie es bisher ausschaut, scheinen Spiele die massiv mehr FP32 Leistung nicht ausspielen zu können. Zumindest aktuell nicht. Im Compute Umfeld ist das offenbar anders. Ne 3080 dreht Kreise um ne 2080TI, wenn man sich bspw. sowas wie Blender mit OptiX anschaut. Da stimmt dann auch der Effizienzsprung deutlich besser aus Leistung pro Watt. Und es ergibt auch Sinn, warum NV das Powertarget auf 320W setzt und nicht für ne Hand voll Prozent in Games auf 270 oder so, weil eben dann dort die Performance deutlich geringer ausfallen würde.
Es schaut mir hier so aus als "erleidet" NV mit Ampere ein Stück weit ein ähnliches Problem wie AMD seinerzeit mit GCN - sie bekommen die Rohleistung nicht auf die Straße aktuell. Ob das gut oder schlecht ist, werden wir sehen müssen. Sprich wie gut funktioniert das bei Navi. Denn schlecht wäre es zumindest dann, wenn AMD das besser hin bekommt ;) Wobei auch dort die Spekulationen aktuell weit auseinander gehen. Von gerade 2080TI Performance bis über 3080 ist alles dabei. Von 270 bis über 300W auch.

Die Erfahrungen mit GCN haben gezeigt, dass die Software mit der Zeit höhere Anforderungen generiert. Sprich der Abstand von Ampere auf Turing wird ziemlich sicher größer werden in Games über 1-2 Jahre. Je nachdem, wie gut BigN da funktioniert ab Start, liegt ggf. witzigerweise mehr Potential in Ampere durch vieeeel brach liegende Shaderperformance als bei "klassisch" RDNA. Aber vllt zaubert auch AMD noch irgendwas ums Eck. Doppelte FP32 Einheiten war bis auf ein paar wenige Spekulationen in diese Richtung gelinde gesagt unerwartet.
 
Die verhungert doch an der Bandbreite :(

Vielleicht kommt auch keine 80 CU Karte. Mittlerweile denke ich, es ist bei 60 CU oder 64 CU Sense für das 256 Bit Interface. Bei 80 CU machen nur Sinn bei 384 Bit Interface, eine Verdopplung der 192 Bit der 40 CU Karte.
 
Zuletzt bearbeitet:
Dennoch ist die Karte ziemlich effizient, weil sie eben auch einfach viele FPS liefert.

Ich kann nur das wiedergeben was ich bei Igors Lab zu der Karte gesehen habe.
Außerdem, wenn du schon die Benches von hier ansprichst, dann solltest du festgestellt haben, dass deine 22,55% nur in Anno 1800 zustande kommen und in allen anderen Benches sehe ich da mindestens 30% mehr FPS in UHD.
In FullHD ist bei der 3080 fast immer ein CPU Limit vorhanden. Sieht man vor allem mal richtig gut beim Flight Simulator.
FullHD und WQHD nahezu gleich was 2080ti und 3080 angeht. In UHD dann 30% mehr FPS bei der 3080.
Du hast also mit deiner Aussage völligen Quatsch erzählt weil du scheinbar nur einen Benchmark angeschaut hast.

Ich bin bei Leibe kein NVidia Fanboy und habe immer wieder mal das Lager gewechselt. Aktuell mit Ryzen CPU und GTX 1080 unterwegs. Davor war eine R9 290X verbaut.
Aber Man kann einfach nicht von der Hand weisen, dass die 3080 eine ziemlich gute und effiziente Karte ist, wenn man Stromverbrauch und FPS anschaut.

Edit: Ich warte selbst sehnsüchtig auf das was AMD vorstellt, wirklich. Nichts ist schlimmer als nur ein Hersteller der High End GPUs auf dem Markt hat und ich würde auch gerne meine 1080 bald tauschen.
Aber man muss eben nicht irgendwelche Falschaussagen hier raus hauen.

ich habe nicht von fps gerdet und bezweifle auch gar nicht das die fps besser sind, gerade in uhd.
mir ging es um deine behauptung, daß die ampere karten ja so effizient seien.
ich habe auch genannt, daß ich als beispiel nur anno genommen habe, gerade weil es fordernder ist, als z.b. doom eternal.

Vor allem rechnet er dann auch noch falsch. Ich habe mich schon gewundert wie er auf diese komischen Werte kommt mit
Shadow of the Tomb Raider
2080Ti UHD: 4,29 Watt/FPS
3080 UHD: 4,18 Watt/FPS

Flight Simulator
2080Ti UHD: 4,85 Watt/FPS
3080 UHD: 4,76 Watt/FPS

F1 2020
2080Ti UHD: 2,73Watt/FPS
3080 UHD: 2,52 Watt/FPS

Geht dann halt so weiter....
Auf einmal ist es da dann ja doch nicht mehr so ineffizient. Oh wunder!!!
Mehr FPS bei gleicher Watt/FPS Verhältnis.
Anno ist das einzige Beispiel in dem es umgekehrt ist...

Muss peinlich sein wenn man auf einmal so bloß gestellt wird.
Wahrscheinlich kommt dazu dann auch kein Kommentar mehr.

Gut hier soll es eher um AMD gehen.
Schade, dass RDNA2 erst Ende Oktober vorgestellt wird. Auf de Ryzen 4000 bin ich jedoch auch extrem gespannt.
Mal sehen ob ich dann nochmal günstig vom 1600x auf einen 3600x oder 3700x upgraden werde.
Komplett neu kaufen wollte ich eigentlich nicht, aber eine neue GPU braucht eben auch eine stärkere CPU.

ich frage mich was du dich wunderst?
die werte sind korrekt und nicht komisch.
effizient ist für mich die karte, die weniger watt braucht um ein fps zu erzeugen. glattes beispiel: 100watt für 30fps ist effizienter als 150watt für 30fps.
wie habe ich es berechnet? ich habe die von nvidia selbst vorgestellten wattzahlen der gpus benutzt, also 320w für die 3080 und 250w für eine 2080ti.
dann nimmst du wattzahl geteilt durch die max fps und erhälst wieviel watt pro fps benötigt werden.

wie ich sehe hast du es bei drei weiteren spielen auch so versucht.
in uhd ist hier tatsächlich die effizienz etwas besser, bei fullhd aber nicht mehr.
und nimmt man die oc version der 3080 mit 340w/350w ist die 3080 OC ineffizienter als eine 2080ti.

Shadow of the Tomb Raider
2080Ti UHD: 4,29 Watt/FPS
3080 UHD: 4,18 Watt/FPS
3080 OC UHD: 4,49 watt/fps

und der kleine effizienzvorteil in uhd entspricht bei weitem nicht dem faktor von 1,9 den nvidia beworben hat.

ein vergleich bei 250W sieht dagegen anders aus, hinkt dann aber doch als vergleich:
Doom Eternal:
2080Ti UHD: 2,06 Watt/FPS
3080@250W UHD: 1,60 Watt/FPS

bei gleicher leistung (jeweils 250W) ist eine 2080ti nur 77,67% so effizient wie die 3080, bzw ist eine 3080 ~ 29% effizienter als eine 2080ti.
hier hat nvidia aber leistung mit deutlich mehr energieverbrauch erkauft. bei 250w ist der fps vorteil nicht mehr allzugroß.
vielleicht läge dann sogar eine übertaktete 2080ti auf 3080@250W niveau.
 
Zuletzt bearbeitet:
Wenn du OC Versionen anführst musst du das auch bei der 2080Ti machen.
Meine Ti war auf ein PT von 360W gestellt. Meine 3080 bringt mit 320W mehr FPS unter sonst gleichen Voraussetzungen als die 2080Ti mit 360W. Ergo: Ampere ist effizienter!

Längst nicht so sehr, wie ich es mir erhofft hatte. Aber definitiv effizienter.
 
Wenn du OC Versionen anführst musst du das auch bei der 2080Ti machen.
Meine Ti war auf ein PT von 360W gestellt. Meine 3080 bringt mit 320W mehr FPS unter sonst gleichen Voraussetzungen als die 2080Ti mit 360W. Ergo: Ampere ist effizienter!

Längst nicht so sehr, wie ich es mir erhofft hatte. Aber definitiv effizienter.

im tomb raider uhd beispiel ist die 3080(320W) ganze 2,6% effizienter als eine 2080ti(250W).
ich behaupte in spielen die nicht viele fps zaubern liegt die 3080 in sachen effizienz hinter einer 2080ti, siehe anno.

"ja ok, definitiv minimal effizienter unter den passenden vorrausetzungen."

ich wette du wirst kein spiel finden das unter standardbedingungen der 3080 eine um den faktor 1,9 bessere effizienz als eine 2080 ti aufweist.
und am liebsten back to topic -> bignavi
 
ich behaupte in spielen die nicht viele fps zaubern liegt die 3080 in sachen effizienz hinter einer 2080ti, siehe anno.
In Anno ist das CPU limitiert, deine Rechnung ist also falsch. Denn die GPU braucht in Anno eben keine 320W sondern deutlich viel weniger.

Deine Aussage zu Doom ist auch falsch. Von wegen "ich habe auch genannt, daß ich als beispiel nur anno genommen habe, gerade weil es fordernder ist, als z.b. doom eternal."
Was fordernder ist und was nicht, sieht man am absoluten Stromverbrauch der Karte - und nur der Karte. Nicht vom Gesamtsystem. Dazu gibt es genug belastbare Zahlen die dir bescheinigen, dass gerade ein Doom Eternal ziemlich weit oben beim Verbrauch ist. Völlig im Gegensatz zu Anno, was einfach komplett in ein CPU Limit läuft.

Kein Plan was du mit der Panikmache hier bezweckst? Wenn du wenigstens richtige Zahlen für die Beispiele nutzen würdest.
Aber du vergleichst nakte Theorie in Form der im Schnitt maximalen Verbrauchswerte der Karte und teilst die durch die Leistung einer im CPU limit liegenden Benchszene, sozusagen der worst case vom worst case. Was bringt das? Sicher muss man nicht den fiktiven Best case vergleichen, ala Blender mit OptiX bei 320W vs. 275W einer 2080TI, was dann grob über den Daumen fast doppelt so viel Mehrleistung bei unwesentlich mehr Verbrauch bedeutet. Den Spaß aber maximal negativ darzulegen, ist genau so völliger Unsinn.
Das ist wie nen 64C TR im Super PI gegen nen 10900k antreten zu lassen und sich dann aufzuregen, warum der TR so ineffizient ist :stupid:

ich wette du wirst kein spiel finden das unter standardbedingungen der 3080 eine um den faktor 1,9 bessere effizienz als eine 2080 ti aufweist.
Doch wirst du - nämlich an dem Punkt, wo du ein Cap auf eine bestimmte Leistung setzt und dann vergleichst, wie viel Energie Ampere ggü. Turing für diese Leistung benötigt. Das muss einem nicht so gefallen, ändert aber nichts daran, dass auch so eine Angabe "Effizienz" ist. Verfolgt man die Präsentation von NV zu der Thematik, fällt auch klar auf, dass genau in der Form die Aussage getätigt wurde. Deckt sich nicht mit der üblichen wir schauen wie viel Leistung bei wie viel Watt maximal raus kommt Angabe, stimmt... Aber muss es auch nicht.


Btw. auch eine BigN wird in Anno bei ansatzweise ähnlicher GPU Rohleistung wie ne Turing oder Ampere GPU der oberen Klasse in ein CPU Limit laufen und damit auch bei deiner Rechnung durchfallen - weil dann die keine Ahnung, 270-350W TDP geteilt durch die wenig steigenden FPS im Limit eben auch schlechter sind als es bei Navi10 bspw. sein kann. Oder im bestenfall vllt nur ein wenig besser.
 
in ultra hd liegt immer ein cpu limit an, nicht nur bei anno. nicht umsonst wird in 720p (oder weniger) getestet um möglichst cpu limit frei die leistung festzustellen. nur spielt in 720p vermutlich keiner.
und wenn man ein cap auf die leistung setzt, ist es "in meinen augen" keine standardsituation mehr sondern eine modifizierte situation.

hier mal ein paar echte benchmarkwerte statt rummgerechne.
performance per watt:
full hd -> 2080ti 97% effizienz der 3080
wqhd -> 2080ti 90% effizienz der 3080
ultrahd -> 2080ti 84% effizienz der 3080

wie schon festgestellt liegt die stärke in fps und effizienz bei ultrahd. gut für alle die in ultrahd spielen möchten.
der effizienz vorsprung schwindet bei oc versionen.
ich bleibe bei meiner meinung. die von nvidia beworbenen 1,9 fache effizienz trifft im normalen spieleeinsatz einfach nicht zu.

nachtrag:
den einzigen fehler den ich bei den berechnungen sehe ist der, daß ich den genauen verbrauch in watt zu den einzelnen benchmarks nicht kenne, sondern nur nvdias angaben.
hab auch keine 3080 zum testen. das gilt auch für die geposteten benchmarks. keiner weiß was mit wieviel watt lief und wieviel da manipuliert wurde.

für mich ist es eher ein vergleich von zen2 tr mit zen3 tr mit gleicher kernzahl. :censored:


HÄ? :fresse:

In UHD liegt quasie KEIN CPU-Limit an nur in niedrigen Auflösungen...

In Anno ist das CPU limitiert

ich hab auch nicht alles 100% im kopf und lasse mich gern verbessern, am liebsten mit quellverweis.
aber was stimmt denn jetzt? cpu limit? kein cpu limit?

ist dann wohl doch ein gpu limit.
 
Zuletzt bearbeitet:
Ja, das funktioniert.

Das RDNA 40 CU Derviat soll zirka 25-30% Leistung auf das RDNA1 40 CU Pendant zulegen bei deutlich weniger Verbrauch. Damit wäre man im Bereich zwischen 2080 Super und 2080Ti. Sollte die Architektur fast linear skalieren bräuchte man nichtmal 80 CU um in den Bereich der 3080 zu kommen. Sollte es stimmen, wäre ein 60 CU Chip bereits dazu in der Lage. Klingt zu gut, aber wenn es so kommt, hat Nvidia ein Problem.

Wenn das halbwegs hinkommt, ist es eventuell gar nicht so schlecht, dass ich keine 3080 FE bekommen habe und wenn die Verfügbarkeit die nächsten 3 Wochen ähnlich ist, werde ich mir, alleine wegen all der Dreistigkeiten, keine Nvidia kaufen und doch ins Regal der Roten greifen.
 
@Terr0rSandmann

Die Testwerte der Grünen Fraktion sind ja etwas ernünchternd ausgefallen, aber wenn Team Grün fast am Ende der Fahnenstange ist, was sagt uns das dann über AMD? Wenn die nicht irgend welche Wunderprozesse haben wird es dort wohl auch eher durchwachsen sein, und dann dürften nur noch die Preise entscheiden. Allerdings würde ich die aktuelle Verfügbarkeit von Team Grün nicht überbewerten, das ist nicht das erste Mal, und was Team Red dann abliefert muss man sehen. Und ob der Griff zur FE wirklich zu empfehlen ist wird auch die Zeit zeigen, der Speicher kocht ja laut einigen Aussagen gut vor sich hin, da könnte der Griff zur Custom-Karte die bessere Wahl darstellen.
 
Die Neuen Karten sind in punkto Leistung für WQHD/UHD einfach Super, was den Verbrauch angeht nicht.
Man hat sich die neue Leistung durch mehr Verbrauch erkauft, reicht das wieder für die Krone? Möglicherweise?
Ist eine neue RDNA2 Karte mit einer Leistung um die 3070 mit ~100W niedrigerem Verbrauch und mehr (16GB) Speicher möglich, mit Sicherheit bei gleichem / ähnlichem Preis denkbar.

Einfach abwarten Nvidia hat eh keine Karten mehr. Bis neue kommen kann man auch abwarten und beobachten was AMD zu bieten hat.
 
Wenn das halbwegs hinkommt, ist es eventuell gar nicht so schlecht, dass ich keine 3080 FE bekommen habe und wenn die Verfügbarkeit die nächsten 3 Wochen ähnlich ist, werde ich mir, alleine wegen all der Dreistigkeiten, keine Nvidia kaufen und doch ins Regal der Roten greifen.

meine hoffnung liegt derzeit auch eher bei bignavi mit 3080+ leistung für 600€.
 
Unterm Strich hat Nvidia nur einen refresh mit Optimierungen geliefert, nicht viel neues.
 
Ich sag euch was: Ich bin wirklich nicht so ultra begeistert von der 3080 und wenn AMD etwas mit mehr Power raus haut steige ich gerne direkt um, sofern ich beim Bestellen wieder Glück habe (denn auch die sind dann instant vergriffen).

Aber AMD ist in der Bringschuld, Nvidia hat geliefert. Schon vor ~4-5 Jahren, denn seitdem hat AMD meinen Ansprüchen (> Mittelklasse) nichts mehr zu bieten!

Und bei der Effizienz, das vergessen einige wohl, hängt AMD genauso lange schon hinterher. Und bevor AMD dort nicht Fakten liefert sollte man evtl. mal die Füße still halten - aber das hat ja auch bei Fiji/Vega schon nicht funktioniert!


Aber wenn AMD liefert im Stile alter Tage (wie z.B. mit der damals phänomenalen 9700pro z.B) bin ich der erste, der freudig umsteigt. Ich drücke die Daumen, hoffe das Beste und erwarte nichts!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh