Nächste GeForce-Generation morgen – AMD verweist noch einmal auf die Effizienz

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
radeon-rx-6900-xt.jpg
Einen Tag vor der Präsentation der nächsten GeForce-Generation hat AMD in einem Blogpost noch einmal auf die Effizienz der aktuellen Radeon-6000-Generation auf Basis der RDNA-2-Architektur verwiesen. Sowohl das Datum der Veröffentlichung, als auch das Thema als solches dürften nicht ganz zufällig gewählt werden sein. Das Datum hat offensichtliche Gründe, das Thema bedarf allerdings einer kurzen Erklärung.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
spannend wird da sicher ein vergleich der top karten bei gleichem Verbrauch
 
RDNA3 soll wohl Nahe 4 Ghz takten, was brachial wäre. RDNA2 ist dazu noch deutlich effizienter, wenn man ein FPS Limit stellt.
 
Wir werden sehen was dabei herum kommt. Nach dem EVGA sich von Nvidia trennt, verliert Nvidia definitiv einen Flaggschiff Hersteller. Hätte ich damals die Wahl gehabt bei der 3080 => EVGA....
 
Hmmm... hinterlässt bei mir ein kleines Mimimi-G'schmäckle. 🤷
 
RDNA3 soll wohl Nahe 4 Ghz takten, was brachial wäre. RDNA2 ist dazu noch deutlich effizienter, wenn man ein FPS Limit stellt.
Haha 4Ghz...das ist nur leeres Geschwatze eines AMD Fanboy "Leakers"...
AMD wirbt mit >50% Perf/Watt gegenüber RDNA2...aber wenn die 4090 nur 450W hat und 80% schneller ist als eine 3090, dann kann man locker mit ein wenig Tuning locker +50% oder mehr Performance bei 350W rausholen. Das wäre also mindestens genauso gut wie bei AMD. Komisch nur das es keine Erwähnung findet und alle nur sagen BOAH ist AMD Effizient...

Sowohl AMD als auch Nvidia und Intel lassen ihre GPUs/CPUs seit mehreren Generationen über dem Sweetspot hinaus laufen, da ist es klar das ein FPS Limit hilft.

Außerdem der Slide von AMD ist armselig...es gab ihn schonmal mit genau den selben Karten, nur sind es jetzt aktuelle Preise...und nochwas hat sich geändert.
Perf/Watt ist bei ALLEN Karten gesunken und man hat bai allen "bis zu" hinzugefügt...
Mir ist noch was aufgefallen...um die 6700XT besser aussehen zu lassen hat man irgendwas von 3060Ti OC genommen und gleich mal 30W draufgepackt, damit man mit "better FPS/ Watt" werben kann...lächerlich...

Hier nochmal das altes Slide zum Vergleich...
rX29EFr8Dyq1JJjQ.jpg
 
Die können mir noch so viele Folien um die Ohren hauen. Wenn ich Tests auf HW oder CB sehe, wird entschieden.
Freue mich aber auf die neue Generation.
Absolute Zustimmung. Mehr gibts dazu auch eigentlich nicht zu sagen. Dieses ganze Vorgeplänkel geht mir mittlerweile nur noch auf den Zeiger. Alle 5 Tage irgendwelche Leaks. Lieber einmal richtig reinhaun anstatt 10 mal Appetithäppchen.
 
AMD wirbt mit >50% Perf/Watt gegenüber RDNA2...aber wenn die 4090 nur 450W hat und 80% schneller ist als eine 3090, dann kann man locker mit ein wenig Tuning locker +50% oder mehr Performance bei 350W rausholen. Das wäre also mindestens genauso gut wie bei AMD. Komisch nur das es keine Erwähnung findet und alle nur sagen BOAH ist AMD Effizient...
Och, du kannst deine Karte auch auf 150W undervolten und hast dann 200% mehr Perf/W oder du nutzt ne APU und hast dann 500% mehr Perf/W. Nvidia hat sich bei dieser Metrik genauso bekleckert als sie mit dieser Grafik hier aufschlugen:
fgMEZrpT5yCXNJLZUv8ERe.jpg


Normalerweise hält man bei einem solchen Vergleich die Wattzahl fest und sucht sich passende Bezugspunkte wie 250W, 300W oder 350W - eben jene Punkte, welche die Karten im Durchschnitt bei Vollast auch tatsächlich lutschen und dann vergleicht man. Da würde dann im Marketing aber nicht mehr Faktor 2 rauskommen, sondern nur noch Faktor 1,2 - doof fürs Marketing.

Nun, gucken wir uns die Behauptungen von AMD doch mal an und hmm... die Tabelle nimmt tatsächlich ähnliche Wattzahlen für die Modelle und vergleicht dann die Raster-Performance von Modellen mit ähnlicher FPS. AMD lässt sich natürlich nicht lumpen und nimmt nur Vergleiche, wo ihre Modell schneller sind als bei Nvidia und die 3090Ti taucht in der Tabelle nicht auf. Trotzdem lässt sich daraus ablesen, dass AMDs Karten etwas effizienter sind.

Was bleibt ist das große Warten auf echte Benchmarks und das Vorbereiten der Bingo-Karte für das morgige Event.
 
WO gibt's denn bitte die 6900XT für 699 Dollar?! :d
 
Zuletzt bearbeitet:
@GlaeschenMaggi @bobby - 4Ghz ist übertrieben, aber ich denke, dass das bestimmt sowas wie der FMax Clock im Bios ist. Vermutlich eher an 3.6-3.7Ghz (für OC 450W etc..) und denke, dass die normalen Modelle bestimmt um die 3-3.2Ghz takten werden. Man darf nicht vergessen, dass der 5nm Prozess sehr Taktfreudig ist. Ich vermute hier aber, dass das wieder so ein Marketingleak sein könnte, damit man auf RDNA3 wartet.

@BJGucky - AMD sollte man nicht nur bei RDNA kritisieren, sondern eher das, was die derzeit mit Zen machen. Klar kannst du beide Karten undervolten und co. Ich habe hier eine 6800XT und hatte auch davor eine 3070 und war mit beiden eigentlich ganz zufrieden, aber Ampere benötigt halt einfach mehr Leistungsaufnahme pro Leistung. Ich merke aber sehr, dass da FPS/Watt AMD schon überlegen ist bei RDNA2, da gabs auch mal ein Test bei CB.

Die 6800XT läuft auf Powerlimitiert auf 185W und ich mag es eher, wenn ich kühl und leise etwas zocke.
 
Das muss man sich mal vorstellen. Jahrzehntelang gabs sowas wie 100MHz mehr auf den GPUs, während die CPUs zu Pentium 4 Zeiten schon die 4GHz knackten. Das ist 22 Jahre her. In 22 Jahren haben die CPUs es dann endlich geschafft von 4 GHz auf 5GHz zu kommen. In den 2000'er Jahren hatten die GPUs Taktfrequenzen von 200MHz. Es dauerte bis zum Jahr 2012/2013 bis AMD als erstes die 1GHz Schallmauer der GPUs knackte und in dieser 1GHz Marke blieben wir bis RDNA 1 - also 10 weitere Jahre lang, die kurz vor der 2GHz Marke kratzte.

Und AMD so innerhalb von 2 Generationen: Och, 4GHz klingt Knorke, machen wa mal eben.

WUT? :d
 
Mein Zen 2 schafft bis heute nicht die angegeben Boosttaktraten im Vergleich und er wurde immer weniger :d
 
Dann wird RDNA 3 wohl höher takten als deine CPU! Ach... irgendwie find ich das schon geil.
 
RDNA 2 = 2 Ghz
RDNA 3 = 3 Ghz
RDNA 4 = 4 Ghz
RDNA 5 = 5 Ghz ?
 
Das NV-Event werde ich mir morgen sicher reinziehen. AMD hält sich noch im Schlafrock. Mal sehen, was kommt. Spannend :popcorn: (+ ein Wiesnmoos)
 
Wenn du dir die OC/WaKü Taktraten anguckst, ist das eher:
RDNA 1 = 2.200MHz
RDNA 2 = 2.800 MHz
RDNA 3 = ??? (dürfte unter Wasser die 4.000 MHz knacken)
RDNA 4.... puh, ich glaub das saturiert dann langsam so auf 4.5 - 4.7 GHz
RDNA 5 ist komplett unbekannt, könnte ne neue Transistortechnologie mit neuen Materialien sein. Nobody knows.

Mit Luftkühlung sind diese Taktraten natürlich nicht zu erreichen, da diese zu weit außerhalb vom Sweetspot liegen.

Schrecklich, ab morgen ist meine 3090 Altmetall... :LOL:
Stell sie noch schnell auf E-Bay bevor morgen wieder die 500€ Modelle wie zu 2080Ti-Zeiten kommen.
 
Alles was ich will ist eine vernünftige NVENC-Alternative und OpenCL auf dem gleichen Niveau wie CUDA. Ich würde AMD sofort das Geld für eine RX 6950 XT auf den Tisch legen.
 
Also der AV1 Codec sollte in der nächsten GEN de+encoding sowohl bei AMD als auch auf Nvidia Karten gehen. CUDA ist ein heiß diskutiertes Thema. AMD hat auf Linux versucht mit ROCm eine Brücke zu schlagen, aber bisher sind noch alle hart dran verzweifelt das ohne direkten Support zum Laufen zu kriegen. Es gibt da wohl ne krude Methode, die kennen aber nur die Codenekromanten des Projektes von AMD selbst. Für Normalsterbliche ist der Aufwand einfach zu hoch. Es gibt Gerüchte, dass sich da bald was dran ändern soll, aber das ist genauso wie mit dem Fusionsreaktor: Der ist auch *immer* nur noch 30 Jahre lang bis zur Fertigstellung, seit dem Bau der Pyramiden.

Wenn du mehr wissen willst: Da
 
Zuletzt bearbeitet:
ganz ehrlich

mir sind 50% mehr Leistung bei selbem Verbrauch von AMD lieber als
79% mehr Leistung bei 50% mehr verbrauch von Nvidia :fresse2:

mal sehen welches Versprechen eher eintrifft
 
Ich blicke ebenfalls interessiert auf die neuen GPU Generationen.

Aber die ganzen Gerüchte, Möchtegern Folien oder angeblich geleakten News schaue ich mir gar nicht mehr an.
Ist reine Zeitverschwendung solange es keine unabhängigen Tests gibt.

Dort bekommt man dann auch den realen Verbrauch sowie die Leistung je nach Treiberstand präsentiert.
Spart euch die Zeit und den hohen Blutdruck und wartet :coffee2:
 
Wir werden sehen was dabei herum kommt. Berechtigter weise, muss man sagen das Raytracing bei den Nvidia Karten durchaus gut läuft, aber auch entsprechend Saft brauch. AMD hat bis auf die Flaggschiffe nichts der gleichen.
Klar man kann darüber streiten ob man es brauch. Aber selbst dezentes Raytracing sieht recht hübsch aus und hebt die Immersion bei guter Umsetzung. DLSS ist auch ein guter Punkt, der nicht gänzlich zu verachten ist.
Stromverbrauch ist relativ. Man muss eben die Summe aller Leistungen abwägen und nicht nur FPS in einigen Titeln. Bisher lassen sich alle Nvidia Karten von Gaming in Prosumer umwandeln und bieten nebenbei noch Spaß für Kreative. AMD konzentriert sich aktuell nur auf Gaming und die Karten sind genau für diesen Ansatz eher spezialisiert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh