RDNA 3 und Chiplet-Design: AMD stellt die Radeon-RX-7000-Karten vor

Mit besserem Design in N4? Der Fehler liegt bei AMD, nicht bei TSMC. Der gleiche Prozess läuft ja für die 7K CPUs mit 5,7+GHz, am Prozess liegt es zu 100% nicht....
Also im Post davor wird behauptet das TSMC irgendwas bestätigten soll, was AMD nicht zugeben soll/will, was an der Fertigung liegen soll. Jetzt liegt es an AMD nicht an TSMC.

Ist aber auch egal, ich halte den Ansatz moch mehr Leistung durch noch mehr power für falsch. Auch die neue Nvidia Karte hätte mit weniger Powerbudget immer noch gute Leistungen erreicht. Man sollte halt auch dem Kunden und den Partnern die Wahl lassen selbst noch zu optimieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist aber auch egal, ich halte den Ansatz moch mehr Leistung durch noch mehr power für falsch. Auch die neue Nvidia Karte hätte mit weniger Powerbudget immer noch gute Leistungen erreicht. Man sollte halt auch dem Kunden und den Partnern die Wahl lassen selbst noch zu optimieren.
Die Wahl hat man doch?
Geht doch nur um die Werkseinstellung. So frei wie bei der 4090 war ich noch nie beim Verbrauch.
Kann das Ding mit 60 Watt laufen lassen, oder mit 600 Watt. Freie Wahl in jede Richtung und auf Knopfdruck ändere ich meine Meinung und passe an das jeweilige Spiel an.
So effizient war seit Jahren keine GPU mehr in meinem System. 4K@60hz mit weit unter 200 Watt in den meisten Spielen. Auch gerne mal unter 100 bei Indiegames.
 
Die Wahl hat man doch?
Geht doch nur um die Werkseinstellung. So frei wie bei der 4090 war ich noch nie beim Verbrauch.
Kann das Ding mit 60 Watt laufen lassen, oder mit 600 Watt. Freie Wahl in jede Richtung und auf Knopfdruck ändere ich meine Meinung und passe an das jeweilige Spiel an.
So effizient war seit Jahren keine GPU mehr in meinem System. 4K@60hz mit weit unter 200 Watt in den meisten Spielen. Auch gerne mal unter 100 bei Indiegames.
Der Aufwand mit dem Adapter, die sinnlose Größe. Nvidia verkauft hier umgelabelte Workstation Karten. Das ist definitiv kein Konsumenten "Gamer" Produkt auch wenn das Nvidia so verkaufen möchte. Dabei geht es nicht um die Performance die das Gerät liefert. Natürlich muss man es nicht kaufen.
Aber hier wird irgendwie gefühlt versucht ein Bugatti Veron als Golf zu verkaufen. :fresse:
Oder einen Mercedes Sprinter als Familien Auto zu verkaufen das in Konkurrenz mit Golf, Passat und co um transportvolumen konkurrieren soll, passt nicht in jeder standard Garage und der Preis ist halt im verhältnis zur typischen Haushalts Kutsche relativ utopisch.

Da kommt von AMD ein Passat Kombi und die Leute meckern, weil es nicht genausoviel Transport Volumen hat wie der Sprinter.
 
Die Wahl hat man doch?
Geht doch nur um die Werkseinstellung. So frei wie bei der 4090 war ich noch nie beim Verbrauch.
Kann das Ding mit 60 Watt laufen lassen, oder mit 600 Watt. Freie Wahl in jede Richtung und auf Knopfdruck ändere ich meine Meinung und passe an das jeweilige Spiel an.
So effizient war seit Jahren keine GPU mehr in meinem System. 4K@60hz mit weit unter 200 Watt in den meisten Spielen. Auch gerne mal unter 100 bei Indiegames.
Die 4090 ist momentan die einzige neue GPU die draußen ist, da ist klar dass sie sehr effizient erscheint, gerade verglichen mit den 3000ern (die sehr ineffizient sind aufgrund ihres Fertigungsprozesses).
Der Aufwand mit dem Adapter, die sinnlose Größe. Nvidia verkauft hier umgelabelte Workstation Karten. Das ist definitiv kein Konsumenten "Gamer" Produkt auch wenn das Nvidia so verkaufen möchte. Dabei geht es nicht um die Performance die das Gerät liefert. Natürlich muss man es nicht kaufen.
Das sind "Prosumer" Karten wie die Titan damals.

Kaufen tut mans nicht weil es überteuert ist. Technisch ist die 4090 schon ziemlich geil. Da aber schon die 4080 1600 kosten soll (was in Relation zu den fehlenden Shadern ein schlechteres P/L ist) besteht hier null Hoffnung dass es eine Ti oder sowas gibt. Zumindest nicht in bezahlbar. Da kann man nur hoffen dass RDNA3 halbwegs konkurrenzfähig ist, RDNA2 war es ja. Für 2 K+ bekommt man ja schon fast einen OLED-TV mitsamt der dazu passenden 7900 XTX... Aber nicht jeder hat haufenweise Geld zum verprassen zumal die Abzockerei bei den Grünen echt zu weit geht.
 
Der Aufwand mit dem Adapter, die sinnlose Größe.
Klingt etwas wie die Präso von AMD - Herumhacken auf Nichtigkeiten. ;-)

Ich hab noch nen Define 4 und die GPU passt da easy rein. Meine Frau hat eines der kleineren Lian Li cases und auch da war es nicht mal knapp.
Die zusätzliche Größe des Kühlers sorgt in der Realität für extrem leisen Betrieb und ne super kühle GPU um die 60 Grad.
Für nen Mini ITX ist das natürlich nix, aber dafür gibt es auch die WAKU Versionen, wer unbedingt nen kleinen PC braucht.

Der "Aufwand" mit dem Adapter hat sich darauf beschränkt, ihn anzustecken. Keine Ahnung, was da der Aufwand sein soll. Statt 3 Kabel anzustecken, stecke ich drei Kabel in den Adapter und den dann an. Also klar: 33 % mehr "Aufwand"!

Und wie irgendjemand die GPU deklariert, ob nun Gamer, Workstation oder sonst wie, ... hat irgendwie keine Auswirkung auf mich. Ich weiß nicht, wieso das ein Argument für irgendwas sein soll. Kannst sie auch Toaster nennen, oder Kleinwagen. Ändert nichts an der Karte und ihrer Leistung. ;-)
 
Klingt etwas wie die Präso von AMD - Herumhacken auf Nichtigkeiten. ;-)
Klingt wie dein Herumhacken auf Nichtigkeiten wegen up to. Und wenn dann AMD zB 90 Frames ohne up to angeben würde und bei Test kämen dann 88 Frames raus, findest du sicherlich genügend Worte zum Herumhacken. Halt so wie immer. :-)
Aber du hast ja deine Kaufentscheidung schon getroffen, insofern ist es natürlich klar, dass du diese natürlich verteidigst.
Schau lieber, dass du den 5950X los werden kannst, denn damit verhungert die 4090.
 
Zuletzt bearbeitet:
Klingt etwas wie die Präso von AMD - Herumhacken auf Nichtigkeiten. ;-)

Ich hab noch nen Define 4 und die GPU passt da easy rein. Meine Frau hat eines der kleineren Lian Li cases und auch da war es nicht mal knapp.
Die zusätzliche Größe des Kühlers sorgt in der Realität für extrem leisen Betrieb und ne super kühle GPU um die 60 Grad.
Für nen Mini ITX ist das natürlich nix, aber dafür gibt es auch die WAKU Versionen, wer unbedingt nen kleinen PC braucht.

Der "Aufwand" mit dem Adapter hat sich darauf beschränkt, ihn anzustecken. Keine Ahnung, was da der Aufwand sein soll. Statt 3 Kabel anzustecken, stecke ich drei Kabel in den Adapter und den dann an. Also klar: 33 % mehr "Aufwand"!

Und wie irgendjemand die GPU deklariert, ob nun Gamer, Workstation oder sonst wie, ... hat irgendwie keine Auswirkung auf mich. Ich weiß nicht, wieso das ein Argument für irgendwas sein soll. Kannst sie auch Toaster nennen, oder Kleinwagen. Ändert nichts an der Karte und ihrer Leistung. ;-)
Warum nicht eine https://www.nvidia.com/de-de/design-visualization/rtx-6000/
1667793495365.png

die hat sogar mehr Transistoren ;-) Wenn es egal ist was drauf steht. Die brauch auch zufällig nur um die 300W...
 
Die Leistung überzeugt zu 100% ! Wenn es ein schönes weißes Design gibt, wird die RX7000XT eingebaut :)
 
Die Leistung ist im besten Fall nicht abschätzbar. Realistisch betrachtet sind die Angaben ohne Kenntniss der Parameter absolut wertlos. Fakt ist eher, dass Takt und Rohleistung weit von den Spekulationen entfernt sind. Ohne brauchbare Leaks sind wir nicht schlauer als vor dem Event.
 
Die Leistung ist im besten Fall nicht abschätzbar. Realistisch betrachtet sind die Angaben ohne Kenntniss der Parameter absolut wertlos. Fakt ist eher, dass Takt und Rohleistung weit von den Spekulationen entfernt sind. Ohne brauchbare Leaks sind wir nicht schlauer als vor dem Event.
Ich poste gerne nochmal die offiziellen AMD Folien!
Und das einfügen der Werte in Benchmarks im Vergleich zu anderen GPUs.

Damit lässt sich seht gut abschätzen wo die Karten liegen werden. Vorallem die RT Performance hat zugelegt.

UZLvZfWDXRk7dc2FJAL4e8HLaNT54c_Ied7IkotuAys.jpg
 
Ich poste gerne nochmal die offiziellen AMD Folien!
Und das einfügen der Werte in Benchmarks im Vergleich zu anderen GPUs.

Damit lässt sich seht gut abschätzen wo die Karten liegen werden. Vorallem die RT Performance hat zugelegt.

Anhang anzeigen 813372
Und ich gebe gerne noch mal die Antwort:
"UpTo" Marketing Folien sind in keinem Fall hochrechenbar auf ECHTE Benchmarks, die AVERAGE FPS zeigen.
Maximalwerte vs Durchschnittswerte.

Um aufzuzeigen wie deppert das ist:
Meine GPU hat aktuell BIS ZU 217 FPS in Cyberpunk 2077, ist also fast 3x so schnell wie eine 4090! Oh wait,....
 
Absolut wertlose Kaffeesatzleserei. Bei AMD stehen schon Fußnoten in den Folien und dann wundert man sich nicht mal über ein Leistungsspektrum zwischen 3080 und über 4090... 6900 XT mal 1,7 ist vermutlich besser geraten.
 
Abwarten. Sollte sich die hochgerechnete Performance so bestätigen und die Straßenpreise verfügbarer Karten von AMD zwischen 800 und 1000 EUR günstiger sein, als die von Nvidia, hätte AMD IMHO alles richtig gemacht. Generell ist es mir gleich, ob ein Programm mit 90 oder 100 FPS läuft. Dafür verbrenne ich keine 1000,- EUR. Spezielle Vorlieben / Programm mal außen vorgelassen.
 
Naja, zumindest kann man sich über was neues freuen und ein Umstieg von meiner 6700XT macht sich auf jeden Fall bemerkbar in 4k :)
 
Ich denke uns ist allen klar, dass eine 4090 eine absolutely over the top-Karte für extremste Enthusiasten ist, die es nicht schwer haben, mal eben so über 2.000 Euro für einen Pixelbeschleuniger locker zu machen. Ich finde in dieser extremen Nische muss AMD nicht ums verrecken mithalten müssen. Jetzt warten wir mal ab was das "up to" und die Spekulation "ab 360 Watt ist Schluss" in der Realität tatsächlich ausmachen wird. Dass sich jetzt 4090-Besitzer als NVIDIA-"Anwälte" einsetzen, kann ich auch irgendwie nachvollziehen nach der Präsi von AMD ^^ Und ehrlich gesagt würde ich es den 4090-Besitzern auch gönnen, wenn sie recht behalten. Wäre schon eine Schelte, über 2.000 Euro für eine Karte auszugeben, obwohl man eine nur etwas schlechtere Performance für 800 Euro weniger erhält.
 
Von 10% Leistungsunterschied wird AMD bei der Rohleistungsdifferenz weit entfernt sein. Das 1000€ als günstig durchgehen ist schon zynisch. Die Miningblase ist geplatzt. Wie Wettbewerb aussieht kann aktuell beim 5800X3D betrachtet werden.
 
Von 10% Leistungsunterschied wird AMD bei der Rohleistungsdifferenz weit entfernt sein. Das 1000€ als günstig durchgehen ist schon zynisch. Die Miningblase ist geplatzt. Wie Wettbewerb aussieht kann aktuell beim 5800X3D betrachtet werden.
Wenn es keine 10% sind, sind’s über alles halt 15. Weyne? Selbst -20% wären bei fast halbem Preis noch absolut TOP. Dass die 7900er den Sweetspot einer deutlich größeren Menge treffen, ist doch wohl nicht diskussionsbedürftig.
Wer eine 4090er hat, kann sich ja trotzdem freuen an der Mehrleistung. Grundsätzlich. Wenn er sich den Kauf gut überlegt hatte. Und falls nicht: kein Mitleid.

edit: „zynisch„ sind allenfalls >2,3k Straßenpreis. Auch wenn ich diese Wort selbst da nicht verwenden würde.
 
Wäre schon eine Schelte, über 2.000 Euro für eine Karte auszugeben, obwohl man eine nur etwas schlechtere Performance für 800 Euro weniger erhält.
Sehe ich nicht so. Die 4090 wird nicht langsamer, wenn AMD eine schnelle Karte für die Hälfte des Geldes raus bringt. Nur wer die 4090 als Prestigeobjekt sieht dessen Kauf finanziell weh tut, hat damit ein Problem.
Beitrag automatisch zusammengeführt:

zynisch„ sind allenfalls >2,3k Straßenpreis. Auch wenn ich diese Wort selbst da nicht verwenden würde.
warum? Ich bin froh, wenn ich mit Geld etwas besseres kaufen kann, als ich habe. Das man sich nicht alles leisten kann oder möchte gibt es doch immer. Musst Du das beste Haus, Auto, Bild etc. haben?
 
Naja, auch wenn es finanziell nicht weh tut, würde es vermutlich "manchen" an anderer Stelle weh tun, wenn sie feststellen, dass sie in Bezug auf Preis-Leistung verfrüht daneben gegriffen haben.

Aber ich gönne wirklich jedem die 4090. Ich finde die Karte top und war schwer beeindruckt nach den erste Tests, insbesondere, wenn man das Power Limit auf 70 % einstellt. Und bzgl. RT hat man voraussichtlich auf jeden Fall auf das richtige Pferd gesetzt, wenn man Wert darauf legt. Nur der Stecker ist schon eine Lachnummer. Sorry :fresse:
 
AD102 ist nicht dafür da dich glücklich zu machen, der zählt für die Aktionäre. Die Leistungslücke zu AD103 ist wiederum gigantisch.

PS: Die Gerüchteküche brodelt wieder:

AIBs were told "easily above 3.2Ghz" with normal OC tweaks (power/voltage) and max frequency in beta BIOS is 3.7GHz

Ursache für die schlechte Taktraten: Hardwarefehler.
 
Zuletzt bearbeitet:
Wenn es keine 10% sind, sind’s über alles halt 15. Weyne? Selbst -20% wären bei fast halbem Preis noch absolut TOP. Dass die 7900er den Sweetspot einer deutlich größeren Menge treffen, ist doch wohl nicht diskussionsbedürftig.

Das fasst es ganz gut zusammen.
AMD wird damit vermutlich (wenn das Marketing nicht zu weit von der Realität weg ist) deutlich besser bei Preis / Leistung sein.

Es gibt nur ein einziges "aber" bei der Sache:
Ich würde keine 2300 Euro für eine GPU ausgeben, die "nur" besser ist als meine alte GPU. Ich würde aber auch keine 1300 Euro dafür ausgeben. Eine 4090 kaufe ich trotzdem weil diese neue GPU etwas ermöglicht, was vorher nicht ging und was sonst keine andere GPU ermöglicht. Kompromissloses Raytracing in 4k bei 100+ FPS. Das ist wie ein neues Feature, dass es einfach nicht gibt für weniger Geld.

Daher ist Preis / Leistung irrelevant in dem Fall. Es gibt nun mal keine zweite GPU, die dieses Szenario ermöglicht.
Sie ist die "günstigste" GPU für 4k@144hz mit Raytracing.

Wer natürlich nur eine neue GPU möchte, um in 1440p CoD zu spielen, der macht mit einer 4090 keinen guten Kauf. Da wird (vermutlich) AMD einfach die viel bessere Wahl sein. So wie sie bei den last gen Preisen, die aktuell aufgerufen werden, auch die eindeutig bessere Wahl sind bis hin zur 3080 TI. Man kann quasi keine NVidia GPU empfehlen unter der 3090, solange Raytracing oder Cuda und NVenc kein Thema für den Käufer sind.
 
Wenn ich das alles lese hier hab ich so das Gefühl das man sich rechtfertigen muss wenn man sich eine 4090 kauft.Ich gönne sie jedem und hinterfrage das nicht.
 
Am Ende kann jeder immer noch das kaufen wie er lustig ist.

Man sollte nur vllt nicht die Preis/Leistung aus den Augen verlieren, außer man verdient so viel, dass einen 2k für ne 4090 so viel jucken, wie andere ne 3060 für 400€ oderso, und selbst das ist für viele "nicht-Technerds" wie hier sehr viel Geld, da ist man froh ne PS5 kaufen zu können für paar Jahre...

Ich könnte mir ne 4090 leisten, sehe aber einfach nicht den Einsatzzweck dafür, obwohl ich nen 4k 120Hz Monitor hab.

Läuft am Ende dann doch irgendwie immer wieder auf FH5 oder Bloons hinaus, dafür reicht dann auch noch die 6700XT :fresse2:

Bei den 7900ern werd ich mal schauen, vllt die XT wenn man sie gut bekommt und AMD endlich mal den Stromverbrauch bei zwei 4K Screens reduzieren konnte oderso.

Nutze jetzt schon seit kurzem die IGPU des 10850K für den 2. Monitor, damit die 6700XT nicht dauerhaft 30W zieht weil der VRAM nicht runtertaktet.

Auf die 7800er könnte man auch noch warten, sollten ja noch über der 6950XT rauskommen von der Leistung, die Frage ist nur wann!
 
Wenn ich das alles lese hier hab ich so das Gefühl das man sich rechtfertigen muss wenn man sich eine 4090 kauft.Ich gönne sie jedem und hinterfrage das nicht.
Darum geht es nicht, aber es ist ein wenig ein nicht gerechtfertigter Vergleich in der Erwartung von Konkurrenzfähigkeit.
Ich finde AMD hat schon konkurrenzfähige Produkte, nur das beste Produkt ist nicht immer das schnellste.
Früher war es die Titan Karte, aber da war ganz klar das die in einer eigenen Liga spielt und Gaming nicht alleine der primäre Zweck war. Es war eine frei verkäufliche Entwickler Karte für Endkunden.
Das ist auch meiner Ansicht nach die 4090 oder 3090. Nur Nvidia verkauft das als Gaming Karte und natürlich haben Sie gerade für jemanden der neben dem Gaming noch wirklich mit Unreal rumspielt und selbst Welten erzeugt einen unerlässlichen Mehrwert.
Aber doch nicht nur fürs Gaming, dafür ist die Karte fast schon zu schade. Ich hatte damals lange gehadert ob ich mir die 3090 anstelle der 3080 kaufen sollte und bin super froh die nicht gekauft zu haben. Ich hätte die Karte nur zu einem Bruchteil effektiv nutzen können. Ich glaube aktuell brauch man nicht mal in 4K 24GB RAM.
Wenn man die Benefits neben dem Gaming dazu zählt hat die Karte schon ein höheren Wert und der Preis ist gerechtfertigt, aber wie gesagt es ist eine reine Zweckentfremdung.

Einen anderen Abstrakten Vergleich: Ein Threadripper im Endausbau im Multithreading Rendering speed vs einen Core i9. Kann man machen aber die Audienz ist halt doch jeweils ne andere.
 
Zuletzt bearbeitet:
Ich sehe das genauso AMD sind nur Gaming Karten und Nvidia hat da viel mehr zu bieten als nur das Gaming das zeigt ja auch der Preis.Aber wenn die einer kaufen will nur wegen des Gaming dann ist das so auch wenn es in manchen augen verschwendung ist.
 
Ich sehe das genauso AMD sind nur Gaming Karten und Nvidia hat da viel mehr zu bieten als nur das Gaming das zeigt ja auch der Preis.Aber wenn die einer kaufen will nur wegen des Gaming dann ist das so auch wenn es in manchen augen verschwendung ist.

Auch das trifft es sehr gut.
Nur hat NVidia (leider) auch beim Gaming etwas mehr zu bieten mit DLSS und RT. Das war in der letzten Gen so knapp,... aber die Hoffnung stirbt zuletzt. Evtl. finden sie ja noch einen Chip, der RT fixed und FSR wird in 3.0 etwas stärker. Mit dem 5800X3D haben sie ja im CPU Markt gezeigt, dass sie quasi auf Bedarf ein angepasstes Produkt bauen können, dass einen speziellen Bereich pushed. Sollen sie halt ein Chiplet dafür nutzen oder so. ;-)
 
Ich sehe das genauso AMD sind nur Gaming Karten und Nvidia hat da viel mehr zu bieten als nur das Gaming das zeigt ja auch der Preis.Aber wenn die einer kaufen will nur wegen des Gaming dann ist das so auch wenn es in manchen augen verschwendung ist.
Die Bedürfnisse eines Jeden sind unterschiedlich. Da sollte man vorsichtig sein, wenn man behauptet, dass es für einen Anderen Verschwendung ist.

Jeder der selbstbestimmt lebt, kann für sich entscheiden, wofür er sein Geld ausgibt. Mancher möchten als Early Adopter als erstes ein neues Produkt ausprobieren, mal oben in den Benchmark Listen stehen solange nur wenige das Produkt haben, gefragt sein und gehört werden weil man das Produkt schon hat. Oder einfach die Leistung genießen. Andere warten ab, bis alle Fakten auf dem Tisch liegen und bilden sich dann ihre Meinung und kaufen - oder auch nicht. Wenn ich für mich entscheide auf die 4090 aufzurüsten, weil mir der FPS Zugewinn in meinem Lieblingsspiel das Wert ist, so sehe ich Kritik an meiner Kaufentscheidung als Neid an. Keiner kann meine Bedürfnisse besser beurteilen als ich.
 
Ich sehe das genauso AMD sind nur Gaming Karten und Nvidia hat da viel mehr zu bieten als nur das Gaming das zeigt ja auch der Preis.Aber wenn die einer kaufen will nur wegen des Gaming dann ist das so auch wenn es in manchen augen verschwendung ist.
AMD hat RDNA extra für Gaming ins Leben gerufen, bei NVIDIA geht es seit Turing auch um Compute. Trotzdem sind die hohen Preise einfach nicht mehr zu rechtfertigen.

Ich denke aber auch nicht dass einem die 4090-Käufer leid tun müssen bzw es diesen Leid tut wenn die 7900 XTX ähnliche Werte erreichen sollte. Zumal NVIDIA in dem Fall seine Preise noch anpassen könnte. Die 7900 könnte 4K120 halbwegs massentauglich machen, sprich für Leute die eben keine 2,3 K für eine GPU ausgeben wollen (die in einem oder zwei Jahren kaum noch die Hälfte wert sein wird). Man kann von Ampere-RT-Leistung ausgehen und Rasterleistung zwischen 4080 und 90.
 
AD102 ist nicht dafür da dich glücklich zu machen, der zählt für die Aktionäre. Die Leistungslücke zu AD103 ist wiederum gigantisch.

PS: Die Gerüchteküche brodelt wieder:

AIBs were told "easily above 3.2Ghz" with normal OC tweaks (power/voltage) and max frequency in beta BIOS is 3.7GHz

Ursache für die schlechte Taktraten: Hardwarefehler.
quelle?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh