Nun wohl doch mit 512 Bit: GeForce RTX 5090 mit 32 GB und dreiteiligem PCB

Auch nicht mehr so ganz. AMD konzentriert sich scheinbar auf das Datacenter Geschäft. In der Gaming Sparte sind sie im Vergleich zu den Vorjahren auf dem absteigenden Ast. Es ist aber verständlich, warum sie das aktuell so machen. Der AI Hype darf nicht verpasst werden.
Da hast du voll Recht "Aber" die PS5 verkauft sich wie geschnitten Brot die Ps5 Pro kommt dieses Jahr und die wird genauso weggehen und dann die ganzen Handhelds alla Alley und co scheinen sich auch gut zu verkaufen und in dem Segment hat AMD keine konkurenz

Was die 5090 angeht bin ich auch gespannt sie wird viel aus dem Workstation bereich bekommen was auch nur logisch ist weil der Chip ja ein Workstation chip ist nur ist die Frage was Nvidia als UVP ausrufen wird

Was Nvidia hier in die Karten spielt ist wenn Teildefekte GPU´s eben einfach für die 5090 genommen werden können sprich der "Ausschuss" wird geringer ausfallen als vlt bei RTX 4000 und somit können sie 2 Fliegen mit 1 klappe schlagen und zwar weiterhin voll den KI Boom mitnehmen und eben die Gamer mit abfertigen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Preise werden hoffentlich perspektivisch sinken bzw. gehalten werden. Wenn Intel und TSMC auch außerhalb von Taiwann und Intel auch in der EU mit modernsten Verfahren als Auftragsfertiger Chips produziert sollten wir davon ausgehen das die Preise zumindest d Mittelfristig sinken oder zumindest gehalten werden können (Preisanstieg durch Inflation könnte kleiner sein oder stagnieren).
 
Das ist doch eine inhaltsleere Meinung. Ich bin immer dabei AMD, natürlich auch Intel und Nvidia, zu kritisieren und Radeon 7000 kann nur deswegen so teuer sein, weil Nvidia noch krasser sich in der Preisgestaltung positioniert. Schließlich zahlen die Kunde anscheinend gerne.
Aber die leere Meinung, AMD würde nichts machen, ist doch unüberlegt. Und weil AMD aus deiner Perspektive nichts macht, erklärt Lisa Su, wie es weiter geht bei AMD.
Radeon 7000 ist sicherlich irgendwo falsch abgebogen, es wurden also Fehler gemacht. Und ob AMD langsam oder schneller eine stärkere Konkurrenz sein wird, kann man auch gerne diskutieren. Aber leere Meinungen sind eben ohne Inhalt.

Und wenn AMD und Intel zu Nvidia aufschließen können, werden die Preise trotzdem oben bleiben und steigen.
Ich sehe in diesem Post auch irgendwie kein Inhalt oder Meinung. Eigene Nase und so :)
 
@Reaver1988
Wenn du den Unterschied nicht erfassen kannst, zwischen AMD will sich nicht platzieren in dem Segment und der Aussage von Lisa Su wir machen weiter, dann ist mir dies völlig egal. Erschreckend ist doch eher, dass du für deine Einzeilerantwort dann doch meinen ganzen Kommentar zitieren musstest, mit Link zur Aussage von Lisa Su. Also mit viel Inhalt.
Auch wenn man der gleichen Population angehört, gibt es doch signifikante Unterschiede.
 
Das hier ist doch ein 50(90) Thread? Die Leistung würde mich schon interessieren, aber vermutlich maßlos überteuert wie Ada am Anfang jedoch wird es so kommen wenn AMD enttäuscht. Wenn es echt nur 30 % werden bei RDNA hol ich mir lieber eine gebrauchte 4090.
 
Die 4090 werden für gutes Geld den Straßenmarkt geflutet werden denke hier wird man kein schnäppchen machen sie wird weiterhin locker 1000-1300€ kosten je nach modell
 
Die 4090 werden für gutes Geld den Straßenmarkt geflutet werden denke hier wird man kein schnäppchen machen sie wird weiterhin locker 1000-1300€ kosten je nach modell

Kommt drauf an was die neuen bringen und wo der Preis liegt.

Eine 5070 mit der Leistung einer 4080/Super 5080 mit 4090 Ambitionen für knappe 1000 würden den Preis drücken.
 
5080 mit 4090 Ambitionen für knappe 1000
Und wird wissen alle das sowas niemals Passieren wird die 5080 wird wieder Easy 1200-1400+ kosten und für die 5090 schätze ich >1999€

Wer 2024 noch glaubt eine High End Karte alla 4090 gebraucht unter 1000€ zu bekommen glaubt auch noch an den Weihnachtsmann :ROFLMAO: Ausser Nvidia Hämmert mit der 5080/90 eine Karte raus mit Features die eine 4090 alt aussehen lassen woran ich bisher nicht glaube
 
Zuletzt bearbeitet:
Kommt drauf an was die neuen bringen und wo der Preis liegt.

Eine 5070 mit der Leistung einer 4080/Super 5080 mit 4090 Ambitionen für knappe 1000 würden den Preis drücken.

5080 Super für 1000 Tacken? Da muss ich dann doch noch Schmunzeln, kurz vorm Schlafengehen.

Wie soll der gute Mann denn damit seine Lederjacken finanzieren?!
 
Und wird wissen alle das sowas niemals Passieren wird die 5080 wird wieder Easy 1200-1400+ kosten und für die 5090 schätze ich >1999€

Wer 2024 noch glaubt eine High End Karte alla 4090 gebraucht unter 1000€ zu bekommen glaubt auch noch an den Weihnachtsmann :ROFLMAO: Ausser Nvidia Hämmert mit der 5080/90 eine Karte raus mit Features die eine 4090 alt aussehen lassen woran ich bisher nicht glaube
Corona und seine Nachwirkungen pendeln sich langsam ein.
Das problem an den Nvidia Karten ist das gerade die im oberen ende für Consumer halt auch super attraktiv für small business sind.
Deshalb sind die Preise dort recht stabil die Enthusiasten sind ein kleiner Teil davon.

Die kleinen Nvidia Karten sind quasi Müll hier holt eher AMD die Leute ab.
Der Mittler Bereich ist halt hart umkämpft.
Da gehts häufig um RAM vs Raytracing.

Mit Müll meine ich die Preis/Leistung.
 
Corona und seine Nachwirkungen pendeln sich langsam ein.
Das problem an den Nvidia Karten ist das gerade die im oberen ende für Consumer halt auch super attraktiv für small business sind.
Deshalb sind die Preise dort recht stabil die Enthusiasten sind ein kleiner Teil davon.

Die kleinen Nvidia Karten sind quasi Müll hier holt eher AMD die Leute ab.
Der Mittler Bereich ist halt hart umkämpft.
Da gehts häufig um RAM vs Raytracing.

Mit Müll meine ich die Preis/Leistung.
Hast du vollkommen Recht und stimme ich dir zu 100% zu aber Jen schenkt uns nix und unterschätze nicht die "enthusiasten" Weltweit gesehen werden die 5080/90 wieder weggehen wie geschnitten brot wie bei jedem Release
 
Corona und seine Nachwirkungen pendeln sich langsam ein.
Das problem an den Nvidia Karten ist das gerade die im oberen ende für Consumer halt auch super attraktiv für small business sind.
Deshalb sind die Preise dort recht stabil die Enthusiasten sind ein kleiner Teil davon.

Die kleinen Nvidia Karten sind quasi Müll hier holt eher AMD die Leute ab.
Der Mittler Bereich ist halt hart umkämpft.
Da gehts häufig um RAM vs Raytracing.

Mit Müll meine ich die Preis/Leistung.
Die Radeons holen in keinem Segment jemanden ab, https://www.digitaltrends.com/computing/amd-gpus-sales-nosedive/. Man darf sich durch die deutsprachigen Konsumenten mit Realitätsverlust welche meinen Mindfactory sei Mittelpunkt der Welt nicht täuschen lassen. Wären die Radeons oder auch ARC ansatzweise so gefragt wie die GeForce gäbe es diese Preisgestaltung im globalen Handel nicht.

Wobei ich persönlich Preisabsprachen vermute, anders kann ich mir nicht erklären wie bei einem quasi nicht vorhandenen Markeshare die XTX beispielsweise ihren Preis derart halten kann.
 
Die Radeons holen in keinem Segment jemanden ab,
Im Unterschied zu Nvidia, hat AMD sich ja entscheiden Workstation und consumer strikt zu trennen.

Das hat Nvidia ja nur leicht. Deshalb sind NVIDIA Zahlen recht verwaschen da sind viele Karten die in Workstations billig ihren Dienst verrichten z. B CAD/stable Diffusion/ Creator stuff wie Video Verarbeitung, Entwicklung wien unreal Engine uvm.

Bei AMD sind die Zahlen auch ohne Consolen Absatz chips.

Worin AMD ein Problem hat ist viel Geld zu verdienen also Gewinnmarge ist bei Nvidia weitaus höher.
 
Zuletzt bearbeitet:
Mit 512 Bit könnte die 5090 meine nächste Karte werden und meine R9 390X (OC) mit 512 Bit nach 10 Jahren in Rente schicken ... 8-)
Beitrag automatisch zusammengeführt:

Nvidia spart es sich einen "Gaming High End" Chip zu entwickeln sondern nimmt die GPU´s aus dem Workstation berreich was mehr als klug ist weil die sind mehr als stark genug und so spart sich Nvidia eine Parallele entwicklung und somit 2 Fliegen mit 1 klappe und sie können teildefekte GPU´s super verwerten für 5090 in der Sache war Nvidia schon immer sehr schlau und AMD hat sowas einfach komplett verschlafen
Vielleicht bringt AMD ja einen "abgespeckten Ableger" der MI300X in den Consumer Bereich ... :LOL:
Beitrag automatisch zusammengeführt:

Der Speicher kostet nicht viel.
Im EK nicht, aber bei NV und Apple allerdings schon !!
 

Anhänge

  • R9 390X OC.jpg
    R9 390X OC.jpg
    228,8 KB · Aufrufe: 60
Zuletzt bearbeitet:

Anhänge

  • € Strom im Jahr.jpg
    € Strom im Jahr.jpg
    234,9 KB · Aufrufe: 76
  • Bench € Std %.jpg
    Bench € Std %.jpg
    229 KB · Aufrufe: 74
Naja wir wissen aber auch aus Ermittlungen das die Peak Stromaufnahme öfter mal die Vorgaben torpedieren kann ins besondere im Edgecase der ja diese Rechnung abbilden soll.

Könnte jetzt sein das AMD hier nochmal mehr verbraucht als die Nvidia Karte oder auch weniger verbraucht als die Nvidia.
Mich würde das interessieren ob das Gebenchmarkt wurde oder das nur eine Annahme aufgrund von technischen Daten ist?
 
RTX 5000 wird normal ein stück effizienter werden weil es ja "nur" ein facelift 5NM wird aber im großen und ganzen wird sich nicht viel ändern
 
Naja wir wissen aber auch aus Ermittlungen das die Peak Stromaufnahme öfter mal die Vorgaben torpedieren kann ins besondere im Edgecase der ja diese Rechnung abbilden soll.

Eigentlich unverständlich, warum in #77 das für das Gesamtbild wichtige Diagramm der Leistungsaufnahme bei Limitierung auf 144fps abgeschnitten wurde. Die 4090 ist damit nämlich eine der effizientesten GPU überhaupt. Ein Grund, warum das bei der Nachfolgerin anders werden sollte, wurde m. E. bisher nicht genannt.
 
Eigentlich unverständlich, warum in #77 das für das Gesamtbild wichtige Diagramm der Leistungsaufnahme bei Limitierung auf 144fps abgeschnitten wurde. Die 4090 ist damit nämlich eine der effizientesten GPU überhaupt. Ein Grund, warum das bei der Nachfolgerin anders werden sollte, wurde m. E. bisher nicht genannt.
Ganz einfach weil die Leute wieder nur 600watt lesen und immer den worst case sehen mehr nicht im Real life zieht die Karte kaum mehr wie 400watt und das bei 4k MAX settings

Bestes bsp Hellblade 2 in 4k MAX mit dlss Q + FG zieht sie im schnitt 380-410watt / Warzone 2 4k Epic Settings DLSS Q+ FG knappe 310-320watt / OW2 4k Epic settings + DLSS Q 270-290watt

und meine 4090 ist bis anschlag übertaktet mit 1000watt Bios also diese Panik mache und alles schlecht gerede ist so ein Quatsch und wenn ich die UV fetischisten sehe die ihre 4090 teilweise unter 300watt betreiben was will man den mehr von einer Absoluten High End grafikkarte

Man muss eben Damit leben wenn ich eine "High End" Karte will dann hat sie auch ihren verbrauch das ist nun mal so wenn ich das nicht will muss ich eben eine XX60/70 kaufen und damit leben das 4k nicht mit Epic settings gehen und 3 stelligen FPS
 
Dann bete ich schonmal, dass die 5070 Ti nicht für über 1000 Euro kommt.

Ansonsten tu ich mir da sonst schon schwer soviel Geld auszugeben. Naja... Mal gucken.
 
Das glaube ich kaum weil Nvidia natürlich in der Midrange auch geld verdienen will denke nur die 80/90 werden wie immer Gutes Geld kosten und der rest wird sich wie jetzt auch einpendeln weil AMD hier ja noch ein Konkurent ist für Nvidia
 
vlt 😅 🙈

Aber ich glaube im Mid Range bereich sind die RTX Karten noch kein selbstläufer weil Nvidia sich hier immer selber ein Bein stellt mit dem geringen Vram
 
Dann bete ich schonmal, dass die 5070 Ti nicht für über 1000 Euro kommt.

Ansonsten tu ich mir da sonst schon schwer soviel Geld auszugeben. Naja... Mal gucken.
Die müsste mindestens 16 GB VRAM haben und die doppelte Leistung einer 3080, dann wäre das natürlich ein potentieller Austausch für mich.
Ich denke aber angesichts der Situation könnte es ne AMD werden. Vielleicht zaubern die mit nächster Generation endlich wieder was brauchbare.

Edit: Ich finde es schade das sich AMD aus dem Semi professionellem Bereich mit seinen Consumer Karten zurück gezogen hat.
 
Naja wir wissen aber auch aus Ermittlungen das die Peak Stromaufnahme öfter mal die Vorgaben torpedieren kann ins besondere im Edgecase der ja diese Rechnung abbilden soll.

Könnte jetzt sein das AMD hier nochmal mehr verbraucht als die Nvidia Karte oder auch weniger verbraucht als die Nvidia.
Mich würde das interessieren ob das Gebenchmarkt wurde oder das nur eine Annahme aufgrund von technischen Daten ist?
Meinst Du das hier (siehe Anhang) ?
 

Anhänge

  • Watt Messung.jpg
    Watt Messung.jpg
    169,7 KB · Aufrufe: 53
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh