Radeon RX 9070 XT für 899 USD: AMD dementiert Gerüchte zu Preispunkt

Die Masse will nVidia, weil die nix von AMD halten. So sieht die Realität da draußen aus, bei der U20 Generation.
Da kann AMD noch so preiswert sein, es wird trotzdem nVidia gekauft.
Wenns zu billig ist, dann taugt ned 😝
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaube eher irgendwann ist der Quatsch genau so wie G-Sync. Vollkommen pberteuert normal und egal wie viel billiger FreeSync und was heute von irgewelchen möchte gerne auf Youtube läuft schaue ich mir sicher nicht an.
Bis heute kommt ja im Monitorunterforum ständig die Frage, ob man einen "G-Sync-Compatible" Monitor kaufen muss, denn man hat ja eine Nvidia.
 
Man muss sich doch einfach nur die ganzen Beratungsthreads anschauen, in jedem kommt die Frage, welche Spiele spielst du und ist dir RT wichtig.
Das nächste Argument für nVidia ist eben DLSS, es ist einfach in mehr Spielen integriert und funktioniert einfach viel besser als FSR.
Es ist nicht der Punkt was jeder einzelne für wichtig erachtet, man muss sich die Masse ankucken.
Die Masse will Leistung egal ob Raster oder RT und dann das komplette Featurepaket und das gibt's imho momentan nur bei nVidia.
 
Meine 7900 xtx läuft super auch um die 300 Watt. Verbrauch braucht man nicht denken das der bei NVIDIA so anders wäre wenn man auf 4080/4090 4080/5090 schaut.
Da ist die 7900xtx mit 430 Watt sparsamer als eine max Takt OC 5080 bei gleicher fps in timespy extreme.
Wird die 9070xt effizienter sieben auszugehen ist und RT auf 4080 Basis dann ist das eine echte Alternative selbst wenn5-10% langsamer in Raster.
Ich bin mal gespannt wie die im RT abgehen wird ansonsten gibt es ja noch die 5070 Ti. Die könnte sogar der P/L Knaller werden dieses mal, weil die 5080 so schlecht ist. Im Grunde genommen eine richtige 4080 Super mit GDDR7. Da AMD kein GDDR7 nutzt wird sie langsamer sein und da finde ich minimum 200 € weniger dann auch gerechtfertigt.
 
Ich bin mal gespannt wie die im RT abgehen wird ansonsten gibt es ja noch die 5070 Ti. Die könnte sogar der P/L Knaller werden dieses mal, weil die 5080 so schlecht ist. Im Grunde genommen eine richtige 4080 Super mit GDDR7. Da AMD kein GDDR7 nutzt wird sie langsamer sein und da finde ich minimum 200 € weniger dann auch gerechtfertigt.
Für 749usd plus mwst plus Wechselkurs sieht Du die in dtl nicht für unter 1000 eur.
Das ist ein Knaller aber sicher kein Preisknaller. Ist die 9070xt dann bis zu 10% schneller hat amd leider keinen Grund unter 800 zu gehen und da fängt das Problem dann für den Endkunden an.
Ich denke bei um die 600 ist das ein no brainer da würde ich sogar selber zuschlagen aber darüber auf keinen Fall.

Ganz ehrlich die haben alle nicht den Schuss gehört bei den Preisen egal ob amd oder NVIDIA. Die sind keinen deut besser als der blaue „Riese“ jemals war.

High end ist komplett haltlos geworden und nichtmal notwendig. Das Problem fing an mit dem run auf 4K. Geht man auf 1440p ist es alles schon sehr viel entspannter und kostet nichtmal die Hälfte in der Summe.
 
Die Frage ist ja was die kostet. Die 9070 soll ja auch in dem Bereich spielen mit etwa 4070 Ti RT Performance. Für 5-600 könnte man die als Armutslösung glatt erwägen. Denn man kann nicht oft genug erwähnen: Die Karte ist KEIN High End. Das ist eine neue 5700 XT nur aus 2025.

Bei 600 wäre ich angesichts der katastophalen Lage schon verlockt da ich möglicherweise noch eine ganze Weile auf einer defekten 4090 sitzen werde. Eine XTX würde ich jetzt nicht mehr kaufen außer sie kostete unter 600. Das wäre dann OK für zwei Jahre in der Hoffnung dass wieder eine Big Navi UDNA kommt. Bei der 5080 ist jetzt schon absehbar dass sie am VRAM verhungert. Und trotzdem ausverkauft. Wer ist bitte so bescheuert und zahlt 2 K für die 5080 beim Scalper?
 
Ich kann mich mit meiner 7900XTX entspannt zurücklehnen, hab sie im August 23 für 860€ gekauft, das war früh mich ein guter Kauf.
Bis FSR4 in mehr als nur ca 50 Games implementiert ist und das vernünftig, gibt's wohl schon UDNA und RTX6000 als Nachfolger.
 
Ich bereite mich im Kopf auch vor, diesen Greed von Nvidia nicht mehr mitzumachen. Allerdings die Goodies von RTX sind halt schon nicht von der Hand zu weisen.
Gibt es etwas vergleichbares von AMD für RTX HDR und Schärfe+ und so weiter? Also den ganzen Kram der Nvidia App bzw. dem Overlay. Das nutze ich nämlich mittlerweile durchweg bei allen Games die kein HDR haben und das funktioniert einfach wunderbar mit nem OLED uwqhd Monitor.
DLSS, RT und PT kann ich getrost verzichten. 1440p 240 Hz sind mein Ziel mir Rohleistung.
Vielleicht kommt da ja zur 60x0 Gen was von AMD.
Interessant wie gesagt nen RTX HDR Pendant. Gibts dazu was?
 
Ich seh da eigentlich nur die Möglichkeit gebraucht irgendeine alte GammelRTX oder eine gebrauchte 6800/7900 je nach dem wie sehr die Preise fallen werden wenn die neuen Karten kommen. Wenn sie teuer sind wird da nicht viel fallen. 800+ € da darf in 2020 dann auch schon 4K RT mit möglich sein. Die Karten sind aber allesamt nur ein Sidegrade zudem was es vorher schon gab.

Mit DLSS4 sehe ich NVIDIA tatsächlich im Vorteil weil AMD sogar RDNA3 ausschließt und es wieder so ein Bastelspiel ist, falls es dann einen FSR2/3 zu 4 Hack geben wird. Wenn das tatsächlich Hardware voraussetzt die nur RDNA4 hat ist das schonmal ausgeschlossen.
 
Bis heute kommt ja im Monitorunterforum ständig die Frage, ob man einen "G-Sync-Compatible" Monitor kaufen muss, denn man hat ja eine Nvidia.
Das bei HWLuxx 4 - 5 hansen nach G-Sync fragen heißt nicht das es relevant ist. Gehe mal auf Geizhals und nimm alle monitore. Filter mal nach G-Sync oder Freesync. Was die Zukunft bringt ist fraglich.
 
Mal eine Frage etwas Offtopic: Vor ungefähr 10-15 Jahren wars mal so, dass das ausgegebene Bild von AMD GPUs einfach schärfer war als das von Nvidia GPUs (das Bild war so komisch verwaschen, was halt nur im direkten Vergleich auffiel). Ich kann mich nicht mehr erinnern ob das nur an irgendeinem Filter lag oder ob es quasi standardmäßig so war. Jedenfalls die Frage: ist das eigentlich noch immer so?
 
@Bullseye13 meinst du die Tricks die beim anisotrophen Filter (Winkelabhängigkeit) genutzt wurden um die Performance zu verbessern? Falls ja ist das aktuell glaube ich kein Thema mehr. Afaik hat Nvidia damit mit der 8000er Serie aufgehört.
 
Ich meine auch mich dunkel dran erinnern zu können, dass das bzgl AF war.
 
Alles klar, wird sowas gewesen sein.
 
Glaub auch da noch was in Erinnerung zu haben. Aber es war mal bei AMD und dann wars bei nVidia aber ebenfalls. Beide Hersteller haben da beschissen um in Benchmarks vorne zu liegen.
 
Kann aber auch sein, dass ich die Farben gemeint habe, weil Nvidia das Dithering von 8+2 Bit Monitoren nicht konnte.
 
Das ist absoluter Schwachsinn.
Falls du dein Posting meinst, hast du ins Schwarze getroffen.

Ja, Nvidia hat bei den 6000er, 7000er und, ich meine auch bei den FX, (fiel um 2005 in der Presse auf) damals im Treiber "zwangsoptimiert" nur durch händisches ändern konnte eine vergleichbare Bildqualität zu den Radeons erzwungen werden, kostete halt ein bisschen Leistung und Nvidia hatte nicht mehr den längsten (Balken).....
ist das eigentlich noch immer so?
Ist mittlerweile gesellschaftlich akzeptiert, wird gemeinhin als DLSS betitelt und gilt als Heilsbringer für:

- unzureichenden VRAM-Ausbau

- beschissen optimierte Titel, die für drei Strichmännchen mit acht Polygonen und eine handvoll Texturen 80 Tflop/s verschlingen.

- TAA aus der UE5 Hölle

- zu wenig Rechenleistung ob limierter finanzieller Mittel, dem damit korrelierenden Zwang bei Nvidia einzukaufen und der Tatsache, dass die zweite Niere i.d.R. nicht einfach so verhökert werden kann.


*duckundweg*
 
@BlackOak Das war glaube ich auf Generationen vor FX... gemünzt... Als die Computer-Zeitschriften nur auf Papier existierten und Screenshot mit Foto-Apparat erstellt und entwickelt wurden. "PowerPlay", "HappyComputer"... usw... Damals wurden die gleichen Szenen fotografiert, verglichen und ATI sah besser aus (oft, nicht immer aber oft)...
 
Matrox hatte ein besseres Bild. Hat aber nicht zum Überleben gereicht.
Wieso, die gibts doch noch, wenn du das Budget von vier RTX 5090 übrig hast, verkaufen die dir Video-Prozessoren....
@BlackOak Das war glaube ich auf Generationen vor FX... gemünzt... und Screenshot mit Foto-Apparat erstellt und entwickelt wurden. "PowerPlay", "HappyComputer"... usw... Damals wurden die gleichen Szenen fotografiert, verglichen und ATI sah besser aus (oft, nicht immer aber oft)...
Soooo lange ist das jetzt nicht her, guck mal, Konica

Nicht falsch verstehen, ATi hat das damals auch gemacht, nur etwas weniger dreist als Nvidia und ich sehe den Tag kommen, an dem DLSS eine Zwangsoption wird, ebenso (AI) FSR, nur wieder später, und wenn das so weit ist, werfe ich den ganzen Kram aus dem Fenster.
 
Zuletzt bearbeitet:
@BlackOak Ja, was ich sagen wollte, war, dass die besagten Generationen lediglich das Endstadium dieses Themas waren... es ging schon jahrelang so...
 
@BlackOak Ja, was ich sagen wollte, war, dass die besagten Generationen lediglich das Endstadium dieses Themas waren... es ging schon jahrelang so...
Aso, ja begonnen hats vermutlich schon früher, da magst du recht haben.
 
ich sehe den Tag kommen, an dem DLSS eine Zwangsoption wird, ebenso (AI) FSR, nur wieder später, und wenn das so weit ist, werfe ich den ganzen Kram aus dem Fenster.
Ist doch jetzt schon längst der Fall, nur dass es halt das schlechtere T-AA ist, welches von fast allen modernen Spielen erzwungen wird. DLSS/FSR sind auch nur verbesserte Versionen davon.
Daher hat DLSS ja auch diese Probleme feinen Elementen oder viel Bewegung, weil es eine temporale Rendermethode ist, genauso wie T-AA.
 
Sind schon wieder Ferien?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh