Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Ich habe auch mit ner 3080 auf 4K gezockt und genau deswegen auf Ada aufgerüstet. Selbst die 3090 war zwar ok, aber nicht gut. Erst jetzt kriege ich bei vollen Details 100+ FPS und nutze meinen 144Hz Monitor richtig.
darf ich mal fragen was du spielst?
Dafür gibts Gsynch. 144hz hab ich nicht mehr nur noch 2 OLEDs mit 120hz und Gsynch Ultimate
Ich hab meine Karte übertaktet und so rein garkeine Probleme. Kein Spiel unter 70FPS

Meine Spiele:
CP
Tomb Raider (OH NEIN ohne 4x SMAA bei 4k, wo ich nur mit Lupe die Unterschiede sehe)^^
Far Cry
Guardians of the Galaxy
Warhammer
F1 (nicht online)

Competitive:
APEX
CSGO
BF
Beitrag automatisch zusammengeführt:

Dann ist das dein Problem und sicherlich nicht das dess 4090 Besitzers.
Sicherlich nicht... schließlich habe ich die Karten weitergegeben an Grafikdesignbuden.

Die 4090 ist ein HALO Produkt für Gamer, warum ist das mein Problem, wenn ich es nicht kaufe?^^ Ich empfinde es schon als problematisch, wenn solch Preispolitik als normal und gerechtfertig argumentiert wird, weil die Preise in den letzten zwei Jahren durch den MiningBoom die Leute hat bluten lassen.

Ich kenne viele die Zeit ihres Lebens keine 2k für ihre Spiele-Karte ausgegeben haben und es auch nicht in Zukunft machen wollen. Das ist auch möglich, bedarf entschleunigung, geduld und weniger Zucker, dass man doch nicht schwach wird^^(siehe 30er Serie)
Ich hab 3 in meinem Umfeld die erst völlig gehyped eine 4090 geholt haben und dann erst bemerkt haben, ja ich zocke täglich, ja ich kann alles spielen....aber sorry ich hol mir doch ne 3080 und hab nahezu das gleiche Spielerlebnis.

Von daher sind wohl ziemlich viele aufm Holzweg oder nervige Geringverdiener :d
Beitrag automatisch zusammengeführt:

Die Liste könnte noch länger gedreht werden in sachen 4090. FullHD monitor und nen 5800X hatte ich auch häufig in Verbindung mit der Frage, warum sind meine Balken kleiner als die im Test^^
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dinge, die mir brennende Verteidiger der 7900 dazu bisher entgegnet haben:
- es ist bereits ein known Issue und wird getrackt!
- es betrifft nur ganz spezielle Konstellationen von Auflösung und Refresh Rate! (was natürlich totaler Quark ist, denn der Verbrauch ist ja allgemein immer höher)
- das ist eine Gaming Karte, nimm doch für diese produktiven Arbeiten ein anderes System!
- verwende doch einfach die iGPU dafür!
- im Highend Bereich ist der Stromverbrauch egal!

Wollte mich für diesen grandiosen Beitrag einmal recht herzlich bedanken. :LOL:
 
Was kommt gerade raus? Witcher 3 Update 4.0 mit RAYTRACING.
Raytracing Leistung sollte man nicht ignorieren, ja sollte fast in Vordergrund stehen.
Gibs nix ärgerlicheres als ne potente Grafikkarte ztu haben aber irgend ein Feature fehlt oder ist eben zu schwach und die GPU altert schneller als einen lieb ist.
 
Was kommt gerade raus? Witcher 3 Update 4.0 mit RAYTRACING.
Raytracing Leistung sollte man nicht ignorieren, ja sollte fast in Vordergrund stehen.
Gibs nix ärgerlicheres als ne potente Grafikkarte ztu haben aber irgend ein Feature fehlt oder ist eben zu schwach und die GPU altert schneller als einen lieb ist.
... und ist so scheiße optimiert, dass es selbst eine 4090 in die Knie zwingt🙃...
 
Komische Definition von Preiskrieg hast du da. Ein Preiskrieg kann auch stattfinden, ohne dass AMD die Karten mit Verlust verkauft. Aber ich habe auch nie gesagt, dass gerade ein Preiskrieg stattfindet. Ich sagte, er wäre unklug.
Nunja, wer damit anfängt von einem Preiskrieg zu schwafeln, nur wenns es darum geht die Konkurrenz zu unterbieten hat bei seinem einen Semester BWL wahrscheinlich die meiste Zeit geschlafen.
Hat AMD einen Preiskrieg gestartet, als man bspw den R5 1600 zum ungefähr halben Preis zur Intel-Konkurrenz auf den Markt gebracht hat? Wohl kaum, aber man hat Intel zu einer Reaktion gezwungen und gleichzeitig massiv an Marktpräsens gewonnen. Auch wenn die 1. Gen Ryzen insgesamt etwas schwächer waren.
Dass AMD die Margen erhöht hat, kannst du sicherlich belegen, oder? Wäre mal interessant zu sehen, wie die Zahlen aussehen :d Du hast ja schließlich als einziger ein Semester BWL belegt oder ein paar Mal im Business Insider geblättert.
Gegenfrage, wie kommst du darauf, dass AMD näher an der UVP ist? Ich finde leider gerade das Video nicht, aber ich habe letztens eine Preiskalkulation zum Chiplet-Design von einem Branchen-Insider gesehen. Das AMD mehrere kleine Chips statt einem großen nutzt sorgt für einen erheblichen Preisvorteil, da die Fläche der runden Waver effektiver genutzt werden kann und defekte Stellen einen niedrigren Prozentsatz der Chips beeinflusst. Außerdem werden verschiedene Strukturgrößen gemischt, während bei NV alles mit der modernsten Methode hergestellt ist. Darüber hinaus nutzen die Karten günstigeren VRAM und einen kleineneren Kühler. Wie viel dadurch genau gespart wurde, kann niemand außerhalb von AMD & TSMC sagen, aber die Summe aller Designentscheidungen deutet sehr deutlich darauf hin, dass die AMD-Karten in der Produktion wesentlich günstiger sind, als die von Nvidia. Bei den CPUs konnte man mit Chiplets die Preise der monolithischen Designs von Intel auch ganz erheblich unterbieten.

Im heutigen Video von Moores Law is Dead werden einige Quellen zitiert, das AMD NV über die Leistung attackieren wollte und das durch Treiberprobleme gründlich in die Hose gegangen ist. Passt auch dazu, dass die Charts bei der Ankündigung 0 zur tatsächlichen Leistung passen. 50-70% Leistungsplus zu RDNA 2, wo es in der Praxis eher 20-40% sind.
Die XTX positioniert sich preislich eigentlich zur 6900xt, die damals UVP als Referenz 999€ gekostet hat. 1125€ zu 999€. Wenn du da die 10% Inflation reinrechnest, kommt das sehr gut hin. Du warst es schließlich, der die 7900er Karten alle über einen Kamm geschert hat - obwohl es offensichtlich ist, dass nur die "XT" preislich sehr unattraktiv ist.
Laut AMD ist doch die XTX oberhalb der 6900XT angesiedelt? Der Vergleich müsste also zwischen 7900XT und 6900XT sein. Eventuell kommt ja noch eine 7800XT zu einem guten Tarif, ich bezweifle es aber ehrlich gesagt. Bei der damaligen Abstufung von 6800,6800XT, 6900XT waren die 6800 non XT und 6800XT attraktive Karten. Spätere Modelle wie die 6700(XT) & 6600(XT) wurden preislich immer unattraktiver. Teilweise war man bei FPS/€ schlechter als 2+ Jahre alte Karten. Lag zum Teil am Miningboom, aber AMD zeigt ja, dass man sich von der Preispolitik trotzdem nicht verabschieden will.
Oh, super Idee. Wir nehmen eine vor wenigen Stunden gelaunchte Karte und nehmen die überteuerten Preise, die ein paar Händler aufgestellt haben, weil sie gerade ausverkauft ist für die AMD Karte, aber zum Vergleich die billigsten Preise für die 4080, die gerade überall verfügbar sind und wo der Launch schon zurückliegt inkl Preisnachlass.
Nunja, man kann nur die Preise nehmen, die aktuell vorhanden sind. Was nächstes Jahr passiert, kann niemand sagen. Eventuell fallen die Preise, oder es startet der 3. Cryptoboom und eine 7900XT kostet 2500€, wer weiß.

Es geht nicht um ein Spiel, sondern eins der am meisten gespielten Spiele aktuell - auch wenn ich es nicht Spiele, hat COD viele Anhänger, die unter Umständen ihre Kaufentscheidung von der Performance in dem Spiel abhängig machen. Das sollte man nicht unterschätzen.
Cod läuft auch mit älterer Hardware ziemlich gut, mag sein, dass das Spiel recht erfolgreich ist, aber deshalb wird kaum wer upgraden, wenn schon halbwegs aktuelle Hardware vorhanden ist. Und letzten Monat gab es viele gute Angebote.
 
1. hab nie gesagt, dass ein Produkt sich rechnen muss.....sondern viele ihre die Verhältnismäßigkeit in die Tonne treten und sich vieles schönreden, dass nun für ihre Gaming-Karte 2000€ statt 800€ zahlen, dann stellt sich aber meist auch heraus, dass sie keine 800€ ausgeben haben, sondern 1000€ und die "alte" Karte grade mal nen Jahr alt ist^^
Hab Spqass damit ich hatte auch einige 4090 hier und nicht einmal konnte ich mich selbst davon überzeugen. Da ich ungern diese Preispolitik auch noch fördern möchte.
Das ist einer der wichtigsten Punkte beim Highend. Man kauft sich einmal ein, danach zahlt man nur die Differenz zum Erlös des alten Produkts. Ich habe 2013 mit einer GT 650M als Gaminglösung angefangen... Mit der Zeit haben sich die Ansprüche deutlich erhöht.

2 K+ gebe ich trotzdem nicht aus, auch aus dem von dir genannten Grund. Es ist völlig klar dass die Leistung in 1-2 Jahren nur noch die Hälfte wert sein wird. Bei den kleineren Karten ist der Wertverlust geringer bzw. momentan gar nicht mehr vorhanden, denn die Vorgeneration ist sogar wieder gestiegen.
Auch wenn Du denkst 60Hz wären toll und genug und flüssig. Setz dich einmal an einen 120Hz oder 144Hz Monitor und sehe den Unterschied. Es ist sehr viel flüssiger.
Auch der Windows Desktop wird sehr viel flüssiger. z.B. ist das scrollen durch webseiten sehr viel angenehmer bei 120Hz als bei 60Hz. Irgendwie ist die Windows GUI an die Refreshrate syncronisiert. Je mehr Hz, je flüssiger das Arbeiten mit der Maus auf dem Desktop! Das ist ein Fakt.

Leider gibt es keinen guten 144Hz 4K Monitor... Sonst hätte ich schon einen...
Mein nächster Monitor wird dann ein Kompromiss sein, aus 1440p OLED und 240Hz :)
Gewohnheitssache. Ich habe bis dieses Jahr auch mit 60 Hz gezockt. Als Jugendlicher war ich 15-30 FPS gewöhnt, dagegen sind 60 der Knaller. Fürs Arbeiten reichen 60 aber trotzdem, beim Gaming sind 144 eigentlich der Standard und nun werden auch die 4K120-Monitore bezahlbar. Das ist auch der Grund wieso ich erst dieses Jahr gewechselt bin. 1500 € oder so für einen mickrigen 27" Gammelmonitor sind einfach nicht drin. Jetzt sind die Monitore besser bzw. gibt es die LG-OLEDs, vor ein oder zwei Jahren war das kaum denkbar. Zudem hatten viele nur HDMI 2.0.

144 sind wohl unnötig, schon 120 zu erreichen ist ein Privileg. Das ist auch der einzige Grund wieso ich mir die XTX hole. Die sollte bei so ziemlich allen Spielen hohe FPS in 4K nativ schaffen und bei älteren Spielen wird die Framerate limitiert. Das hat auch bei der 6900 XT gut funktioniert und spart Einiges an Strom. Denn vor nicht allzu langer Zeit liefen meine GPUs immer an der Kotzgrenze und meistens waren nichtmal stabile 60+ drin. 2016 war ich noch froh Witcher in 4K-Hoch mit Gsync ~45+ spielen zu können.
Ich kenne viele die Zeit ihres Lebens keine 2k für ihre Spiele-Karte ausgegeben haben und es auch nicht in Zukunft machen wollen. Das ist auch möglich, bedarf entschleunigung, geduld und weniger Zucker, dass man doch nicht schwach wird^^(siehe 30er Serie)
Ich hab 3 in meinem Umfeld die erst völlig gehyped eine 4090 geholt haben und dann erst bemerkt haben, ja ich zocke täglich, ja ich kann alles spielen....aber sorry ich hol mir doch ne 3080 und hab nahezu das gleiche Spielerlebnis.
Das Meiste was ich spiele würde eine 6600 oder 6700 XT in 4K120 schaffen. Vielleicht nicht mit sinnlosen Settings wie SSAA bei War Thunder, aber das ist auch echt unnötig. Der Grund sich so ein Schlachtschiff zuzulegen sind AAA-RPGs. Für VR kann man auch nie genug Leistung haben. Hohe Einstellungen sind für mich Pflicht, die meisten Spiele haben da ihren sweet spot - Ultra ist meist unnötig, doch ab Mittel fängt es dann an dass Details fehlen.

Bei den 7000 und 4000ern fällt aber auf, je niedriger die Auflösung desto geringer der Abstand zu den alten Karten. Selbst für WQHD kann man die kaum rechtfertigen. Vielleicht noch für Ultrawide. Den meisten Abstand haben sie in 4K.
Bin mal gespannt ob es eine 7950 geben wird...
Wahrscheinlich, eventuell nur als Rebrand wie die 6950 XT. Die ist ja praktisch nur ein XTXH mit schnellerem Speicher für 100 UVP mehr. Die Taktraten sind letztlich auch nicht so schlecht wie manche gesagt haben, nur nicht mehr so weit vor der Konkurrnz. Das lag aber auch am schlechteren Prozess und war wohl mit der Grund wieso RDNA2 sich so gut gegen die 3090 behaupten konnte.
... und ist so scheiße optimiert, dass es selbst eine 4090 in die Knie zwingt🙃...
Ja, wie Hairworks damals. Auf der 2080 Ti stellenweise unter 60 FPS. Vermutlich ist das Beste es auszulassen und einfach die anderen Verbesserungen zu genießen.
nunja, man kann nur die Preise nehmen, die aktuell vorhanden sind. Was nächstes Jahr passiert, kann niemand sagen. Eventuell fallen die Preise, oder es startet der 3. Cryptoboom und eine 7900XT kostet 2500€, wer weiß.
Das wäre eigentlich sogar ganz geil, dann die XTX für 2K verkaufen und sich eine 4090 holen. Im Idealfall. 2017 gab es diese Situation mal, da waren Karten mit GDDR5 beliebter beim Mining sodass ich meine 1070 mit Gewinn weiterverkaufen konnte und so relativ günstig an die 1080 TI gekommen bin.
 
Zuletzt bearbeitet:
jo, also nutzer zer0strat auf computerbase schreibt das das shaderprefechting bei den gpus zur zeit im bios deaktiviert ist.
hat hier glaub ich noch keiner erwähnt.

das dürfte dann wohl ordentlich leistung kosten.
da wird es wohl ein bios update und neue treiber brauchen. warum das so gemacht wurde, da kann man nur spekulieren.
 
jo, also nutzer zer0strat auf computerbase schreibt das das shaderprefechting bei den gpus zur zeit im bios deaktiviert ist.
hat hier glaub ich noch keiner erwähnt.

das dürfte dann wohl ordentlich leistung kosten.
da wird es wohl ein bios update und neue treiber brauchen. warum das so gemacht wurde, da kann man nur spekulieren.

Scheinbar ist auf den Karten das A0 Stepping. Ist dann fraglich, ob man das einfach so ändern kann oder erst kommende Karten da eine Anpassung bekommen. Vielleicht wollte man einfach vor Weihnachten die Karten in den Markt drücken. Würde auch erklären warum einige Custommodelle noch nicht erschienen sind. Zeit war einfach sehr sehr knapp...
 
Das ist einer der wichtigsten Punkte beim Highend. Man kauft sich einmal ein, danach zahlt man nur die Differenz zum Erlös des alten Produkts. Ich habe 2013 mit einer GT 650M als Gaminglösung angefangen... Mit der Zeit haben sich die Ansprüche deutlich erhöht.
Und wieder einer mit Milchmädchenrechnung. Zeig mir die Definition dafür.
Sorry aber das ist kompletter Unsinn. willste mir erklären, dass man wenn man seine 3090 für 900€ verkauft, ja nur 1100€ für eine 4090 bezahlt und davor haste die Karte natürlich umsonst bekommen^^

Früher hast du für eine 450GB PCIe SSD 500€ bezahlt.. die sind auch nicht teuerer geworden. CPU's das gleiche.
Beitrag automatisch zusammengeführt:

Das Meiste was ich spiele würde eine 6600 oder 6700 XT in 4K120 schaffen. Vielleicht nicht mit sinnlosen Settings wie SSAA bei War Thunder, aber das ist auch echt unnötig. Der Grund sich so ein Schlachtschiff zuzulegen sind AAA-RPGs. Für VR kann man auch nie genug Leistung haben. Hohe Einstellungen sind für mich Pflicht, die meisten Spiele haben da ihren sweet spot - Ultra ist meist unnötig, doch ab Mittel fängt es dann an dass Details fehlen.
VR ist ein Nischenprodukt weiterhin.
Ich spiele auch alles auf Ultra und hab nen drittel der Kosten^^

Nenne mir mal deine AAA-RPG's und bei welchem RPG du um Frames ringst, dass es ausschließlich eine 4090 bedarf^^
 
Zuletzt bearbeitet:
Das ist einer der wichtigsten Punkte beim Highend. Man kauft sich einmal ein, danach zahlt man nur die Differenz zum Erlös des alten Produkts. Ich habe 2013 mit einer GT 650M als Gaminglösung angefangen... Mit der Zeit haben sich die Ansprüche deutlich erhöht.
So einen Blödsinn habe ich echt noch nie gehört. Der Wertverfall bei High-end ist am höchsten. Das heißt du legst immer am meisten drauf für eine neue. Wer eine 3090ti für 1800€ gekauft hatte bekommt die jetzt vielleicht für 1000€ los. Das heißt du hast 800€ Verlust gemacht. Bei den Mittelklasse Grafikkarten wie einer 3080 oder 6800 ist der absolute Geldverlust bei Verkauf aktuell wahrscheinlich bei nicht einmal 400€. Das ist ne typische Milchmädchen Rechnung von dir
 
So einen Blödsinn habe ich echt noch nie gehört. Der Wertverfall bei High-end ist am höchsten. Das heißt du legst immer am meisten drauf für eine neue. Wer eine 3090ti für 1800€ gekauft hatte bekommt die jetzt vielleicht für 1000€ los. Das heißt du hast 800€ Verlust gemacht. Bei den Mittelklasse Grafikkarten wie einer 3080 oder 6800 ist der absolute Geldverlust bei Verkauf aktuell wahrscheinlich bei nicht einmal 400€. Das ist ne typische Milchmädchen Rechnung von dir
zwei blöde ein gedanke :d ich höre das leider allzu oft und das macht mir Sorge.
 
Und wieder einer mit Milchmädchenrechnung. Zeig mir die Definition dafür.
Sorry aber das ist kompletter Unsinn. willste mir erklären, dass man wenn man seine 3090 für 900€ verkauft, ja nur 1100€ für eine 4090 bezahlt und davor haste die Karte natürlich umsonst bekommen^^

VR ist ein Nischenprodukt weiterhin.
Ich spiele auch alles auf Ultra und hab nen drittel der Kosten^^

Nenne mir mal deine AAA-RPG's und bei welchem RPG du um Frames ringst, dass es ausschließlich eine 4090 bedarf^^
Wenn man die Karte rechtzeitig verkauft hält sich der Verlust in Grenzen. Die 1080 Ti ging zB damals für 600 € weg. Hätte ich bis nach dem Launch gewartet wäre sie kaum die Hälfte wert gewesen.

Geplant sind Sachen wie RDR2, Horizon, Deus Ex MD, Cyberpunk, Witcher 3 enhanced und Skyrim VR. Letzteres mag zwar eine Nische sein, jedoch besitze ich ein VR-System und will es nicht missen, Spiele wie No Mans Sky oder Skyrim sind damit ein echtes Erlebnis. Skyrim braucht allerdings massiv viele Mods um wirklich immersiv zu werden.

Die anderen Spiele kann man auf schwächerer Hardware zwar auch spielen, jedoch würde ich gerne die 120 Hz ausreizen. Ein weiterer Grund ist Darktide, was extrem anfordernd ist und sofern es so gut wie der Vorgänger wird sicher wieder 2500+ Stunden bieten wird.
So einen Blödsinn habe ich echt noch nie gehört. Der Wertverfall bei High-end ist am höchsten. Das heißt du legst immer am meisten drauf für eine neue. Wer eine 3090ti für 1800€ gekauft hatte bekommt die jetzt vielleicht für 1000€ los. Das heißt du hast 800€ Verlust gemacht. Bei den Mittelklasse Grafikkarten wie einer 3080 oder 6800 ist der absolute Geldverlust bei Verkauf aktuell wahrscheinlich bei nicht einmal 400€. Das ist ne typische Milchmädchen Rechnung von dir
Drauflegen ja, deshalb kaufe ich ja auch keine 4090. Bei den niedrigeren Modellen ist der Wertverlust deutlich geringer. Das war auch meine Aussage.

Am Ende macht die 4090 einen auch nicht glücklicher, mir reicht dann auch das Zweitbeste, wenn es nur die Hälfte kostet und immer noch besser als 99 % des Rests ist.
 
Wenn man die Karte rechtzeitig verkauft hält sich der Verlust in Grenzen. [...]
WENN! Wenn ich rechtzeitig die richtigen Aktien kaufe und zum richtigen Zeitpunkt verkaufe bin ich auch schnell Milliardär. Leider besitzen die wenigsten hier eine funktionierende Glaskugel. 🙃
 
So einen Blödsinn habe ich echt noch nie gehört. Der Wertverfall bei High-end ist am höchsten. Das heißt du legst immer am meisten drauf für eine neue. Wer eine 3090ti für 1800€ gekauft hatte bekommt die jetzt vielleicht für 1000€ los. Das heißt du hast 800€ Verlust gemacht. Bei den Mittelklasse Grafikkarten wie einer 3080 oder 6800 ist der absolute Geldverlust bei Verkauf aktuell wahrscheinlich bei nicht einmal 400€. Das ist ne typische Milchmädchen Rechnung von dir
Also den Zeitraum den man sie nutzt sollte man nicht unerwähnt lassen.Da klingen die 800€ Verlust die man macht etwas komisch.
 
Und Deine vorigen Beiträge waren garantiert nicht neutral, sondern mindestens tendenziös pro NVIDIA!
Alles, was an AMD nicht stimmt und angesprochen wird, ist automatisch Bashing.
Ist einfacher, das so zu betiteln, als die von Reviewern gemessenen Fakten als solche zu akzeptieren.

Merke:
In AMD Topics darf man immer nur das Positive ansprechen, sonst ist man der Basher!
AMD kann und darf minimal als "leicht überdurchschnittlich" bewertet werden.
In NVidia Topics, darf man nie irgendwas loben, sonst ist man der Fanboy!
NVidia kann und darf maximal als "leicht unterdurchschnittlich bewertet werden.

Ist ermüdend. Jede Gen dasselbe.
Wenn NVidia 50 Kokelstecker hat weltweit, weil die Leute das Kabel nicht richtig anstecken, ist das in jedem Beitrag Thema UND muss sogar dazugesagt werden, immer als Relativierung, sollte man aus Versehen irgendwas grünes Loben oder gut finden.
Wenn AMD bei jeder GPU Probleme hat, dann ist das kein Thema, weil die Treiber das fixen "soon". Egal um was es geht. Egal was die Vergangenheit gezeigt hat.
Wer anderes behauptet, ist wieder der Hater.

Beide haben sich diese Gen nicht mit Ruhm bekleckert.
AMD nur noch etwas weniger als NVidia in diesem Fall, weil es neben dem zu hohen Preis eben auch noch Qualitätsprobleme gibt. Das ändert sich auch nicht, wenn Du den Leuten irgendwelche wilden Dinge vorwirfst. Es wurde noch kein Problem damit behoben mit dem Finger in die andere Richtung zu zeigen.
 
... und ist so scheiße optimiert, dass es selbst eine 4090 in die Knie zwingt🙃...
Tut es das?
Spiele es in 4k mit allem auf Anschlag. Die 60fps stehen solide.
Viel mehr geht nicht, das mag sein. Für 120 würde es nicht stabil reichen ohne DLSS. Aber bei alten Engines und nachträglichem adden solcher gravierender Features, erwarte ich nun auch ehrlich gesagt keine Wunder.
Ein RPG kann man mit 60fps ganz gut zocken. 8-)
 
Hätte man die Baustellen im Treiber in den griff bekommen zum Release wäre das ganze wohl nicht so hoch gekocht den Preis mal außen vor gelassen.
 
Hätte man die Baustellen im Treiber in den griff bekommen zum Release wäre das ganze wohl nicht so hoch gekocht den Preis mal außen vor gelassen.
Ich bin mal gespannt wie viel im Endeffekt davon gefixt wird. Ich denke in einigen Spielen wir die Performance noch merklich steigen, aber besonders was den Stromverbrauch angeht bin ich skeptisch. Das ist ja nicht die erste GPU, die AMD baut und erste Äußerungen seitens AMD deuten ja darauf hin, dass das zumindest zum Teil Absicht ist. Möglicher Weise gibt es Stabilitätsprobleme, wenn die Spannung zu weit reduziert wird, was halt Gift für den Verbrauch bei Teillast ist.
 
Sollte das so sein wäre das gemessen an der mehr leistung pro Watt Aussage schon ein hammer.
 
Also den Zeitraum den man sie nutzt sollte man nicht unerwähnt lassen.Da klingen die 800€ Verlust die man macht etwas komisch.
Bitte nicht einfach aus dem Kontext reißen. Mein Post bezog sich auf die Aussage das es sich lohnt in den "High End Bereich " einzukaufen. Und ja klar hat man die Karte genutzt. Aber der Wertverfall kommt eher weniger durch die Nutzung als denn durch den allgemeinen Preisverfall von Hardware. Und der ist im High End Bereich am größten
 
Scheinbar ist auf den Karten das A0 Stepping. Ist dann fraglich, ob man das einfach so ändern kann oder erst kommende Karten da eine Anpassung bekommen. Vielleicht wollte man einfach vor Weihnachten die Karten in den Markt drücken. Würde auch erklären warum einige Custommodelle noch nicht erschienen sind. Zeit war einfach sehr sehr knapp...
Joar, da sammelt sich grad so einiges. Shader-Prefetching, Wave-32 Problemchen, allg. die Taktzfrequenz, Sheduling Schluckäufe. Das soll alles mit einem potentiellen Re-Tape gefixt werden, allerdings kostet ein Re-Tape ne Menge Geld und kommt nicht vor 4-5Monaten, selbst wenn *jetzt* ein Fix in Arbeit wäre. (Wäre ich AMD, würde ich ne Woche oder zwei warten, bis das gesamte Feedback da ist)

Entsprechend schätze ich, dass die Refresh-Version mit neuem Stepping und V-Cache ne Menge Holz bringen dürfte, wenn AMD die Eier hat das durchzuziehen. In der Kalkulation wirds wohl knapp werden, würde aber dem Ruf von AMD gut tun und auch der 4090Ti etwas entgegensetzen.

In jedem Fall werde ich ein halbes Jahr warten und dann gibts die Toxic von Sapphire mit der 7990XTXH oder wie auch immer es dann getauft wird. Bis dahin... nun ja, wird meine 5700XT weiter kreative Wege fahren müssen.

Die Hoffnung stirbt zuletzt.
 
Nunja, wer damit anfängt von einem Preiskrieg zu schwafeln, nur wenns es darum geht die Konkurrenz zu unterbieten hat bei seinem einen Semester BWL wahrscheinlich die meiste Zeit geschlafen.
Hat AMD einen Preiskrieg gestartet, als man bspw den R5 1600 zum ungefähr halben Preis zur Intel-Konkurrenz auf den Markt gebracht hat? Wohl kaum, aber man hat Intel zu einer Reaktion gezwungen und gleichzeitig massiv an Marktpräsens gewonnen. Auch wenn die 1. Gen Ryzen insgesamt etwas schwächer waren.
Die Konkurrenz ist doch preislich mit dem 7900XTX unterboten. Außerdem sagte ich nur, dass ein Preiskrieg mit NVidia unklug wäre und aktuell nicht von AMD gewonnen werden kann. Der Satz ist einfach ein Fakt. Bis wohin AMD die Preise problemlos drücken kann - darüber kann man diskutieren. Ich sagte ja auch nicht, dass sofort ein Preiskrieg losbrechen würde, wenn AMD den Preis senken würde. Dass du dich mit der Definition von Preiskrieg vertust ist aber doch nicht meine Schuld.

Ich habe das aber auch vielleicht etwas undeutlich geschrieben - du hast absolut recht damit im Hinblick auf die 7900 XT. Da bin ich voll bei dir und habe nie etwas dagegen gesagt. Ich rede nur davon, dass die 7900 XTX aktuell ganz gut platziert ist.

Laut AMD ist doch die XTX oberhalb der 6900XT angesiedelt? Der Vergleich müsste also zwischen 7900XT und 6900XT sein. Eventuell kommt ja noch eine 7800XT zu einem guten Tarif, ich bezweifle es aber ehrlich gesagt. Bei der damaligen Abstufung von 6800,6800XT, 6900XT waren die 6800 non XT und 6800XT attraktive Karten. Spätere Modelle wie die 6700(XT) & 6600(XT) wurden preislich immer unattraktiver. Teilweise war man bei FPS/€ schlechter als 2+ Jahre alte Karten. Lag zum Teil am Miningboom, aber AMD zeigt ja, dass man sich von der Preispolitik trotzdem nicht verabschieden will.

Nunja, man kann nur die Preise nehmen, die aktuell vorhanden sind. Was nächstes Jahr passiert, kann niemand sagen. Eventuell fallen die Preise, oder es startet der 3. Cryptoboom und eine 7900XT kostet 2500€, wer weiß.


Cod läuft auch mit älterer Hardware ziemlich gut, mag sein, dass das Spiel recht erfolgreich ist, aber deshalb wird kaum wer upgraden, wenn schon halbwegs aktuelle Hardware vorhanden ist. Und letzten Monat gab es viele gute Angebote.

Wie AMD seine Karten nennt, ist ja eigentlich irrelevant. Fakt ist, dass die 7900XTX momentan das Flaggschiff ist, wie seinerzeit die 6900XT. Und zwischen 7900XT und 6900XT ist preislich ja noch weniger - 49€ aktuell. Da wären sie ja sogar günstiger geworden, wenn man die Inflation einrechnet. Ist aber quatsch, weil die 7900XT eigentlich nicht mal eine 7800XT sein dürfte, der Leistungsunterschied ist einfach zu groß, der Preisunterschied zu klein. Aber da waren wir uns ja auch einig.

Die Preise sind aber nun mal die UVP, es geht da auch nicht um das nächste Jahr sondern nur um Tage, da die Karte gerade releast wurde und es momentan auch keine Anzeichen dafür gibt, dass die Verfügbarkeit ein Problem werden sollte. Im Gegenteil - wenn du auch nur halbwegs richtig liegen solltest mit deiner Einschätzung, müsste die Nachfrage nach der Karte ja überschaubar sein. Da braucht man dann keine Wunschpreise von ein paar Händlern nehmen, die gerne die Idioten abschröpfen, die die Karte zu jedem Preis kaufen würden. Die XTX Karten waren auch heute wieder für über eine halbe Stunde bei AMD für 1127€ verfügbar. Wer also nicht von seiner Gier gefressen wird, kann die Karte problemlos zur UVP kriegen.

Und zu COD: Es upgraden ja nicht nur Leute von erstklassiger Hardware. Und das wäre ja ebenfalls ein Grund, nicht auf die 40er Serie zu upgraden. Wenn aber ein Upgrade oder ein Neukauf ansteht, wird es diese Leute sicherlich zu der Karte hinziehen. Bei Multiplayershootern gibt es auch meiner Meinung nach nicht genügend Leistung. Außer man spielt ausschließlich Valorant oder CS:GO, da kann man auch mit älterer Hardware noch problemlos competitive spielen. Aber das steht doch sowieso jedem frei.
 

Schaut ein wenig nach Alphacool aus .
Schöne Karte.
 
Die Konkurrenz ist doch preislich mit dem 7900XTX unterboten.
Sicher die Karte kostet weniger, aber sie ist halt einfach schlechter als die 4080. Jetzt kann man darüber diskutieren, wie sehr der schlechte Verbrauch, die schlechte RT-Leistung und die inkonsistenten FPS in den Benchmarks ins Gewicht fallen, ich bin allerdings der Meinung, dass der preisliche Abstand nicht annähernd groß genug ist, für die zahlreichen Probleme die es aktuell gibt. Bei >1000€ wird der Anteil der Spontankäufe ziemlich niedrig sein, weshalb die Probleme und der PR-Schaden durch die gebrochenen Versprechungen nicht zu unterschätzen sind.

Bei der 6000er Gen wurden eindeutige Benchmarks durch AMD beworben und man war konstant an der Rasterleistung der Konkurrenz dran, beim Verbrauch war man besser und RT war von der Bedeutung geringer als heute. Entsprechend groß war das Interesse. Bei der 7000er Gen ist bei allen Punkten genau das Gegenteil der Fall, was echt schade ist.
 
Zuletzt bearbeitet:
ist halt einfach schlechter als die 4080.
Ist sie das? Die Benchmarks zeigen doch, dass sie in den Games nahezu gleichauf mit der 4080 liegt. Teils schlechter, teils besser, je nach Game halt. In MW II schlägt sie sogar die 4090. Und kostet rd. 20 % (282,64 Euro) weniger im UVP-Vergleich:

40801.399 Euro
7900 XTX1.116,36 Euro

Wer großen Wert auf RT und Effizienz legt, nimmt die 4080, das vermutlich auch ich machen werde, wenn die Preise weiter sinken. Dennoch finde ich die 7900 XTX eine starke Preiskampf-Ansage gegenüber Nvidia und finde den Launch bisher gelungen. Jetzt muss AMD nur noch den Idle-Verbrauch in den Griff bekommen.

Zwar liegt AMD immer noch weit hinter Nvidia bzgl. RT, aber inzwischen sind mit der 7900 XTX Games locker mit RT spielbar, was in der letzten Gen kaum möglich war.
 
Die 7900XTX ist für die UVP schon ein ordentlicher Deal, den man machen kann. Die Rasterleistung ist wirklich gut, auch wenn sich diese meiner Meinung nach durch mehr Verbrauch erkauft wird. Mich würde mal ein Vergleich der Rasterperformance zwischen XTX und 4080 bei identischem Verbrauch interessieren. Ohne es zu wissen gehe ich mal davon aus, dass sich dann in vielen Spielebenches nochmal ein ganz anderes Bild zeigen könnte. Wem der Verbauch egal ist, der könnte auch eine 4080 ein wenig nachschärfen und hätte dann trotzdem noch die besseren Features.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh