AMD bleibt dabei: Radeon RX 7900 XT schnellste Karte unter 900 US-Dollar

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, sind einige Rückläufer da :lol:
 
was AMD mit RDNA3 bisher gezeigt hat ist enttäuschend, rein von der rohleistung hat AMD sicher selbst auch mehr erwartet.
ob es wirklich nur am Treiber liegt wage ich ml zu bezweifeln, irgendwo ist sicher ein grober Schnitzer in der Hardware von N31.
Hoffe mal AMD hat oder Findet jenen bis sie N32 in Produktion geben
Schauen wir uns dazu doch einmal an, was die Metaanalyse hier ergeben hat:
Anhang anzeigen 838190

An dieser Stelle fällt auf, das du deine Fakten schon stark zugunsten von AMD ausgewählt hast. Da ist es auch nicht sonderlich verwunderlich, dass du versuchst DLSS und Raytracing herunter zureden, sind ja Punkte pro Nvidia..
man kann alles drehen und wenden wie einem beliebt.
die RX7900xtx liefert die selbe leistung wie die RTX3090ti bei weniger Verbrauch zur halben UVP somit verbleibt nur DLSS wo es aber FSR von AMD gibt.
4080 ist nur noch in RT 25% in front für 200$ uvp aufpreis mit nur 256bit und 16GB
RX6900xt hatte zum launch 47,5% RT rückstand zur 3090 aktuell sind es nur noch 30,7%
sowie 28,6% auf die 3080-10GB heute hat sie aber aufgrund von Bandbreite und oder Speicher einen Vorteil von 3,2% auf selbige

RT ist bei Nvidia 2Jahre reifer und wurde extrem gesponsert um die Vorteile verkaufen zu können.
AMD hat einen anderen ansatz, und die Programmierer müssen den eben erst richtig zu nutzen lernen, Sponsoring ist bei AMD aber auch weniger.
das RT auch mit AMD Hardware geht sieht man an FC6 & Spiderman RM wo sie auf augenhöhe mit Nvidia liegen.
Bis Dato steckt RT noch in den Kinderschuhen, wird nachgereicht oder zusätzlich implantiert, a entweder weil einer dafür bezahlt oder aber eben um zu lernen. erste games die RT von begin der Programirung an nutzen werden wohl jene sein die auf UE5 programmiert wurden.

Nvidia baut ohne Frage aktuell die besseren GPUs aber zu einem exorbitanten Aufpreis.
4090 ist o.k was pl angeht, 4080 eine Abzocke sondersgleichen
3090-24GB 1499$ vs 3080-10GB 699$ in 4K RT hat man 20% weniger Leistung gehabt dafür aber auch nicht mal den halben Preis
4090-24GB 1599$ vs 4080-16GB 1199$ -47,2% Leistung aber nur 25% preisnachlas
 
Ich möchte auch nochmal einwerfen, dass DLSS oder RT eben auch gar nicht für jeden relevant ist. Wenn ich eine 4080 oder 4090 kaufe, werde ich mir den Schund von DLSS nicht antun. Seit meiner 2080 musste ich ständig lesen, wie geil DLSS ist. Habe es immer mal wieder probiert, aber es ist halt null für Multiplayer interessant. Und je mehr du in Richtung Competitive Gaming gehst, desto uninteressanter wird es. Bei meiner 3080 war es das gleiche - DLSS 2 wird soooo krass - im Endeffekt habe ich es nicht ein Mal benutzt. Keine Lust auf zusätzliche Latenz, keine Lust auf Ghosting etc. Kann mir vorstellen, dass das eventuell mal für ein paar Singleplayer only Spieler interessant ist. Ebenso RT. In all den Jahren mit meinen NVidia Karten hat es mich kein Stück gejuckt. Performance hit ist zu groß für richtige Global Illumination, RT für Schatten ergibt für mich noch weniger Sinn. Aktuell nutzt man RT für ein paar Kleinigkeiten, weil die RT Leistung sowieso zu gering ist. Selbst bei einer 4090. Und wie immer liest man durchgehend, wie bahnbrechend RT heute doch ist und warum man gerade deshalb zu NVidia greifen muss. Und ich wette, dass sich auch bis zur 5090 nichts ändern wird. RT ist aktuell eine Nische. Das heißt nicht, dass es keine Fans hat. Es gibt sicher einige Fans und das will ich auch nicht abstreiten. Und die können gerne eine 4090 kaufen, darunter ergibt es für diese Generation ja noch weniger Sinn. Und der Rest kann das gerne für sich entscheiden.
 
man kann alles drehen und wenden wie einem beliebt.
Mit einer Metaanalyse ist dies aber schon ziemlich neutral und objektiv gehalten.

4080 ist nur noch in RT 25% in front für 200$ uvp aufpreis mit nur 256bit und 16GB
Was interessiert schon der UVP Aufpreis, wenn die Straßenpreise ein anderes Bild zeigen?

Die günstigste, lieferbare 4080 gibt es aktuell für 1324€ zu kaufen und die 7900 XTX für 1291,62€. Preislich unterscheiden sich die beiden Karten kaum. Dafür gibt es bei Nvidia die zuverlässigeren Treiber, bessere Effizienz, bessere RT Leistung, keine Kühlerprobleme und DLSS (was immer noch deutlich besser als FSR ist, vor allem dank FG).

AMD hat einen anderen ansatz, und die Programmierer müssen den eben erst richtig zu nutzen lernen, Sponsoring ist bei AMD aber auch weniger.
Wie sinnvoll ist es überhaupt von AMD bei deren geringen und sinkenden Marktanteil einen anderen Ansatz zu wählen, der auch noch extra Support benötigt?
Warum sollten die Entwickler überhaupt den zusätzlichen Aufwand in Kauf nehmen?
Sogar Intel hat dies besser hinbekommen..

das RT auch mit AMD Hardware geht sieht man an FC6 & Spiderman RM wo sie auf augenhöhe mit Nvidia liegen.
Zufälligerweise auch immer nur in den Titeln, in denen RT wenig genutzt wird ;)
 
Mit einer Metaanalyse ist dies aber schon ziemlich neutral und objektiv gehalten.
weswegen eben selbe zum vergleich der Rtx3090/4080 vs 7900xtx genommen habe

bez Strassenpreis hast Du recht aber auch der wird sich einpendeln wenn genügend xtx für die Nachfrage verfügbar sind.
aber wo ist der amd treiber nicht zuverlässig habe von keinem absturz oder sonnst was in der offiziellen rev gelesen.
der Nvidia Treiber ist Final und läuft wie er soll AMD hat noch viele Baustellen „Beta„ aber làuft rund
effizinter ist nvidia aktuell wer sagt denn das das nicht per treiber noch gefixt wird ?!?
25% mehr rt Leistung ja aber das braucht will nicht jeder, dafür fehlen 128bit und 8GB Ram
Kühlerproblem ist kein AMD verschulden sondern fehlerhafte Kühler wird getauscht ärgerlich aber kein entschiedener punkt
DLSS vs FSR ist Marketing bla bla, wer es will bitte aber Kaufendscheidend sollte sowas rational nicht sein, da es nur fehlende Leisung kaschiert.

Wie sinnvoll ist es überhaupt von AMD bei deren geringen und sinkenden Marktanteil einen anderen Ansatz zu wählen, der auch noch extra Support benötigt?
Warum sollten die Entwickler überhaupt den zusätzlichen Aufwand in Kauf nehmen?
Sogar Intel hat dies besser hinbekommen..
Das ist subjektiv, und mMn falsch AMDs Markanteil in 4K steigt allein durch die XBox und PS5.
da bei den GPU Preisen wohl weit mehr Leute sich eine xBox oder PS5 kaufen um 4k auf dem 75‘ TV zu socken der eh da ist wie den PC aufzurüsten.
Die Entwickler programieren eh für xBox und PS5 auf AMD Hardware und wollen somit das beste ergebniss auf der AMD Hardware rausholen.
Intel hat es aber wie Nvidia auch nur mit zusätzlicher Hardware hinbekommen und das in meinen Augen sogar besser wie Nvidia kostet aber Wafer fläche welche immer teurer wird.
Zufälligerweise auch immer nur in den Titeln, in denen RT wenig genutzt wird ;)
und genau das wird die zukunft sein um RT massenfähig zu bekommen siehe UE5
was nutzt viele RT Effekte ? kenne mich nicht aus da ich keine RT Hardware habe aber tippe mal auf.
CP2077 & F1 22 denn bei denen kostet es +50% der Leistung :) und selbst eine 4090 wird ins jahr 2015 mit 30fps zurückgestzt die heutzutage ja als unspielbar gelten.

klar hat Nvidia aktuell die Beste Hardware sowie auch Treiber. aber der Aufpreis zur Leistung steht von der 4090 abgesehen in keiner relation.

Interessant wird N33 der ja gerüchten zurfolge in Q2 und somit, zeitgleich oder gar vor der RTX4060ti kommt welche in RT sicher schneller ist im Raster wohl auch aber zu welchem Preis ?!? 8GB ist FHD vereinzelt WQHD (noch) GA106 soll 196mm2 haben in 5nm N33 206mm2 in 6nm.
AMD hat den Kostenvorteil und Marge auf der Plus seite. Nvidia, RT, eventuell Leistung, aber denke die AD106/107 sowie N33 werden in 23 die Umsätze generieren im Gaming. denke aber selbst diese Karten kommen wenn überhaupt nur knapp unter 300$
 
Zuletzt bearbeitet:
Seltsame Werbung für die beiden Versager des Lineups. Beide gehören in den 500€ Bereich. AMD muss zudem Kühler und Treiber in den Griff bekommen.
500 für eine XTX, träum weiter. ~750 wäre das Optimum. Die XT 2-300 € darunter. Da würde ich auch die 4070 Ti einordnen. Für 5-600 wäre die Karte top, die 4080 dann halt für um die 800.
Nvidia baut ohne Frage aktuell die besseren GPUs aber zu einem exorbitanten Aufpreis.
4090 ist o.k was pl angeht, 4080 eine Abzocke sondersgleichen
3090-24GB 1499$ vs 3080-10GB 699$ in 4K RT hat man 20% weniger Leistung gehabt dafür aber auch nicht mal den halben Preis
4090-24GB 1599$ vs 4080-16GB 1199$ -47,2% Leistung aber nur 25% preisnachlas
NVIDIA hat aktuell wieder die überlegene Fertigung. Und wie du beschreibst hat die 4090 ein besseres P/L als die 4080. Das ist wirklich bizarr. Für maximal 1500 (kaufbar lagernd Neuware versteht sich) hätte ich mir vielleicht glatt eine geholt. Aber 2K+, das ist mehr als so mancher in Deutschland im Monat netto hat, geschweige denn mal eben so ausgeben kann für ein einzelnes Stück Luxushardware.

NV wird in RT immer vorne liegen. Aber man kann es auch so sehen: Die 7900 XTX ist am Ende die bessere 3090(Ti). Ich hätte für um die 1 K eine gebraucht kaufen können oder für nun 1,1 K die XTX, was letztlich der Bessere Deal war in meinem Fall, die Karte hat mehr Leistung, dieselbe RT-Leistung und ist obendrein effizienter. DLSS und so ein Zeug nehme ich nicht ernst, zumindest nicht bei 1K+-Produkten, wo man dann am Ende noch upscalen muss weil die Leistung trotzdem nicht reicht. Dann muss man sich damit anfinden dass RTX off oder auf low bleibt und genießt dennoch den Rest auf Ultra.

Wenn FSR3 mal brauchbar wird dass zB Darktide mit RT auf "low" auf mindestens 90 FPS läuft in 4K würde ich es mal testen, am Ende sind die Effekte aber auch nicht so toll. Ich habe FSR2 und gemischte Settings probiert, das Spiel sieht maxed out ohne RT glatt besser aus als wenn ich einzelne Einstellungen auf Mittel setze und trotzdem noch Framedrops habe. Eine 3090 wäre hier noch langsamer gewesen. Ansonsten ist RT eine Dreingabe, AMD hat das wohl auch erkannt und legt daher keinen so enorm hohen Wert darauf. RT wird nicht mehr verschwinden ist aber für die nächsten Jahre ein optionales Setting. Man spielt mit allem anderen trotzdem auf Hoch-Ultra. Das Gute ist dann aber auch dass man in sagen wir mal fünf Jahren noch Einstellungen haben wird die das Spiel etwas besser machen, wenn die Leistung nicht mehr so teuer bzw dann vorhanden ist. Es hat ja auch vier Jahre gedauert zB in BFV 4K100+ zu schaffen (mit der 4090). Das wird immer so weitergehen, die aktuellen Spiele ziehen selbst eine 4090 auf 60 runter und in 1-2 Jahren ist man dann auf 30 FPS. Daher kaufe ich die 4090 nicht, zumindest nicht zu dem Preis.

Und mit dem Konsolen / DLSS / FSR-Argument kann man es auch immer so sehen: Eine 3060 Ti oder 6700 XT leistet was eine Konsole schafft, wenn man sich mit dem Upscaling anfreunden kann. Zumindest für mich ist das einzige Argument mehr zu bezahlen dass ich das dann nativ mit hoher Framerate schaffe. Am Ende sind 90 FPS doch viel angenehmer als 45-60.
 
bez Strassenpreis hast Du recht aber auch der wird sich einpendeln wenn genügend xtx für die Nachfrage verfügbar sind.
Genauso können auch die Preise bei GPUs von Nvidia noch sinken. Vielleicht werden die Karten von AMD mal attraktiver aufgrund des Preises, vllt. auch nicht.

effizinter ist nvidia aktuell wer sagt denn das das nicht per treiber noch gefixt wird ?!?
Kann auch genauso gut bei Nvidia eintreten und es gibt sogar Gerüchte diesbezüglich. Vielleicht kann AMD mit Verbesserungen das bessere Produkt haben, vllt auch nicht.


dafür fehlen 128bit
Oha, das ist natürlich der absolute Gamechanger :rolleyes:

Kühlerproblem ist kein AMD verschulden sondern fehlerhafte Kühler wird getauscht ärgerlich aber kein entschiedener punkt
AMD vertreibt die Produkte und ist daher verantwortlich, dass diese auch ordnungsgemäß funktionieren. Es steht natürlich einem jeden frei sich dieses Glücksspiel anzutun. Nur ist es schon ziemlich ärgerlich, wenn man dann doch eine defekte Karte erwischt und solange auf eine ordnungsgemäß funktionierende Karte warten muss, bis AMD es endlich einmal auf die Reihe bekommt, die Karten auch zu tauschen. Aktuell kommen die damit ja nicht hinterher..

DLSS vs FSR ist Marketing bla bla, wer es will bitte aber Kaufendscheidend sollte sowas rational nicht sein, da es nur fehlende Leisung kaschiert.
Warum meinen irgendwelche Vögel eigentlich immer anderen vorschreiben zu können, was diese für kaufentscheidend zu halten haben und was nicht?
Was jucken 128bit und 8GB mehr, wenn es bei der Leistung kaum Vorteile bringt?
Vielleicht bringt es irgendwann mal Vorteile, vllt auch nicht.

Das ist subjektiv
Nö, zeigen sämtliche Statistiken.

Die Entwickler programieren eh für xBox und PS5 auf AMD Hardware und wollen somit das beste ergebniss auf der AMD Hardware rausholen.
Witzig, dass dein vorheriges Argument noch war, dass die Entwickler bei RT nur für Nvidia optimiert hätten und dies für AMD noch tun müssten. Was denn nun?
Die Konsolen sind nicht erst gestern erschien, sondern gibt es die schon ein wenig länger. Aber diese Leier muss man sich schon seit Jahren anhören. Dieses Jahr wird es bestimmt was oder spätestens nächstes Jahr oder vllt. auch nicht!

und genau das wird die zukunft sein um RT massenfähig zu bekommen siehe UE5
Vielleicht ist das so, vllt. auch nicht.

Die Frage hatte ich schon bei deinem letzten Beitrag, aber was genau willst du mir eigentlich sagen?
Das die Produkte von AMD ganz super toll sind, wenn deine ganzen Wunschszenarien evtl mal so eintreten könnten, wie du es dir erhoffst?
 
@Mordrac, an sich möchte ich Dir Recht geben. Ein guter Post, der die Fakten nüchtern zusammenträgt. Dafür ein Danke.

Aber ca 40% meiner Gamingzeit wird mit RT verbracht momentan, also es gibt schon die Leute, die eben entsprechend mit einer NVidia GPU besser fahren. Kann sich ja zum Glück jeder aussuchen. :)

Die XTX wäre allerdings wirklich nur zum AMD MSRP wirklich ein guter Deal und dafür bekommt man sie eher schlecht.
Laut Steam nutzen aktuell 15% der User RT.
 
Link? Aktuell gibt's für 40€ mehr ne 4080.
Geh auf Geizhals schauen, da gibt es gleich 5 unter dem Listenpreis...der 4080er ; ich habe ja nicht AMD UVP geschrieben :P
Nein, sorry, ich hatte in dem Moment tatsächlich die falsche UVP im Kopf. Aber hey, immerhin sind das alles Costums, das ist doch auch fein, oder?
 
was AMD mit RDNA3 bisher gezeigt hat ist enttäuschend, rein von der rohleistung hat AMD sicher selbst auch mehr erwartet.
ob es wirklich nur am Treiber liegt wage ich ml zu bezweifeln, irgendwo ist sicher ein grober Schnitzer in der Hardware von N31.
Hoffe mal AMD hat oder Findet jenen bis sie N32 in Produktion geben
Ich möchte dir in dem Punkt widersprechen.
AMD hat sicher nicht mit einer so großen RTX 4090 gerechnet, die einfach mal ~52% mehr Cuda Cores hat, 16384 vs 10752 als eine RTX 3090 TI.
Die RX 7900 XTX hat mit 6144 Stream Prozessoren nur 20% mehr, als eine RX 6950 XT mit 5120.

Wäre Nvidia bei der Anzahl der Cuda Cores geblieben, wäre die XTX sicher als Gegner der 4090 gedacht gewesen.
Ich kann mit vostellen, dass AMD mit der RTX 4080 12 GB RTX 4070 TI, und der RTX 4080 16GB, etwas in die Irre geführt wurde.
Die RTX 4080 16GB hat mit 9728 Cuda Cores nur ~8,5% mehr als eine 3080 TI mit 8960.
Der Abstand der 3080TI zur 3090TI sind auch 20%. (in Cuda Cores)

Hinzu kommt, dass vermutlich durch das Chiplet Design AMDs, nicht die versprochene 54% mehr Leistung pro Watt gebracht werden, sondern aktuell nur etwa 35%.

Interpoliert man die Werte von Computerbase während man von einer 4090 ausgeht, die nur 12.935 Cuda Cores hätte (20% mehr als die letzte Generation), kommt man auf ~79 FPS im Schnitt, gegenüber der RTX 4080 und RX 7900 XTX mit jeweils ca. 75 FPS. Würde die RTX 7900XTX die versprochenen 54% pro Watt mehr bringen, hätte sie 85,5 FPS im Schnitt und läge damit über einer kleiner vermuteten 4090.

Ich hoffe für AMD, dass sie mit Treiberupdates noch das versprochene bringen können.
FSR 3 könnte auch interessant werden, vor allem wenn auch wieder ältere Grafikkarten dies nutzen können. Auch für Nutzer von Nvidia karten der 3000er Reihe interessant.
 
Witzig, dass dein vorheriges Argument noch war, dass die Entwickler bei RT nur für Nvidia optimiert hätten und dies für AMD noch tun müssten. Was denn nun?
Die Konsolen sind nicht erst gestern erschien, sondern gibt es die schon ein wenig länger. Aber diese Leier muss man sich schon seit Jahren anhören. Dieses Jahr wird es bestimmt was oder spätestens nächstes Jahr oder vllt. auch nicht!
die Konsolen sowie RDNA2 mit RT hartware kamen 11/2020 bzw 12/2020.
Ampere mit RT gibt es seit 9/2018 also gute 2 Jahre länger ! ist und bleibt fakt das Nvidia 2 Jahre Vorsprung hat.
Die Frage hatte ich schon bei deinem letzten Beitrag, aber was genau willst du mir eigentlich sagen?
Das man Aktuell eigentlich nur eine 4090 kaufen dürfte.
sowie das ausgehend von dieser die 4080&7900xtx bei 900€ liegen sollten.
und wer eben bereit ist den aktuellen Aufpreis von 500€ zu zahlen besser zur AMD greift da eben vollausbau und eine Bessere RTX3090 ist. die bis vor 6monaten noch das beste war was es zu kaufen gab.
jeder der eine RTX 4080/4070 zu den aktuellen Preisen kauft oder schön redet ein Fanboy ist.
Ich möchte dir in dem Punkt widersprechen.
AMD hat sicher nicht mit einer so großen RTX 4090 gerechnet, die einfach mal ~52% mehr Cuda Cores hat, 16384 vs 10752 als eine RTX 3090 TI.
Die RX 7900 XTX hat mit 6144 Stream Prozessoren nur 20% mehr, als eine RX 6950 XT mit 5120.
Das meinte ich nicht. AMD hat mehr Hardware, Nvidia mit der 4080 weniger zur 3090 somit hätte die RTX7900xtx die 4080 um min 20% Raster schlagen und die selbe RT Leistung haben müssen, somit hat Nvidia mehr rausgeholt wie AMD.

ich hoffe mal das AMD Über den Treiber noch gute % rausholen kann und die offensichtlichen Hardware Probleme bis zum N32 release gelöst sind. Der soll ja laut Gerüchten eh erst in 2H kommen, N33 wird interessant werden wieviel Rückstand der auf AD106 hat, bzw mindestens den AD107 auch in RT schlagen kann,
hoffe AMD hat das Speicher Problem in RT gelöst und schafft Raster Leistung AD106 und RT mehr wie AD107
so das es wenigstens im Unterem Preissegment wieder einen Preiskampf gibt
 
die Konsolen sowie RDNA2 mit RT hartware kamen 11/2020 bzw 12/2020.
Die haben es also gute 2 Jahre nicht hinbekommen vernünftig auf den Ansatz von AMD hin zu optimieren und es nicht geschafft das volle Potenzial zu entfalten. Jetzt sollen die das plötzlich hinbekommen. Ok, wenn du das sagst. Kann passieren, vielleicht aber auch nicht.

jeder der eine RTX 4080/4070 zu den aktuellen Preisen kauft oder schön redet ein Fanboy ist.
Ach so, jeder der aktuell eine 4070/4080 ist also ein Fanboy. :rolleyes:
Gilt das dann auch für die Käufer einer 7900 XTX, die nun einmal aktuell faktisch die schlechtere Option gegenüber der 4080 darstellt?

Aber danke für deine Posts. Jetzt weiß ich zumindest wieder, warum ich hier nicht mehr so aktiv bin. Den Schwachsinn kann man sich echt nicht geben..
 
Im Rahmen einer Bestätigung der Überhitzungsproblematik der Radeon RX 7900 XTX im MBA-Design hat AMDs Scott Herkelman auch über einige weitere Aspekte der letztjährigen RDNA-3-Generation gesprochen. Zum Start dieser machte man große Versprechungen, die man nicht alle halten konnte. Auch in dieser Hinsicht will AMD in Zukunft etwas zurückhaltender sein.
... weiterlesen
Das gleicht ja fast einem Schnäppchen.
Woooow SCHON UNTER 900 Dollar, da schlägt ja bald jeder Geringverdiener zu.
 
jeder der eine RTX 4080/4070 zu den aktuellen Preisen kauft oder schön redet ein Fanboy ist.
Weiß nicht, ob's nur mir so geht, aber jedesmal wenn ich deine Beiträge lese, muss ich an einen Landwirt denken, der mit'm großen Güllefaß über's Feld fährt und sein "Gut" verteilt.

Deiner Aussage nach, ist man also automatisch NV-Fanboy, wenn man sich eine RTX 4080 für 1.300-1.400€ kauft, jedoch ist aber als völlig neutral zu werten, wenn man sich eine 7900 XTX für 1.400€+ kauft oder gar die Aqua für 1.770€+, die leider schon ausverkauft ist. Aktuelle Beispiele:

- Red Devil für 1.479€
- XFX Merc für 1.419€
- Asrock Taichi für 1.429€
- Asrock Aqua lag bei 1.77x€
bei Jakob gibt's sie für 2.431€ :LOL:

Gut, dass du dir die Mühe machst und die Leute nach ihrer Kaufscheidung einsortierst. Bereits mit 22 Beiträgen so eine Qualität abzuliefern ist schon bemerkenswert.
 
Zuletzt bearbeitet:
Aber danke für deine Posts. Jetzt weiß ich zumindest wieder, warum ich hier nicht mehr so aktiv bin.
Dito ;), davon merkt man leider nichts :(
Gilt das dann auch für die Käufer einer 7900 XTX, die nun einmal aktuell faktisch die schlechtere Option gegenüber der 4080 darstellt?
Das ist ein Fanboy FAKT wegen 20% mehr RT, DLSS & den Namen.
Fakt ist. sie Raster langsamer hat ein beschnittenes SI, Ihr fehlen 8GB Speicher und kostet 200€ mehr UVP

Fakten
RX7900xtx bietet 3090ti Ausstattung 20% mehr Raster vs -5% RT zum halben Preis
RX6900xt hatte 2020 4k RT 47,5% 3090 sowie 28,6% 3080 Rückstand
RX6900xt hat akuell nur noch 30,7% auf3090 14,6% zur 3080
neue Spiele & Engines brauchen Jahre Entwiklungszeit, AMD RT Hardware gibt es aber erst 2, sprich die games kommen langsam erst auf den Markt erstes Beispiele
CoD Vangart CB mit IW8 engine hat 4090 25% Vorsprung 4080 15% Rückstand zur xtx welche wiederum 68% vor der 6800xt ist
COD MW2 PCGH mit IW9 Engine hat die 4090 5% Vorsprung 4080 26% Rückstand zur xtx welche wiederum 77% vor der 6800xt ist
The Witcher3 Rd3 engine liegt die RTX4080 11% vor der xtx 4k oder 231% mit RT in 4K
CP2077 RD4 aus 2020 liegt die RTX 4080 2% hinter der xtx 4k mit RT nur noch 161% und die engine ist von 2020 dem erscheinungsjahr von RDNA2 mit RT hardware und
ebenso werden die spiele entwicklungen nach dem zur verfügung stehenden möglichkeit abhängig gemacht.
2015 erstmals 12GB titan standart 4GB Nvidia
2018 erstmals 24GB Titan Standard 6GB Nvidia
2020 max 24GB Standart 8GB Nvidia
 
Immer dieses Märchen von zu wenig Speicher. 12GB, 2k ... reicht dicke.
 
Fakten
RX7900xtx bietet 3090ti Ausstattung 20% mehr Raster vs -5% RT zum halben Preis
Hammer!!! Nur halb so teuer wie die sinnloseste und überteuertsten Enthusiastenkarte der letzten Generation.
 
Das ist ein Fanboy FAKT wegen 20% mehr RT, DLSS & den Namen.
Fakt ist. sie Raster langsamer hat ein beschnittenes SI, Ihr fehlen 8GB Speicher und kostet 200€ mehr UVP
Vorher hieß es noch 25% mehr RT Leistung und nun sind es nur noch 20%. Wenn du so weiter machst, dann ist ist die 7900 XTX auf einmal sogar noch schneller als eine 4080 oder gar eine 4090. Schön zu sehen, wie variabel deine Fakten doch sind. :rolleyes:

Der Unterschied bei der Rasterleistung beträgt ~3% und dafür verbraucht die 7900 XTX gute 20% mehr. Dazu kommt noch der extrem hohe Verbrauch im Idle, je nach Hardwarekonstellation. Die 4080 ist dabei aber nur minimal langsamer bei der Rasterleistung, aber dafür deutlich schneller, wenn RT hinzu kommt. Dies können schon Punkte sein, warum sich Leute eher für eine 4080 entscheiden und gegen eine 7900 XTX.

Wie wichtig einem persönlich solche Geschichten wie RT und DLSS sind, das kannst du gerne jedem Käufer selbst überlassen. Dies sind alles andere als Fanboy Fakten, sondern reale Punkte, die mit in die Kaufentscheidung fließen können.

Was spricht denn für eine 7900 XTX? Der Speicher? Was noch? Ein eventueller Wundertreiber, den es angeblich schon seit Vega geben sollte?
Der Speicher bringen der 7900 XTX derzeit keinen wirklichen Vorteil und könnten vielleicht irgendwann mal in der Zukunft zum Vorteil werden, vllt. aber auch nicht.

Wieso versteifst du dich eigentlich schon wieder auf die UVP, wenn die Straßenpreise ein anderes Bild zeigen und sich kaum unterscheiden?
Die Ref-Karten von AMD sind derzeit ja mit einem Glücksspiel verbunden, ob diese überhaupt ordnungsgemäß funktionieren. Wie schaut es denn preislich aus, wenn man bei AMD nur zu Partnerkarten greifen kann, die nicht auf dem Ref-Design basieren? (Meine Zeit ist mir zu schade, um dies an dieser Stelle nachzusehen)

Ich werde es mir gar nicht erst ansehen, welche vermeintlichen Fakten du da so zusammengetragen hast. Ich bezweifle mal stark, dass diese wirklich neutral sind..
 
Fakten
RX7900xtx bietet 3090ti Ausstattung 20% mehr Raster vs -5% RT zum halben Preis
Der Unterschied bei der Rasterleistung beträgt ~3% und dafür verbraucht die 7900 XTX gute 20% mehr. Dazu kommt noch der extrem hohe Verbrauch im Idle, je nach Hardwarekonstellation. Die 4080 ist dabei aber nur minimal langsamer bei der Rasterleistung, aber dafür deutlich schneller, wenn RT hinzu kommt. Dies können schon Punkte sein, warum sich Leute eher für eine 4080 entscheiden und gegen eine 7900 XTX.
Genau das habe ich mir auch gedacht.

Klugschreißerisch einem was von Fakten erzählen, die größten Kritikpunkte aber schön auslassen. Nicht schlimm, ich ergänze deine Argumente gerne mit weiteren Fakten.


ich hoffe mal das AMD Über den Treiber noch gute % rausholen kann und die offensichtlichen Hardware Probleme bis zum N32 release gelöst sind. Der soll ja laut Gerüchten eh erst in 2H kommen
Fakt 1 Treiber: Wie du an meiner Signatur sehen kannst, ist diese größtenteils mit AMD- und Radeon-Themen gespickt. Entsprechend kann ich hier gut auf meine eigene Erfahrung zurückgreifen. Die Argumentation (Hoffnung), dass die Treiber in Zukunft besser werden, Fine Whine bla bla ist die schwächste Argumentation überhaupt (genauer betrachtet ist es nicht mal eine). Abgesehen davon, dass man dafür hellseherische Fähigkeiten braucht, gibt es seitens AMD keinerlei Versprechen, keinerlei Garantien oder sonst was diesbezüglich. Toller Deal, jetzt für über 1.000€ für den Fine Whine bezahlen, aber erst in einem Jahr, in zwei oder sogar noch später genießen.

Der idle-Verbrauch, sowie wie die Begründung seitens AMD sind peinlich, nicht zeitgemäß und ein Armutszeugnis, insbesondere im Multi-Monitor-Betrieb. Gerade AMD betont in jeder Präsentation, wie wichtig ihnen der Stromverbrauch ist und wie effizient sie sind etc. In den zwei Jahren, wo ich mit insgesamt drei Radeon-Karten (6900XT, 6900XTXH, 6950XT) unterwegs war, hat AMD es nicht auf die Kette bekommen, dieses Problem zu lösen, trotz angeblicher Fehlerbehebung im Treiber. Jetzt wiederholt sich die Geschichte erneut. Einer der letzten Treiber war speziell an dieses Problem adressiert. Dennoch berichten User immer noch von extrem hohen idle-Verbrauch im Multi-Monitor-Setup. (Beitrag von Mittwoch)


1673384227973.png

Klasse, wenn ich also mal wieder etliche Stunden im Forum hocke, verbrät die 7900XT/X schön ihre 100w+ und dreht fröhlich vor sich hin, weil ein Passiv-Betrieb bei 100w+ absolut ausgeschlossen ist. Soviel zum Treiber, dem aktuellen Stand und der ganzen Versprechen, die nach wie vor offen stehen. Wer weiß wie lange das noch so bleiben wird oder ob's überhaupt jemals gelöst wird. Hauptsache man hofft, dass AMD noch ein paar % Leistung aus der Hardware quetscht, egal zu welchem Preis.

Die aktuelle Story, dass der letzte AMD Treiber scheinbar einige 6800/ 6900XT Karten killt, ist jetzt auch keine gute Werbung für den Treiber oder die Karten weiter zu pushen. Beitrag: HWL User, YT-KrisFix Germany.

Fakten
RX7900xtx bietet 3090ti Ausstattung 20% mehr Raster vs -5% RT zum halben Preis ...
CoD Vangart CB mit IW8 engine hat 4090 25% Vorsprung 4080 15% Rückstand zur xtx ....
COD MW2 PCGH mit IW9 Engine hat die 4090 5% Vorsprung 4080 26% Rückstand ...

Fakt 2 Leistung: An verschiedenen Beispielen erzählst du uns wie toll die 7900XTX performt, was sie ja auch durchaus tut, aber wie die Leistung erkauft wird, lässt du komplett außer Acht. Hier nur einige Beispiele:

Hardware Unboxed: Review zur 7900XTX MBA
1673385899437.png 1673386169126.png 1673386015957.png

Techpowerup: Review zur 7900XTX MBA:
1673386486287.png

KitGuru: Power Efficiency RTX 40 vs 7900XT/X
1673386925514.png 1673386954303.png

ComputerBase: Test zur 7900XTX MBA:
1673386599332.png 1673386674159.png

Natürlich könnte man mit UV argumentieren, aber dann muss das fairerweise bei beiden Lagern machen und da stinken die Radeon 7000 noch mehr gegen Ada Lovelace ab. Was die Custom-Modelle teilweise an Strom verbraten, ist nochmals ne ganze Ecke höher als die MBA-Karten. KitGuru: Review zur Sapphire Nitro+ (mit Verbrauch zu OC und UV).


Fakt ist. sie Raster langsamer hat ein beschnittenes SI, Ihr fehlen 8GB Speicher und kostet 200€ mehr UVP
Ja, "viel" langsamer, wie man in den Charts sieht. Selbst wenn ich meine 4080 bis ans Maximum übertakte, bleibe ich vom Verbrauch unterhalb des Stock-PL der MBA-Karte. PL bei meiner Custom-4080 ist 320w, nur so als Vergleich. Custom-Modelle der 7900XTX mit 3x 8-Pin nehmen sich alle 400w (+15% auf Wunsch).

Wo genau fehlen der Karte 8GB Speicher? Hab jetzt kein Spiel bei mir gefunden, welches in 4K annähernd den Speicher von 16GB voll ausreizt. Im professionellen Bereich könnte ich mir das durchaus als Argument vorstellen, aber da würde sowieso niemand auf Radeon zurückgreifen.

Falls dir das nicht zu viel ausmacht und du kognitiv in der Lage bist, arbeite bitte an deinem Satzbau (inkl. Satzzeichen, Groß- und Kleinschreibung usw.). Deine Buchstabensuppe ("sie Raster langsamer") lässt sich zum Teil echt schwer lesen.



Fakt ist...... und kostet 200€ mehr UVP
Den tollen Preis der Custom-Modelle hat man im oben genannten Beitrag gesehen. Wer 200€ sparen und sein Glück im Vapor-Chamber-Roulette herausfordern will, bitteschön.



1. Fakten gibt man mit Quelle/n an. Ansonsten kannst du deine Märchenstunde für dich behalten. Entsprechend unterstelle ich dir, dass deine Behauptungen im Suff entstanden sind. Diese Behauptung gilt erstmal solange als wahr, bis das Gegenteil bewiesen ist.

2. Wenn du schon die Fakten-Keule schwingst, mach dies vollständig. Ansonsten machst du dich lächerlich und unglaubwürdig. So wie du dich hier aufführst, bist du der Rote Rächer höchstpersönlich und quatscht in jedem deiner Beiträge irgendwas von Fanboy. Vielleicht mal die eigenen Beiträge durchlesen und auf sich wirken lassen.
 
Zuletzt bearbeitet:
Man sollte einfach ignorieren was er schreibt. Ich verschwendete Lebenszeit sich mit solchen Leuten auseinander zu setzen, weil sie's garnicht wahrhaben wollen. Diese Argumentation mit dem grösseren Speicher kann man schon gar nicht mehr hören! Ich habe mir von den letzten Generationen jeweils von AMD sowie von Nvidia mindestens 1 Karte geholt um sie ausgiebig zu vergleichen und am Ende ist's trotzdem die Nvidia gewesen, die im Rechner bleiben durfte, einfach weil der Gesamteindruck besser war. Von dem Mehrspeicher konnte ich persönlich nicht profitieren. Die 6900XTX war im Vergleich zu meiner jetzigen 3080ti schon sehr gleichwertig, aber die 7900XTX zur 4080ig find ich mit ihrem Stromdurst einfach nicht zeitgemäß und mir kann auch keiner erzählen, das da großartig was mit nem Treiber zu ändern ist.
 
RT für Konsolen dürfte auf Jahre hinaus noch kein echtes Thema sein da ist es egal ob AMD Technik verbaut ist oder Nivida verbaut wäre, die Generation wird es nicht stemmen können.
Unreal5 hat Lumen also ihre eigene RT Lösung welches wieder kein echtes RT ist aber eben weniger Leistung benötigt zusammen mit Nanite wird es für die nächsten Jahre ausreichen müssen. Interessant wäre ob Nvidia Tensor Cores Treibertechnisch was mit Lumen anfangen können und deren Lösung nur die pure RT Leistung zählt.
Generell ist die Karte nicht doof wenn sie nicht zu dicht an der 4080 wäre. Das man am besten kein ungewöhnliches Multimonitorsetup fährt wegen den Treibern sei dahin gestellt.
 
Das ist ein Fanboy FAKT wegen 20% mehr RT, DLSS & den Namen.
Fakt ist. sie Raster langsamer hat ein beschnittenes SI, Ihr fehlen 8GB Speicher und kostet 200€ mehr UVP
2020 max 24GB Standart 8GB Nvidia
Sind die Zahlen gewürfelt?
Die 4080 ist ca 40-50% schneller bei RT wie eine 7900 XTX in 4k ohne DLSS/FSR.
Man muss nur Spiele nehmen die wirklich viel RT implementiert haben und nicht Titel wie Spiderman. Je weniger RT Effekte benutzt werden desto mehr Einfluss hat die Raster Leistung, wo AMD stark ist.

Alle künftigen Grafikkracher werden sich aber durch RT definieren, nicht durch Raster Grafik.
Alle aktuellen Wettbewerbsspiele wie CoD oder R6:Siege setzen auf Rasterization und laufen auf Toastern, bzw werden mit reduzierten Details gespielt um Gegner eher zu entdecken. Hoch drehen kann man es hingegen als Casual Spieler der auf Optik wert legt auf beiden Karten mit weit mehr wie 120 FPS.
Speicher der nicht gebraucht wird fehlt auch nicht, also kein Argument. Selbst 12 GB werden nicht ausgelastet unabhängig davon wie viel ein Spiel reserviert. Das kann sich ändern mit der Zeit aber das ist Zukunftsmusik.
Das original Kühlerdesign ist schwach bei den AMD und AIB kosten mehr bzw haben höhere UVP.
Geringeres Speicherinterface mit schnellerem Speicher, daran würdest du eine Kaufentscheidung festmachen? Normalerweise interessiert die tatsächliche Performance und keine Zahlen auf Datenblättern, dies ist schließlich kein Grafikkarten-Kartenspiel wo man sich gegenseitig übertrumpft.
 
Sind die Zahlen gewürfelt?
Die 4080 ist ca 40-50% schneller bei RT wie eine 7900 XTX in 4k ohne DLSS/FSR.
Man muss nur Spiele nehmen die wirklich viel RT implementiert haben und nicht Titel wie Spiderman. Je weniger RT Effekte benutzt werden desto mehr Einfluss hat die Raster Leistung, wo AMD stark ist.

Alle künftigen Grafikkracher werden sich aber durch RT definieren, nicht durch Raster Grafik.
Alle aktuellen Wettbewerbsspiele wie CoD oder R6:Siege setzen auf Rasterization und laufen auf Toastern, bzw werden mit reduzierten Details gespielt um Gegner eher zu entdecken. Hoch drehen kann man es hingegen als Casual Spieler der auf Optik wert legt auf beiden Karten mit weit mehr wie 120 FPS.
Speicher der nicht gebraucht wird fehlt auch nicht, also kein Argument. Selbst 12 GB werden nicht ausgelastet unabhängig davon wie viel ein Spiel reserviert. Das kann sich ändern mit der Zeit aber das ist Zukunftsmusik.
Das original Kühlerdesign ist schwach bei den AMD und AIB kosten mehr bzw haben höhere UVP.
Geringeres Speicherinterface mit schnellerem Speicher, daran würdest du eine Kaufentscheidung festmachen? Normalerweise interessiert die tatsächliche Performance und keine Zahlen auf Datenblättern, dies ist schließlich kein Grafikkarten-Kartenspiel wo man sich gegenseitig übertrumpft.
Ja raytracing bling bling mega super ti dlss 3.0 exklusiv
Die Mehrheit erkennt überhaupt keinen Unterschied mit raytracing und schalten es aus um mehr fps zu haben:) rasterpower ist natürlich wichtiger :) dlss Und fsr ist aber geil
:)
 
Weil die Mehrheit in Full Hd spielt und bei dem Pixelbrei garkeinen Unterschied sehen kann :stupid:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh