iLLuminatusANG
Legende
Ich denke nicht dass er EK sooo viel günstiger war dass da 100 Öhre oder mehr möglich wären.
Es fehlt schlicht an der Elektronik.
Es fehlt schlicht an der Elektronik.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Meine Vermutung: Bei der XT geht UV noch ganz gut, die "kleine" ist dagegen schon ziemlich nah am Verbrauchsoptimum und limitiert aufgrund des niedrigen PL. Die Karten sind von den Spezifikationen eigentlich viel zu nah beieinander und deshalb erklären sich halt auch die nur 60 Euro UVP-Unterschied.Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht....
hab heute, weil ich "mal" Zeit hatte nen 13th gen gegen einen Ultra in Cinebench antreten lassen. sah nicht gut aus für den deutlich teueren Ultra. vllt kann ich es morgen mal im entsprechenden thread posten. Und ich muss die Preise der GF argumentieren...@iLLuminatusANG Jaja alles gut. Ist bei mir ähnlich, der Firmenkram läuft auf Intel CPU, selten dass ich ne dGPU brauche bzw. nutze... aktuelle Firmenkiste hat sogar nur iGPU. Aber nach diversen Vorkommnissen privat mit Intel und nVidia, hab ich für mich da erstmal komplett auf AMD umgestellt. Bin zufrieden P/L top!
Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht.... müssen die Werks-OC Karten die 340W verballern oder kann man die auf 300W bekommen mit minimalen Einbußen, oder vielleicht gar keinen??
Schwer zu sagen, es hieß die Tage, dass die Versorgung mit 5070 noch schlechter sei wie 5080....Werden morgen die ganzen ´´günstigen´´ 5070 bei Alternate die aktuell mit Artikel kann derzeit nicht gekauft werden freigeschaltet als Konkurrenz zur 9070 ?
Ja da hat weder Computerbase noch PCGH getestet.Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht.... müssen die Werks-OC Karten die 340W verballern oder kann man die auf 300W bekommen mit minimalen Einbußen, oder vielleicht gar keinen??
An der Stelle verlasse ich mich auch lieber auf die Community! Da gab's bisher immer nen vernünftigen Informationsaustausch... Dazu fehlt den ganzen Redakteuren, Testern, usw. i.d.R einfach die Zeit...Ja da hat weder Computerbase noch PCGH getestet.
PCGH hat nur UV mit OC zugleich getestet, was in Mehr verbrauch ausging.
Schade dass keine Seite mal nur UV und minimales Underclocking auf zb 2800mhz Boost getestet hat. Oder -10% Powertarget + UV.
Welches Modell würde dich denn reizen wegen dem Kühler.An der Stelle verlasse ich mich auch lieber auf die Community! Da gab's bisher immer nen vernünftigen Informationsaustausch... Dazu fehlt den ganzen Redakteuren, Testern, usw. i.d.R einfach die Zeit...
Ja, die beziehen sich auf glaube Jon Peddie Research...Gute Aussichten für AMD
Könnten 25 bis gar 30% drinnen sein Ende April
![]()
Grafikkarten-Absatz: Nvidia verliert erstmals wieder Anteile an AMD und Intel
Es gibt wieder neue Zahlen zum weltweiten Grafikkarten-Absatz und den jeweiligen Marktanteilen der GPU-Hersteller.www.computerbase.de
Ich würde da zur Red Devil oder zur Nitro tendieren....Welches Modell würde dich denn reizen wegen dem Kühler.
Wenn du dass Geld hast, ganz klar die Red Devil. Schön undervolt und du hast die Perfekte Karte.Ich würde da zur Red Devil oder zur Nitro tendieren....
Nitro OC, da wären wir wieder bei dem 340W BIOS. aber die devil würde mir auch sehr gefallen, da ich ja die 7900xtx liquid devil hier habe.Ja, die beziehen sich auf glaube Jon Peddie Research...
da gibts das Bildchen was ich für interessanter halte:
Anhang anzeigen 1083749
Die Lieferungen von GPUs an den Markt steigen wieder! und zwar kontinuirlich! Das wird dem gescalpe dann früher oder später ein Ende bereiten.
Auf Videocardz gab es ja vor einigen Tagen schon eine Ausssage im Zusammenhang mit den RTX5090, dass die Scalper bald weinen würden....
Wir werden sehen!
Beitrag automatisch zusammengeführt:
Ich würde da zur Red Devil oder zur Nitro tendieren....
Geiler rechner für Star CitizenIn dem Rechner hier hab ich ein B650E Taichi; 2x32GB 6000CL30 (müsste Corsair sein), die XFX MERC 7900XTX und nen 7950X3D
Die Kühler scheinen echt gut zu funktionieren.In dem Rechner hier hab ich ein B650E Taichi; 2x32GB 6000CL30 (müsste Corsair sein), die XFX MERC 7900XTX und nen 7950X3D.... Von der Leistung her wär es eher ein side-grade, aber ich muss auch ab zu mal bissl rum-frickeln, d.h. UV Versuche starten, da war ich mit der XTX deutlich weniger erfolgreich wie mit der 6900XT....
Beitrag automatisch zusammengeführt:
Was ich bei den RDNA4 XT's bisher festgestellt hab, ist dass da niemand knickerig war, was die Kühler angeht, oder?? selbst die Pulse hat nen dickeren Kühler als die 7900XTX Pulse...
sorry, meine 6800xt war weit besser als eine 3080... Eine 3080 kann kein ausschlaggebender Punkt sein in 2025.Schade, die RayTracing Leistung ist je nach Spiel immer noch sehr schwach :/.
Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.
Dort wo die 9070xt wirklich davon zieht brauche ich dafür gar nicht unbedingt mehr Leistung 🤔.
Mal sehen wie sich Verfügbarkeit, Preise und die Treiber bis April/Mai entwickeln...bei ~750-800€ liegt meine Schmerzgrenze und für den Preis würde ich wohl zugreifen. Die Pathtracing Leistung macht auch irgendwie Hoffnung darauf, dass da im Treiber noch einige FPS bei problematischen Spielen schlummern ✊🏼.
Ansonsten gibt es ja auch kaum Alternativen - eine 5070 ti für maximal ~900€ (für 1200€+ völlig daneben) käme vielleicht noch in Betracht, aber bei den ganzen Blackwell Problemen...ich weiß ja nicht.
Naja, guck dir sämtliche UE 5 Spiele in 4k mit RayTracing an!sorry, meine 6800xt war weit besser als eine 3080... Eine 3080 kann kein ausschlaggebender Punkt sein in 2025.
1150 Spielstunden in 2 Jahren, und da sind nichtmal die PTU Server mitgezählt. Zusammen bestimmt 1500 Spielstunden, davon 200h letzte 2 MonateDas Ganze "Spiel" zu nennen ist schon interessant!
Haben wir die selben Tests gesehenSchade, die RayTracing Leistung ist je nach Spiel immer noch sehr schwach :/.
Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.
Bei UE 5 Spielen (die aktuell ja sehr verbreitet sind) sieht das ganz anders aus, zumindest laut den Benches hier.Haben wir die selben Tests gesehen?
Bei UE 5 Spielen (die aktuell ja sehr verbreitet sind) sieht das ganz anders aus, zumindest laut den Benches hier.
also bei einer 3080? sorry aber ich verstehe nicht worauf du hinaus willst.Ich erkenne zwischen Ultra und Hoch oft keinen Unterschied - dafür sinkt der Vram bedarf oft um 30-50%...
Beitrag automatisch zusammengeführt:
Bei UE 5 Spielen (die aktuell ja sehr verbreitet sind) sieht das ganz anders aus, zumindest laut den Benches hier.
Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.
Also die Benches hier im Review vom Luxx zu den RDNA4 Karten?
also bei einer 3080? sorry aber ich verstehe nicht worauf du hinaus willst.
um was geht es denn jetzt genau?
Also ich muss das nun doch mal zitieren....
Spiele setzen also RayTracing voraus? Welche?
3080 10GB kommt in (manchen Szenarien) 4K, max RT keine Mehrleistung der 9070XT erkennt? Oder wie?
Also verstehen kann ich es nicht!
4k max RT dürfte wohl das Terrain einer 4090/5090 sein, oder welche Settings, mal Augenkrebs außen vor, laufen da mit 3080?