Sapphire Pure Radeon RX 7900 GRE Gaming OC im Test: Der fast lautlose goldene Hase

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
Der offizielle Verkaufsstart der Radeon RX 7900 GRE soll AMD im Preisbereich von 600 Euro für neuen Schwung verhelfen. In Form eines Modells von Gigabyte haben wir uns die Grafikkarte initial angeschaut, heute werfen wir einen Blick auf die Sapphire Pure Radeon RX 7900 GRE Gaming OC. Wir versprechen uns von dieser Karte eine bessere Kühlung, denn aus der Vergangenheit wissen wir, dass Sapphire darauf einen großen Wert legt. Die Ergebnisse des Tests gibt es in diesem Artikel.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist nicht wirklich relevant, da man sie vermutlich in den allermeisten Fällen nicht sieht (wenn horizontal eingebaut), aber die Lüfter finde ich extrem "komisch" und unschön. ;\
 
AMD's problem ist halt, das sie mit Raytracing kein land gegen die RTX 4000 sehen und wenn ein Spiel es anbietet, möchte man es halt auch nutzen.
 
Der Lacher des Tages, 20 Watt im Leerlauf :lol:.
 
Der Lacher des Tages, 20 Watt im Leerlauf :lol:.
Warum interessiert das einen Troll wie dich, der sowieso nie vorhatte eine Radeon Karte zu kaufen. Wenn 88 dein Geburtsjahr ist, Mensch wäre das Traurig.

Wie ist es mit der 2070 so?
Beitrag automatisch zusammengeführt:

Ohne anständiges Raytracing rausgeworfenes Geld
Absolut!
Beitrag automatisch zusammengeführt:

AMD's problem ist halt, das sie mit Raytracing kein land gegen die RTX 4000 sehen und wenn ein Spiel es anbietet, möchte man es halt auch nutzen.
Welches Spiel mir RT geht auf eine rAMd Karte nicht ? Ausser den Nvidia Sponsored ones? Sag es mir bitte. Nur noch hirngeschädigte trolle in foren die von nichts ne ahnung haben. unglaublich.
 
Der Lacher des Tages, 20 Watt im Leerlauf :lol:.
Schaltest du deinen Rechner nicht aus, wenn du nicht daran arbeitest/zockst?
OK, sagen wir mal das Ding läuft 20h am Tag im Leerlauf, 365 Tage im Jahr.
Das macht dann 20W*20h*365 =146.000Wh = 146kWh.
Bei ~30Cent pro kWh bist du bei 43,80€ pro Jahr.
Kann man sich jetzt überlegen, ob das viel ist.
Zockst du 3h am Tag, ist dies schon 3 mal so viel wie der Leerlaufverbrauch aus 20h.
Wer den PC so lange laufen lässt, ohne ihn zu nutzen, dem ist auch nicht mehr zu helfen.
 
... und wenn ein Spiel es anbietet, möchte man es halt auch nutzen.
Das mag vielleicht auf DICH zutreffen, ist aber nicht allgemeingültig. Ich für meinen Teil brauche Raytracing in Spielen nicht zwingend. In den meisten Fällen wird es bisher eh nur so minimalistisch eingesetzt, dass sich die optischen Verbesserungen in argen grenzen halten.
Auch kommt es immer auf das jeweilige Spiel an, ob eine AMD Karte da deutlich schlechter abschneidet oder nicht.
Der Test zur RX 7800 XT bspw. hat gezeigt, dass die NVidia Konkurrenz in Form der RTX 4070 mit aktiviertem Raytracing mal satte 30% vorn liegen kann, mal aber auch weniger als 10%. Ist also nicht so, dass NVidia Karten bei RT Nutzung grundsätzlich den AMD Karten himmelweit überlegen wären.
Und wenn wir mal ganz ehrlich sind, dann braucht es für eine ausgiebige Nutzung von Raytracing Effekten (wie bspw. in Cyberpunk 2077) sowieso grundsätzlich sehr viel GPU Leistung. Also selbst bei NVidia muss man da zu den teuren Modellen ab RTX 4070Ti greifen. Darunter ist RT Nutzung auch bei NVidia eher so "na ja".

Die große Masse kauft aber eben nicht im Preisbereich von 800€ aufwärts, sondern deutlich darunter. Insofern kann deine Aussage, dass der Spieler die Raytracing Effekte in Spielen, welche diese anbieten auch nutzen möchte, gar nicht zutreffen. Ganz im Gegenteil. Die Masse der Spieler scheisst auf diese zusätzlichen grafischen Spielereien und ist viel mehr an einem flüssigen Spielerlebnis interessiert.
Ich kenne nicht wenige Leute, die keine besonders starken Rechner ihr Eigen nennen. Einfach, weil sie nicht bereit sind, Unsummen in die entsprechende Hardware zu investieren. Die stellen die Grafikdetails hier und da durchaus auch mal auf "niedrig", wenn dadurch ein Spiel erst flüssig läuft.
Und die Millionen von Konsolen Käufern sind ganz offensichtlich auch nicht besonders scharf auf irgendwelche überbordenden Raytracing Effekte, die ihre Konsolen gar nicht packen würden.
 
Die GRE und die Preisgestaltung sieht eher danach aus, als wolle man noch etwas Marge mitnehmen, da man die 7800 XT teilweise unter 500€ gedrückt hat.
 
Die 7900 GRE ist halt sehr beschnitten. Die ist + - 0 gleich schnell wie die RX 7800XT. Daher die Frage, braucht es die Karte überhaupt ?
Sonst, selber habe ich mir jetzt auch erst wieder ein Build mit einer RX Karte gebaut. Mir ist Raytracing scheißegal, hatte es mit der 3090 und hat mir keinen wirklichen Mehrwert gebracht, man musste auch bei den meisten Games DLSS nutzen. Also ich würde damit nicht sagen, das Raytracing das Killer Feature ist.
 
Öhm, die 7800XT ist schon langsamer als die GRE.
 
Ja je nach Game: Hatte mir nur mal das Video vor einiger Zeit von KreativEcke zu der GRE angeschaut: Ab 5:25 der Vergleich zur 7800XT und RTX 4070.

 
Das mag vielleicht auf DICH zutreffen, ist aber nicht allgemeingültig. Ich für meinen Teil brauche Raytracing
das ist nur nvidia marketing brainwash at work. wie viel spiele gibt es die durch rt wirklich aufgewertet werden? ich kenne nur 2. das nach fast 6 jahren. aber nvidias marketing war schon immer beeindruckend oder die leute werden immer dümmer.
 
Die 7800XT ist für mich geschätzt 5% langsamer als die 7900 GRE. Mathematisch richtig. In der Praxis soll es bitte jeder selbst entscheiden. Es ist ziemlich ähnlich. Für mich in der Praxis ist es deshalb gleich. Dann müsste man es auf das jeweilige Spiel runterbrechen und die jeweilige Auflösung und die jeweiligen Einstellungen. Hinzu kommt die Schwankungsbreite von diversen Testseiten.
 
@Ceiber3 ich bezog mich auf die Tests hier, die haben für mich mehr Gewicht.
 
Unabhängig davon, ob man seinen Rechner unnötig laufen lässt oder nicht, idle 20W sind nicht zeitgemäß, so einen faux pas sollte man sich nicht leisten, das haben AMD bzw. die Boardpartner schon besser hinbekommen. Könnte ja auch sein, dass man täglich mehrere Stunden Tabellenkalkulation betreibt, da schlagen die 20W auch zu Buche.

.... und ja, ich bin AMD Fan.
 
Dem troll auhc noch beachtung schenken warum braucht eine 7900xt schwere custom 13 watt bei mir?

Die ada karten haben alle mehr gebraucht paar watt also komplett egal. aber wie lächerlich ist diese Argumentation. ^^ wenn juckt der scheiß.
 
Naja, es geht imo schon auch im den technischen Fortschritt. Von daher nicht unrelevant. Klar, einem Hardcoregamer, welcher mit der Kiste nur grafisch aufwändige Gemes zockt, dem ist es egal. Da fließt das Geld von der Anschaffung bis zum Betrieb eben in das Hobby.
 
Das kann die 3060Ti im PC vom Sohnemann bei zwei angeschlossenen Monitoren mit 34 Watt locker toppen...
Schlechter Versuch, ne XTX hatte bei meinem 240Hz Odysee 80 Watt im Leerlauf :haha: . Der Nachtest zur Verschlimmbesserung dieses Problems treibt mir immer ein schmunzeln ins Gesicht, https://www.pcgameshardware.de/Rade...tware-Adrenalin-2371-Idle-Power-Test-1424012/.

das ist nur nvidia marketing brainwash at work. wie viel spiele gibt es die durch rt wirklich aufgewertet werden? ich kenne nur 2. das nach fast 6 jahren. aber nvidias marketing war schon immer beeindruckend oder die leute werden immer dümmer.
Du kennst RT, DLSS, Reflex, CUDA etc.pp doch gar nicht, davon träumt jeder Gam0r. Das Marketing solltest du Jensen überlassen. Wobei man sagen muss du bist auch eine fanszinierende Persönlichkeit, ich hab noch keinen ComputerBase Rager gesehen der die Hälfte der Beiträge teils in extremer Form beleidigt hat und tatsächlich noch nicht gebannt wurde.

Naja, es geht imo schon auch im den technischen Fortschritt. Von daher nicht unrelevant. Klar, einem Hardcoregamer, welcher mit der Kiste nur grafisch aufwändige Gemes zockt, dem ist es egal. Da fließt das Geld von der Anschaffung bis zum Betrieb eben in das Hobby.
In der Tat Werte aus der Steinzeit, wirft auch die ARC meiner Meinung nach noch stark zurück, im Gegensatz zu dir sind aber viele Radeon Nutzer sehr ignorant und reden sich die Sache auf groteskeweise schön. Gott segne dich.
 
Unabhängig davon, ob man seinen Rechner unnötig laufen lässt oder nicht, idle 20W sind nicht zeitgemäß, so einen faux pas sollte man sich nicht leisten, das haben AMD bzw. die Boardpartner schon besser hinbekommen. Könnte ja auch sein, dass man täglich mehrere Stunden Tabellenkalkulation betreibt, da schlagen die 20W auch zu Buche.

.... und ja, ich bin AMD Fan.

Ach Gottchen... Sich über den Idle Verbrauch einer Grafikkarte aufzuregen ist nicht mehr zeitgemäß. Jeder der sich auch nur ein wenig damit beschäftigt hat weiß das es so oft vom Monitor abhängt, wieviel Hz? Welche Auflösung? Dual Monitor? Dual Monitor aber zweiter Monitor nicht an? .. Andere Tests zeigen eine ganz andere Sprache, da benötigt das selbe Partnermodell auf einmal nur 10 Watt. Bei einem anderen Test zieht die Karte im Idle auf einmal weniger als eine RTX4070.. Wie gesagt - Monitor abhängig und mit ein paar Einstellungen kann man dafür sorgen das man deutlich unter den hier genannten 20 Watt landet.. Wenn es einem denn wichtig ist.
 
Die 7900 GRE ist halt sehr beschnitten. Die ist + - 0 gleich schnell wie die RX 7800XT. Daher die Frage, braucht es die Karte überhaupt ?
Sonst, selber habe ich mir jetzt auch erst wieder ein Build mit einer RX Karte gebaut. Mir ist Raytracing scheißegal, hatte es mit der 3090 und hat mir keinen wirklichen Mehrwert gebracht, man musste auch bei den meisten Games DLSS nutzen. Also ich würde damit nicht sagen, das Raytracing das Killer Feature ist.
Kann ich alles 100% unterstreichen und die Raytracing Vorteile Nvidias gegenüber AMD sind auch nicht so gravierend, wie durchgehend behauptet wird. Die 7800XT braucht auch kein Mensch, wenn man sieht, dass die 6800XT größtenteils besser ist (Nexus) und für nur 400€, der Burner für preisbewusste Gamer.

Ich sehe es so, entweder du haust richtig auf die Kacke und holst dir die 4090 oder du bist vernünftig und eine 6800XT reicht dir aus, um vernünftig zu Zocken. Alles dazwischen ist reine Ansichtssache.
 
Zuletzt bearbeitet:
Die 7800XT ist für mich geschätzt 5% langsamer als die 7900 GRE. Mathematisch richtig. In der Praxis soll es bitte jeder selbst entscheiden. Es ist ziemlich ähnlich. Für mich in der Praxis ist es deshalb gleich. Dann müsste man es auf das jeweilige Spiel runterbrechen und die jeweilige Auflösung und die jeweiligen Einstellungen. Hinzu kommt die Schwankungsbreite von diversen Testseiten.
Die 7800XT ist um derzeitig ~510€ eine sehr gute Option.
 

Anhänge

  • 3D-TSE.png
    3D-TSE.png
    198,8 KB · Aufrufe: 94
  • 3D-TS.png
    3D-TS.png
    197,6 KB · Aufrufe: 96
  • 3D-FS.png
    3D-FS.png
    199,5 KB · Aufrufe: 92
Hier mal ein Bild aus einem anderen Forum. Spiele die Auf RDNA3 optimiert sind. Soviel zu, die GRE ist +-0 die 7800XT.


GRE-minFps.JPG



Und zum Thema RT: Spiele die dieses Jahr durch die Decke gehen. : BG3, Palworld, Enshrouded, Helldivers 2. Wo ist denn da RT?
 
wenn das bandbreitenlimit einschlägt ist sie genauso schnell wie die 7800. sowas sollte4 nie passieren wenn das PRodukt teurer ist deswegen denke ich locker amd die zügel ein bisschen.

weil eine 7800 bekomme ich für 498€ mit aktion sogar 479€, gre 579€. die 80 flocken sind es nicht wert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh