Radeon RX 7600 im Test: AMD kann nur über den Preis punkten

Eingespeist hast du nur in deiner Phantasiewelt, wahrscheinlicher ist eher das du in Kombination mim 7950X3D für viel Geld den Stromverbrauchsrekord im Leerlauf aufstellst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für full Hd ist die 7600 nicht schlecht.
Es gibt wichtigeres wie Grafikkarten.

Letzte Nv war die Rtx 3060 Blender bei mir, die wurde Mehr Als Schnell durch die rx 6700 ersetzt.
;)
 
Zuletzt bearbeitet:
149€ Karte für 300€ bravourös.Es hat geklappt.

Schon bemerkt

Amd hat vor dem release den preis der 7600 gesenkt.
nvidia hat den preis der 4060ti nach dem release gesenkt


15F85C61-7FB8-4440-A3C6-3DA48CED70EA.jpeg


Nicht kaufen auch wenn es die Religion gebietet.
 
Du bist eben ein Genießer und erfreust dich auch am Idlestromverbrauch Jenseits von Gut und Böse
Deine Kommunikation fällt dir auf die Füße. Aber anscheinend erfreust du dich an der Selbstgeißelung.
wahrscheinlicher ist eher das du in Kombination mim 7950X3D für viel Geld den Stromverbrauchsrekord im Leerlauf aufstellst.
Wenn im Leerlauf die 7900XTX sich 17W nimmt und dies ein Rekord im Leerlauf ist in einer bestimmten Kombination, welche Rekorde werden dann gebrochen, wenn man im Leerlauf eine RTX 4090 im Rechner hat, die sich 20W nimmt?
Und 8W mehr im Leerlauf für den 7950X3D im Vergleich zum 13900K sind genau das, was du beschreibst.
hat selbst kein technischen Verständnis und sollte eher die Bibel lesen.
Pauschales Hassen sollte doch auch mal bei dir ein Ende finden. Oder willst du nicht mal erwachsen werden?
Und durchschnittlich zieht ein 7950X3D beim Zocken 72/78W und ein 1300K 141/148W
Mit einer RTX4090, die klar ein hartes Brett für AMD ist und unerreichbar scheint, hat man 438W beim Zocken. Das sind dann mit einem 13900K rund 580W
Da ist eine Kombination 7950X3D mit einer 7900XTX 150W genügsamer.

Wenn du den Anspruch hättest, dass man dir ein technisches Verständnis abnimmt, solltest du weniger pauschales Hassegeschwurbel ins Forum tröpfeln.
Man muss differenzieren können. Aber Komplexität ist zu kompliziert für Hassgelaber.

Klar ist aus meiner Sicht, RDNA3 macht keine gute Figur und in bestimmten Lastzuständen kann AMD nur hoffen, dass man diese per Treiber auf ein vernünftiges Niveau einbremsen kann.
Klar ist aber auch aus meiner Sicht, die technisch tollen Karten RTX 4070/Ti und RTX 4060Ti werden durch den Geiz an Speicher zu einer Schäbigkeit. Da erkennt man praktisch den Charakter dieser Firma. Solche Charaktere würde ich immer verurteilen.
 
Laut CB soll die Backplate der 7600er MBA Karte bestimmte 6+2 Pin Strom Stecker einiger Netzeilhersteller blockieren:
 
Eine Lösung für die Stecker
th-1873410356.jpg
 
Zuletzt bearbeitet:
Pauschales Hassen sollte doch auch mal bei dir ein Ende finden. Oder willst du nicht mal erwachsen werden?
Und durchschnittlich zieht ein 7950X3D beim Zocken 72/78W und ein 1300K 141/148W
Mit einer RTX4090, die klar ein hartes Brett für AMD ist und unerreichbar scheint, hat man 438W beim Zocken. Das sind dann mit einem 13900K rund 580W
Da ist eine Kombination 7950X3D mit einer 7900XTX 150W genügsamer.
Pauschaler Fanboism sollte auch mal ein Ende finden. Von Hass oder gar der 4090 war überhaupt gar keine Rede. Wer allerdings immer wieder fälschlicherweise die Effizienz bei AMD ins Feld führt sollte klar sein das der Idleververbrauch der Radeons teils absurd ist, was selbst mich als Käufer ausschließt. Wenn du der Debatte nicht folgen kannst solltest mal aufhören die Leute zu beleidigen und vom erwachsen werden sprechen, wenn dich nicht sowiso schon jeder blockiert hat.
 
Wenn im Leerlauf die 7900XTX sich 17W nimmt und dies ein Rekord im Leerlauf ist in einer bestimmten Kombination, welche Rekorde werden dann gebrochen, wenn man im Leerlauf eine RTX 4090 im Rechner hat, die sich 20W nimmt?
Das Problem sind (mehrere) Monitore mit 100hz+, dann brauchen die AMD-GPUS schnell das doppelte oder dreifache. Mein Recher mit einer 6900XT braucht 60w im Idle mit 2x WQHD@60hz. Läuft einer der beiden Montiore mit 100+hz sind es direkt 100-110w obwohl nichts passiert und die Auslastung der GPU bei 0% liegt. Von dem was man so ließt wurde das bei der 7000er Gen nicht gefixt.

Ebenfalls ziemlich schlecht schneidet die XT & XTX bei Teillast-Szenarien ab. Bspw ein Framelimit bei einem E-sport-Titel mit 144fps. Da dümpeln die meisten highend-Karten irgendwo bei 50% rum. Die 6000er AMD Karten und aktuelle NVs brauchen dann oftmals nur 100-150w. Bei den 7000ern ist die Last ähnlich niedrig aber es werden trotzdem 200+w durch die Steckdose gezerrt. Scheinbar laufen die Chiplets (noch) nicht so stabil wie klassische Dies.
 
...ist, du hast offensichtlich nicht weiter gelesen.
Klar ist aus meiner Sicht, RDNA3 macht keine gute Figur und in bestimmten Lastzuständen kann AMD nur hoffen, dass man diese per Treiber auf ein vernünftiges Niveau einbremsen kann.
Ein weiteres Problem ist, dass du offensichtlich meinen Kommentar nicht verstehen willst, oder kannst.
Und wenn ein @Infi88 von Leerlauf schreibt und auch noch meint, er hätte ein technisches Verständnis, dann habe ich eben klar und deutlich zu erkennen gegeben, dass seine Kommunikation einfach nur Mist ist.
Aber dies willst du nicht verstehen, oder kannst es nicht verstehen. Aber du willst mir erklären, was ich selber schon geschrieben habe.
Was soll ich also nun mit deiner Meinung anfangen?
Und wenn @Infi88 schreibt, eine 7900XTX hätte im Leerlauf eine hohe Leistungsaufnahme, dass ist die einfach gelogen und weitab von jeglichem technischen Verständnis. Und wenn man dazu auch noch von sich in Anspruch nimmt, man hätte ein technisches Verständnis, dann muss man eben klar formulieren, welche klaren Probleme diese RDNA3 Karten haben. Ich würde mir keine RDNA3 Karten kaufen.

Aber auf der Basis von Fakten zu diskutieren ist in dieser unserer Gesellschaft wohl intellektuell zu anspruchsvoll.
Hauptsache @Infi88 kann sein Hassgeschwurbel in Forum tröpfel.

Und im Vergleich zu den RTX 4000 Karten schauen auch die RX 6000 Karten nicht so toll aus bei der Leistungsaufnahme. Das Problem ist nur, die RTX 4070/Ti und RTX 4060 Ti sind einfach nur schäbige Karten durch den Geiz an Speicher.

Wenn du es bis hierhin gelesen hast solltest du erkennen, dass ich eben keine billigen Einzeiler schreibe, sondern ein gasamtes Bild zeichne.
 
Zuletzt bearbeitet:
Die fixen das sowieso nie ganz, genau so wie den youtube verbrauch, denn immer wieder hochtaktenden vram, usw. Warum sollte ich dann den vendor nehmen bei dem die selbsverständlichen sachen nicht funktionieren.

aber auf den vega treiber wartet man ja auch noch, wird schon . 2024 ganz kommt er gaaanz sicher.

@DTX xxx jetzt lass mal den @Infi88 in ruhe.:rolleyes2:
 
Zuletzt bearbeitet:
Ein weiteres Problem ist, dass du offensichtlich meinen Kommentar nicht verstehen willst, oder kannst.
Jesus, chill mal.

Natürlich kann man hoffen, dass AMD die Probleme irgendwann etwas dämpft. Aber A: macht das die Karten jetzt nicht besser, & B: Ist das mit dem explodierenen Verbrauch bei Multimonitor/>60hz-Setups ein uraltes Problem, dass die auch nach Jahren nicht in den Griff bekommen haben. Da ist die Wahrscheinlichkeit, dass sie plötzlich mit einem Fix um die Ecke kommen relativ gering.

Und im Vergleich zu den RTX 4000 Karten schauen auch die RX 6000 Karten nicht so toll aus bei der Leistungsaufnahme.
Würde ich nicht mal sagen. Eine 4070 mit 200w TDP ist ungefähr 10% langsamer als eine 6800XT. Die 10% lassen bei der XT genug Platz um mit UV ebenfalls bei <200W unterwegs zu sein. Und selbst wenn, die 6000er Gen ist 2,5 Jahre alt. Viel schlimmer ist, dass die 7000er Gen in Alltagssituationen erheblich ineffizienter als die RX6000 sind. Besonders im Teillastbereich verbraten die bis zu 50% mehr Strom bei gleichen FPS.

Hab die Quelle nicht parat, aber es gab einen schönen Test mit FPS Cap, da haben sich 3090 & 6900XT ~150w genehmigt, während die XTX bei deutlich über 200W war...

Und wenn @Infi88 schreibt, eine 7900XTX hätte im Leerlauf eine hohe Leistungsaufnahme, dass ist die einfach gelogen und weitab von jeglichem technischen Verständnis.
Wen interessierts, ob eine Karte 17 oder 20W verbraucht. Wenn aus den 17 allerdings plötzlich 60w werden, das ist was anderes...

aber auf den vega treiber wartet man ja auch noch, wird schon . 2024 ganz kommt er gaaanz sicher.
Oder die Ruckelgeschichte bei der 5700XT. Das wurde besser, aber manche konnten es letztendlich nur damit beheben die Karte aus dem System zu schmeißen. 🤷‍♂️
 
Zuletzt bearbeitet:
Könnte man mal die Features und die Qualität des Video-Encodings testen?

Laut AMD soll die RX7xxx-Serie jetzt auch AV1 encodieren. Interessant wäre für mich auch, ob die 7600 auch H.264/265 und AV1 in 10bit codiert (Handbrake), was im Ergebnis meiner Erfahrung nach (Intel Encoder) einen Riesensprung bedeutet, weil durch den größeren Farbraum vor allem sichtbar störende "Treppen" und Schlieren in dunklen Bildbereichen bei Farbverläufen verschwinden
 
Sicher?

PCGH
Raster
+2% RX 6800 XT
Raytracing
+32% RTX 4070

Computerbase
Raster
+1% RX 6800 XT
Raytracing nicht voll/max
+21% RTX 4070

nach den Tests von CB/PCGH ist für mich die RTX 4070 insgesamt die klar schnellere Karte.
So lange du nicht ins Speicher Bottleneck kommst, wie Hardwareunboxed das schon gezeigt hatte.
 
Kommt doch ganz darauf an, welche Spiele da für den Test genutzt werden.

Am besten schaut ,man sich lieber Benchmarks zu den Spielen speziell an, die man hat und entscheidet dann, was besser passt. In die Zukunft kann man halt leider nicht schauen, ob dann die Wahl der GPU für neue Spiele die richtige war.
 
Worauf ich mit meinem Post hinaus wollte... wer langfristig WQHD+ anpeilt sollte mindestens was mit 12 eher 16GB RAM holen. Wer mit hoch Skalierung zufrieden kann sich auch mit niedrigeren Texturen zufrieden geben.
4070TI / 4060TI ist the way to go, alles unter 12 GB würde ich nur noch für FULL HD und weniger komplexen WQHD holen. Es sei denn einem reicht es wenn die Karte in 1-2 Jahren zwar WQHD kann aber nur noch medium/low :unsure:
Ich hätte auch nie erwartet das WQHD mal locker 12 GB brauch.
 
Man kann natürlich die ganzen verkorksten Releases der letzten Zeit feiern....und als Aushängeschild für den massig sinnlosen VRam Verbrauch feiern.
Wie LTT der eh nur bei anderen klaut Schon mit Patch 1.02 hat sich das verbessert.

LTT+.pngTLOU VRam.png

Ein User mit weniger Vram wartet ein paar Patches ab und spielt eben dann.

 
Man kann natürlich die ganzen verkorksten Releases der letzten Zeit feiern....und als Aushängeschild für den massig sinnlosen VRam Verbrauch feiern.
Wie LTT der eh nur bei anderen klaut Schon mit Patch 1.02 hat sich das verbessert.

Anhang anzeigen 892523Anhang anzeigen 892524

Ein User mit weniger Vram wartet ein paar Patches ab und spielt eben dann.

Deckt sich mit meiner Behauptung ab WQHD reicht 8GB nicht mehr, vor allem bei kürzlichen Titeln und zukünftigeren.
 
Wenn er nicht abschreibt, dann würfelt er wohl die Ergebnisse aus...ich wüßte nicht wie man sonst auf so ein Ergebnis kommen kann. Kein Wunder, dass die RX 6800 XT im Schnitt 10% vor einer RTX 4070 bei ihm ist.
Da ist er aber auch ganz alleine damit.

LTT.pngCB.png
 
Wenn er nicht abschreibt,
Er? Das ist ein ganzes Team, dass die Tests durchführt. Für den 40er Launch wurden alle Karten in den Benchmarks mit aktuellen Treibern erneut getestet, würde mich arg wundern wenn andere Outlets ähnlichen Aufwand betreiben (können). Da können dann auch die Differenzen herkommen. Wenn die 6000er Gen über die letzten Monate durch Treiberupdates besser geworden ist, lassen sich die Differenzen recht einfach erklären, wenn bei anderen Tests alte Daten verwendet wurden. Ist bei AMD ja nicht unüblich, dass die Karten mit der Zeit besser werden und das wurde auch im Test erwähnt, dass die 6800XT inzwischen ein ordentliches Stück flotter als bspw. die 3080 ist.

Aber um das Ganze zum Abschluss zu bringen. Selbst wenn die 6800XT nur 2 statt 10% schneller als eine 4070 ist. Die Karte ist mehr als 2! Jahre älter, die 4070 müsste 20-30% schneller als eine 6800XT sein. DLSS3+ & bessere Effizienz für 50€ mehr nach 2+ Jahren ist nichts anderes als ein schlechter Scherz. Aber das spiegelt sich ja auch bei den Verkaufszahlen wieder...
 
F22 1080p cb hat 234fps avg und ltt 183fps ltt

wenn beide den ingame bench genommen haben ist da schon komisch

aber genau deswegen guck ich mir bei release von neuer hardware immer mehr als nur 1-2 tests an. die unterschiede sind nicht nur bei LTT und CB unterschiedlich sondern quasi überall
 
Ich sehe bei F1 2022 dass LTT max details ohne RT getestet hat.
Ich sehe dass die 6800xt bei LTT und CB etwa gleichauf liegt, +-5 FPS bei 250+ geschenkt.
Was auffällt ist, dass die 4070 bei LTT abfällt und bei CB deutlich stärker abschneidet in F1 2022.

Ich sehe bei CB keine Info was genau getestet wird, das macht mich stutzig. Ich hab Zweifel an der Vergleichbarkeit.
Das lässt mich vermuten, dass die getesteten Einstellungen nicht identisch sind und ggf. der VRAM der 4070 ein Thema ist.
Das ist ein Thema, was ich aber grade auch nicht klären kann.
Aber solang solche Unklarheiten vorhanden sind würd ich die Vergleichbarkeit der Ergebnisse anzweifeln.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh