Auch der kleinste überzeugt: Der AMD Ryzen 7 7800X3D im Test

Ich habe Benchmark Tabellen gesehen wo der 5800X3D schlechter als ein 5800X ist. Deshalb wurde auch der 5800X schon verkauft. Rest wird hoffentlich bis Herbst den Besitzer wechseln. Der 5800X oder 5800X3D sind für mich fürs Gaming und für die Gnu Gentoo Linux Toolchain hoffnungslos veraltet. Der 3D Prozessor ist oft schon eine Krücke. Ein Allrounder ist der 3D Prozessor für mich nicht, ein 5800X3D ist ein downgrade sehr oft wenn man schon einen 5800X hatte. Persönlich derzeit, tendiere ich zu einem 7600X - der etwa gleichauf liegt wie der 5800X.
Ich mache mir die Welt, wie sie mir gefällt. 😂
Beitrag automatisch zusammengeführt:

Ja aber was für Intel spricht ist der bessere idle Verbrauch:)
2023 wird das Jahr des idle Verbrauchs. Millionen von Intelianern kaufen sich die neueste CPU um sie nicht zu nutzen. Die laufen den ganzen Tag, aber werden nicht genutzt. Stattdessen sitzt man davor und freut sich darüber, dass man umso mehr spart, je länger das Teil läuft und nichts tut. 😂
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die laufen den ganzen Tag, aber werden nicht genutzt. Stattdessen sitzt man davor und freut sich darüber, dass man umso mehr spart, je länger das Teil läuft und nichts tut. 😂
Nur wer kauft, kann auch sparen 🙏😂
Wer billig kauft, kauft doppelt, aber spart 2 mal😁
 
2023 wird das Jahr des idle Verbrauchs. Millionen von Intelianern kaufen sich die neueste CPU um sie nicht zu nutzen. Die laufen den ganzen Tag, aber werden nicht genutzt. Stattdessen sitzt man davor und freut sich darüber, dass man umso mehr spart, je länger das Teil läuft und nichts tut. 😂
Naja, sind wir ehrlich. Die meisten schalten den PC nicht nur ein um zu zocken und machen ihn dann gleich wieder aus sondern nutzen den auch um in Foren zu lesen, YT/Twitch etc zu gucken uvm.

Ja, die Ryzen sind im Lastbereich effizienter, keine Frage aber dafür leider auch wesentlich weniger effizient wenn es um die reguläre Nutzung geht.
 
Das ist kein idle mehr. 😉
 
Naja, bei meinem 13900K machts aufm Desktop vom Verbrauch keinen Unterschied ob der "nix" tut oder ob ich YT gucke und nebenbei surfe. (~3W differenz). :d
 
Ja, die Ryzen sind im Lastbereich effizienter, keine Frage aber dafür leider auch wesentlich weniger effizient wenn es um die reguläre Nutzung geht.
Wie gut dass ich fürs stupide Surfen und Forenlesen gerne nen Tablet hernehme. Diese seltenen und mega teuren Teile sind für mich zum Glück verfügbar. Nicht auszumalen, dass man am Gaming PC sitzt und die ganze Zeit mit 10W mehr idle Verbrauch surfen muss.

PS: reguläre Nutzung? Wer sich nen X3D kauf, macht das sicherlich bewußt fürs Gaming und nicht, weil er den PC 5h am Stück zum Surfen hernimmt.
Dann würde man fürs gleiche Geld sicherlich andere Hardware und hoch effiziente NTs kaufen und ggf fällt ja noch ein 80€ Tablet bei ab - zum Couch-Surfen versteht sich.

Für Hardware mit 24/7 kann ich ja solche Argumente verstehen, aber nicht für Gaming Hardware! Dafür sind die 3D cache CPUs geschaffen worden, da spielen sie ihre Effizeinz aus und da nutzen sie am meisten.
Dass man bei Anwendungen und Videoschnitt mit mehr und schnelleren Kernen ggf fürs gleiche Geld als non X3D besser bedient ist, ist auch kein Geheimnis.
 
PS: reguläre Nutzung? Wer sich nen X3D kauf, macht das sicherlich bewußt fürs Gaming und nicht, weil er den PC 5h am Stück zum Surfen hernimmt.
Dann würde man fürs gleiche Geld sicherlich andere Hardware und hoch effiziente NTs kaufen und ggf fällt ja noch ein 80€ Tablet bei ab - zum Couch-Surfen versteht sich.
Wie gut das jeder einen anderen Nutzen hat und du für quasi "alle" bestimmst...

Also bei mir läuft der PC quasi die ganze Zeit wo ich Zuhause bin, dafür läuft mein TV quasi nie (glaub in den letzten 2 Jahren nicht einmal an gehabt). Wenn ich in Foren lese chille ich am PC und guck dabei YT/Twitch/Netflix etc und zwischendurch schmeiss ich nen Game an und zocke ne Runde. Dafür wie gesagt nie den TV an. Klar, ist definitiv nicht jeder so und behaupte ich auch nicht wie du es behauptest das jeder der sich nen X3D kauft diesen NUR zum zocken hat.
 
Wie gut das jeder einen anderen Nutzen hat und du für quasi "alle" bestimmst...

Also bei mir läuft der PC quasi die ganze Zeit wo ich Zuhause bin, dafür läuft mein TV quasi nie (glaub in den letzten 2 Jahren nicht einmal an gehabt). Wenn ich in Foren lese chille ich am PC und guck dabei YT/Twitch/Netflix etc und zwischendurch schmeiss ich nen Game an und zocke ne Runde. Dafür wie gesagt nie den TV an. Klar, ist definitiv nicht jeder so und behaupte ich auch nicht wie du es behauptest das jeder der sich nen X3D kauft diesen NUR zum zocken hat.
Nochmal zum Thema Verbrauch on stock eine interessante Grafik im gaming ohne die Leistung auf irgendeine Art zu beschränken
 

Anhänge

  • Screenshot_20230405_210458_Firefox.jpg
    Screenshot_20230405_210458_Firefox.jpg
    44,5 KB · Aufrufe: 132
"Chip Power only" <- vollkommen uninteressant weil der Grundverbrauch schon wesentlich höher ist.
 
Klar, ist definitiv nicht jeder so und behaupte ich auch nicht wie du es behauptest das jeder der sich nen X3D kauft diesen NUR zum zocken hat.
das wäre aber dann definitiv die falsche CPU!
Wenn die eigene Nutzung nicht wenigstens 50% Gaming beinhaltet, dann müssten schon sehr viele andere sachlich gute Gründe vorhanden sein, warum man sich explizit für eine X3D CPU wesentlich mehr Geld kauft und einbaut.
Weil man eben sonst gar keine wirklich vielen Vorteile aus einer solchen CPU ziehen kann und dann die 250€ Aufpreis doch besser in die GPU oder schnelleren RAM hätte stecken können.
Bei aller Begeisterung für den 3D Cache, und darum geht es ja auch hier in diesem Artikel. Es macht keinen sinn sich eine solche CPU mit dem ordentlichen Aufpreis zu holen, wenn man deren Vorteile nicht nutzt.
Ein X3D bietet nicht wirklich große Vorteile in Anwendungen und beim Surfen und so. Gaming ist das ganz große Argument.
Also lass doch einfach das Argument Idle Stromverbrauch mal außen vor. Das interessiert keinen X3D User, sonst hätte er sicherlich nicht zum X3D gegriffen.
 
Ja du suchst dir immer nur die Perlen raus, das wissen wir ja schon alle :)

Kann auch nen Balken erstellen wo der X3D den wesentlich kürzeren zieht (siehe normale Desktop Nutzung). Wenn ich da nur die "Chip Power" nehme liegt es bei ~4W vs ~30W (beide Systeme mit Speicher OC)
Das interessiert keinen X3D User, sonst hätte er sicherlich nicht zum X3D gegriffen.
Und wieder sprichst du für alle (y)

Diskussion beendet, lohnt sich nicht.
 
ie gut das jeder einen anderen Nutzen hat und du für quasi "alle" bestimmst...
ich bestimme nicht, ich zerpflücke nur sachlich dein Argument, warum ein Sportwagen im Stand so viel Sprit verbraucht. Das Argument kannst Du gerne auf einem Maserati Treffen ausdiskutieren.
Du hast ja Recht: so ein V12 frisst im Leerlauf mehr, aber es ist uninteressant und irrelevant für die Nutzer und Inhaber. Die haben sicher ihre Gründe, warum sie sich so etwas gekauft haben.
Beitrag automatisch zusammengeführt:

Diskussion beendet, lohnt sich nicht.
stimmt, der Meinungsaustausch klappt irgendwie nicht. Du behälst deine wieder besseren Wissens ;)
 
ich bestimme nicht, ich zerpflücke nur sachlich dein Argument, warum ein Sportwagen im Stand so viel Sprit verbraucht.
Ah ok, also jeder der einen Sportwagen fährt hält sich automatisch NIE an die STVO weil man MUSS damit immer schnell fahren. Oder NUR Rennstrecke, das wäre ja quasi deine Interpretation, weil Sportwagen ist für Rennstrecke geschaffen und nichts anderes, wofür sonst 400+ PS?

Naja, es ist mit den hardcore AMD lovern halt immer das selbe, negativ Punkte werden kleingeredet weil KEINER davon betroffen ist (wie die abrauchenden CPUs und so, ist ja Randgruppe) :wink:
 
Bereinigt man die Grafik um die Spiele, die sowieso mit jeder halbwegs aktuellen CPU mit 250fps oder mehr laufen, kommts am Ende auf so ziemlich auf dieselbe Leistung raus - bei natürlich deutlich besserer Energieeffizienz beim AMD.

Mich persönlich triggert die CPU allerdings nicht wirklich. Für reine 1080p Gamer natürlich ein Träumchen, aber für Mixed Usage einfach zu wenig MC-Power bzw. einfach noch viel zu teuer aktuell. Vom 1080p Gaming habe ich mich und auch mein direktes Umfeld allerdings schon 2016 verabschiedet. Wirklich empfehlen würde ich das Ding erst bei einem deutlichen Preis-Drop. Ansonsten aber sehr schöne CPU.
weis ja nicht in welchem universum du lebst aber die cpu hat immer noch nix mit der auflösung am hut ;)

wenn mir 116 und und 138fps nicht reichen, dann reichen sie nicht. Und genau darum geht es. Und meine graka kann das denn ich hab meine regler im griff ;)

Cemu_2023_04_28_19_28_36_625.jpg tlou-i_2023_04_28_19_03_02_157.jpg Elden RIng.jpg
 
Zuletzt bearbeitet:
Ah ok, also jeder der einen Sportwagen fährt hält sich automatisch NIE an die STVO weil man MUSS damit immer schnell fahren. Oder NUR Rennstrecke, das wäre ja quasi deine Interpretation.
nein ?
Es ging um Idle Verbrauch! Also Leerlauf, nicht die STVO, keine Verkehrsverstöße etc.

Wer sich nen Porsche GT3 RS kauft, der kauft den sicherlich nicht für die Strasse, der kauft den um damit auf ner Rennstrecke zu fahren, weil das Teil ordentlich Mehrkosten gegenüber einem normalen GT3 hat. Das macht man nur, wenn man das auch nutzen will. Aber ob der GT3 RS im Strassenverkehr/Alltag besser zuhandhaben ist oder wesentlich weniger Verbraucht als ein RS ist dem Besitzer sicherlich Schnuppe.
 
das wäre aber dann definitiv die falsche CPU!
Wenn die eigene Nutzung nicht wenigstens 50% Gaming beinhaltet, dann müssten schon sehr viele andere sachlich gute Gründe vorhanden sein, warum man sich explizit für eine X3D CPU wesentlich mehr Geld kauft und einbaut.
Weil man eben sonst gar keine wirklich vielen Vorteile aus einer solchen CPU ziehen kann und dann die 250€ Aufpreis doch besser in die GPU oder schnelleren RAM hätte stecken können.
Bei aller Begeisterung für den 3D Cache, und darum geht es ja auch hier in diesem Artikel. Es macht keinen sinn sich eine solche CPU mit dem ordentlichen Aufpreis zu holen, wenn man deren Vorteile nicht nutzt.
Ein X3D bietet nicht wirklich große Vorteile in Anwendungen und beim Surfen und so. Gaming ist das ganz große Argument.
Also lass doch einfach das Argument Idle Stromverbrauch mal außen vor. Das interessiert keinen X3D User, sonst hätte er sicherlich nicht zum X3D gegriffen.

Naja, die Leute, die hier im Forum abhängen mit einem X3D und seitenlang hier schreiben, die machen ja auch noch mehr als zocken. :)

Und warum soll man das Argument mit dem höheren Idle Stromverbrauch einfach weglassen? Es ist nunmal ein Kritikpunkt an der AM5 Plattform samt den X3D CPUs.
Beim Intel lässt man den höheren Verbrauch unter Last ja auch nicht einfach weg, weil er einen nicht in den Kram passt.

Und zum typischen Nutzer bestimmter Hardware - denke sowas gibt es einfach nicht, denn jeder nutzt seinen PC individuell.
Ich habe einen 13900K und eine 4090 und zocke nur ab und an mal ein bisschen CoD und Brotato, sonst hauptsächlich Surfen und so. Ist nun auch nicht das typische Anwendungsgebiet der vorhandenen Hardware.

Und nein, ich bin kein Intel Liebhaber - mir ist es völlig egal, was ich im System habe. Zum Kaufzeitpunkt war das meine erste Wahl. Nun wäre es wohl auch ein X3D.
 
Ja du suchst dir immer nur die Perlen raus, das wissen wir ja schon alle :)

Kann auch nen Balken erstellen wo der X3D den wesentlich kürzeren zieht (siehe normale Desktop Nutzung). Wenn ich da nur die "Chip Power" nehme liegt es bei ~4W vs ~30W (beide Systeme mit Speicher OC)
14 games sind keine Perlen / aber im idle ist Intel ja vorne :)
 
er pumpt wie ein weltmeister

RDR2_2023_04_28_20_04_46_894.jpgHorizonZeroDawn_2023_04_28_19_33_20_531.jpg
 
Welches Programm loggt da die Auslastung?
 
Zuletzt bearbeitet:
wenn man nur spielt, sicher die beste CPU, wenn aber auch noch andere Sachen macht, ist ein 7950x3d klar vor zu ziehen.
Aber das ist ja auch das Gute, dass AMD für beide Gruppen eine CPU mit extra Cache an bieten.
 

Anhänge

  • Kevin.ovl.txt
    14,6 KB · Aufrufe: 83
mmh, schnellerer RAM bringt irgendwie nichts. Also noch weniger, als ich erwartet hatte 😄
 
laut luxx test bringt er was. aber ohne subtiming optimierung hält sich das natürlich in grenzen
 
Was mich im Test auch wundert ist das der 13900k Kühler sein soll wie der 13900ks. Das der 7800X3D 10-20grad Kühler sein soll ist cool
 

Anhänge

  • Screenshot_20230428_203615_Firefox.jpg
    Screenshot_20230428_203615_Firefox.jpg
    206,6 KB · Aufrufe: 62
  • Screenshot_20230428_204026_Firefox.jpg
    Screenshot_20230428_204026_Firefox.jpg
    216,2 KB · Aufrufe: 64
Zuletzt bearbeitet:
Ich habe einen 13900K und eine 4090 und zocke nur ab und an mal ein bisschen CoD und Brotato, sonst hauptsächlich Surfen und so. Ist nun auch nicht das typische Anwendungsgebiet der vorhandenen Hardware.
psssst... du hast keinen GT3 RS :LOL:
 
weis ja nicht in welchem universum du lebst aber die cpu hat immer noch nix mit der auflösung am hut ;)

wenn mir 116 und und 138fps nicht reichen, dann reichen sie nicht. Und genau darum geht es. Und meine graka kann das denn ich hab meine regler im griff ;)

Anhang anzeigen 881706 Anhang anzeigen 881707
Der Vorsprung aus 1080p schrumpft bspw. in 2k/4k jeweils merklich. Nennt sich GPU-Limit und ist nicht nur in meinem Universum so ;) Wer viel zockt, immer max. FPS haben will und nicht auf jeden Euro achten muss kauft sich diese CPU, keine Frage. Da ist für die nächsten Jahre genug Power vorhanden. Hier bekommt man die beste Gaming-CPU, allerdings halt auch nur für einen saftigen Preis. Und andere CPUs performen ja nicht plötzlich so unfassbar viel schlechter als das Sie, gerade in Hinblick auf P/L oder Einsatzzweck, keine Empfehlung mehr wert wären.

Die Tatsache, dass Du einen 7800X3D mit einer 4090 verbaut hast und mir zwei tolle Screenshots zeigst, suggeriert mir übrigens nicht unbedingt, dass Du deine Regler besser im Griff hast als ich, sondern eher, dass hier Bedarf an irgendeiner Form von Bestätigung besteht.
 
Der Vorsprung aus 1080p schrumpft bspw. in 2k/4k jeweils merklich. Nennt sich GPU-Limit
nein tut er nicht denn meine graka ist IMMER schneller solange ich nicht über meinen wunsch fps bin

das cpu limit verschiebt sich nicht wenn man die auflösung erhöht.

The Last of Us.jpgtlou-i_2023_04_28_19_03_44_269.jpg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh