DDR5: Mangelnde Nachfrage bremst Marktdurchdringung aus

Daran ist intel schuld...
Wie viele noobs sich wohl ne high end intel CPU (k) geholt haben... Die aber mit ddr4 betreiben und DANN trotzdem behaupten amd wird in Grund und Boden gebencht. 🤣😂
Dafür verbrauchen Intel Systeme 70%-90% weniger im Idle. Nicht jeder von uns ist ein Zocker..
Mehr als genug Leistung hat es ja auch noch bei Wunsch..auch mit DDR4
Intel 1
AMD 0
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Daran ist intel schuld...
Wie viele noobs sich wohl ne high end intel CPU (k) geholt haben... Die aber mit ddr4 betreiben und DANN trotzdem behaupten amd wird in Grund und Boden gebencht. 🤣😂

Diese Fanboys versuchen ihr sinnfreies Geblabbel aber auch in jeden Thread abzuseiern. Schlimm sowas.
Naja, solange das auch nur höchst einseitig von diesen einen, allseits bekannten Schiri Gelb/Rot Mod unterbunden wird wunderts mich auch eher weniger -> Narrenfreiheit im HWLuxx! :bigok:

ps: ..wird ja eh nicht mehr lange dauern, dann wird die "Red Front" wieder vom "blauen Eisgletscher" in die Winterschlaf Schockstarre geschickt. Dann legt sich das alles wieder. (y)
 
Zuletzt bearbeitet:
Dafür verbrauchen Intel Systeme 70%-90% weniger im Idle. Nicht jeder von uns ist ein Zocker..
Link?

Ich seh da kein Problem.
Wenn ich mir ne Workstation einrichte, ist der idle Verbrauch irrelevant.
Wenn es ein spiele Rechner betreibe. Dann läuft der wenn ich spiele!
mein kleiner internet, Office PC hat keine große dicke CPU. Da gibt's keine 70-90% unterschied im idle Verbrauch. Ist also totaler Quatsch.
 
Ist also totaler Quatsch.
es hat nicht jeder 2-3 Rechner mit unterschiedlichen Anfoderungen zuhause. Quatsch ist also das was du hier tust.

Und mein Gaming Rechner ist auch an wenn ich nix mache oder nur Streams mir reinziehe.
 

Ooof, dafür müsstest du schon länger suchen, am Thema interessiert sein und so... es ist ein Erfahrungswert ausgehend Werte der Leute die Idle händisch nach unten zu drücken versuchen. In diesem Forum zb..
i.png
 
@matthias80 Du musst ja keine dicke CPU einstecken. Schon der 7600x siehe mein system braucht idle 15W im supersparmodus. Mit ram oc und co bin ich bei 21W. Das ist jetzt für mich nicht so das Problem, weil der halt auch wenig bis garnicht idlet, aber schon auch ne große Baustelle bei amd über die man diskutieren dürfen sollte. Im teillast lastbereich und da auch mit tweaks wie offset und co ist das alles super auch ohne großen Leistungsverlust eher sogar im Gegenteilbei nunmehr 5,5Ghz und tjmax 80° , aber das geht bei Intel auch gut. Natürlich verbrauchen die Intel in den Standard mobo Einstellungen ordentlich, aber die kann man wunderbar auch viel sparsamer betreiben und das auch ohne (viel) Leistung zu verlieren.

Bei amd fehlt, da es keinen ddr4 Support mehr gibt, mit der neuen Plattform noch der günstige Einstieg, der ja noch kommt. Aber auch der 5800x3d für 300€ knappert halt ordentlich am neuen Portfolio. Der Markt wird damit ja quasi gerade geflutet...und das auch zurecht...tolle cpu.
 
Die Rechnung kann man doch ganz einfach aufmachen, wenn man das Thema mal differenzierter, als durch irgend eine Fanboy Brille, betrachtet:

- wie lange idle't ein Rechner wenn man den betreibt
- wieviel Zeit verbringt man durchschnittlich mit daddeln
- wird ingame überhaupt seitens der CPU Maximalauslastung der CPU über alle Kerne generiert
- nimmt nicht, gerade wenn man über FHD daddelt, die Pixelschleuder einen höheren stellenwert ein als die CPU

Soweit mir das bekannt ist bekommt man eine CPU nur in diversen Benchmarks an ihre Grenzen wo auch Maximallast generiert wird, nicht aber ingame. Korrigiert mich wenn ich da falsch liege.


Natürlich verbrauchen die Intel in den Standard mobo Einstellungen ordentlich, aber die kann man wunderbar auch viel sparsamer betreiben und das auch ohne (viel) Leistung zu verlieren.
Die Standard PL im UEFI sind Schall & Rauch.
Auf meinen Z690 hatte ich eine 13600k, jetzt wieder die 12400. Bei beiden stehen die Limits auf Unlimited bzw. 288W. Und?
Beide CPUs liefen/laufen im idle dennoch mit Energieplan "Ausbalanciert" mit ca. 400 bis 800MHz im untersten einstelligen Package/Core W.-Verbrauch.
Selbst wenn ich jetzt eine 13900KS hätte würde ich die Pl auf Unlimited belassen und die nicht künstlich in der Leistung kastrieren. Warum auch?
Idle wird die auch im unteren einstelligen Bereich herum dümpeln, ingame wird der Verbrauch auch alles andere als exorbitant hoch sein nur beim Benchen halt, da säuft die dann - und?
Benche ich den ganzen Tag? :unsure:
 
Zuletzt bearbeitet:
Ooof, dafür müsstest du schon länger suchen, am Thema interessiert sein und so...
Nicht wirklich. War ne fangfrage...
da seh ich jetzt keine 70-90% unterschied.
Aber es darf ja jeder denken was er so will. 🤣
 
..und auf welche Tabelle / Werte berufst du dich nun genau? Leistungsaufnahme Leerlauf (PC)?

Wenn ja, warum hat denn CB nicht "Leistungsaufnahme Leerlauf (CPU Package)" getestet? Warum nur "Leistungsaufnahme Volllast (CPU Package)"? Ein Schelm wer dabei böses denkt. ;)
 
- wie lange idle't ein Rechner wenn man den betreibt
Bei mir ca. 12-14 Stunden pro Tag.

- wieviel Zeit verbringt man durchschnittlich mit daddeln
Ich ca. 2-4h/Tag. Im Schnitt eher weniger, da es auch Tage gibt wo ich schlicht und einfach mal überhaupt nix zocke.
Ergo: Der Rechner läuft 14-16h/Tag (aktuell mit Homeoffice sowieso) aber ich spiele nur 2-4h täglich. Und vom Rest idlet der Rechner zu 90%.

- wird ingame überhaupt seitens der CPU Maximalauslastung der CPU über alle Kerne generiert
Nein.

- nimmt nicht, gerade wenn man über FHD daddelt, die Pixelschleuder einen höheren stellenwert ein als die CPU
Nein, die CPU-Requirements sind weitgehend unabhängig von der Auflösung.
Ist egal ob du in 720p oder 8K spielst, die CPU hat die (annähernd) gleiche Last.
Umgekehrt, je höher die Auflösung wird, desto wichtiger wird die GPU.
Gerade bei FHD, ist die CPU "egal", ausser man will 240, 300fps in FHD, und genau dann wird die CPU wieder extrem wichtig.

Soweit mir das bekannt ist bekommt man eine CPU nur in diversen Benchmarks an ihre Grenzen wo auch Maximallast generiert wird, nicht aber ingame. Korrigiert mich wenn ich da falsch liege.
Die ganze CPU bekommt man ingame kaum auf Maximallast, seit 6/8/10/12-Kerner üblich sind, weil die meisten Spiele kaum mehr als 6 Kerne effizient nutzen können. Und selbst die 6 Kerne die genutzt werden laufen nicht jeder auf 100%.
Man kommt aber sehr wohl SEHR EINFACH mit praktisch jeder verfügbaren CPU ins Single-Core-Leistungslimit und das hat eben nichts mit der Auflösung zu tun. Es hat nur damit zu tun, das die GPU bei hoher Auflösung oder eben eine schwache GPU bremst.
Deswegen oben auch meine Anmerkung, das ich lieber nen 6-Kerner mit 10% höherer Singlecore-Leistung nehmen würde, also einen 8 Kerner, der zwar insgesamt 5% mehr (theoretische) Performance liefern kann, aber eben 10% weniger Singlecore hat.


Das Intel-Systeme 70% weniger brauchen, wage ich zu bezweifeln. So pauschal schon gleich dreimal.
Es stimmt meiner Erfahrung nach das Desktop-Systeme auf Intelbasis etwas weniger Idle-Stromverbrauch haben.
Was beim Idleverbrauch reinhaut sind die Grafikkarten. Da ist AMD im Idle DEUTLICH schlechter als NVidia. Im Desktop.
 
Dafür verbrauchen Intel Systeme 70%-90% weniger im Idle. Nicht jeder von uns ist ein Zocker..
Und natürlich lässt man seinen PC stundenlang im Leerlauf, statt was damit zu machen, wenn man das Ding eingeschaltet hat, ist klar.

Sicher, ein möglichst geringer Verbrauch ist grundsätzlich eine super Sache, keine Frage. Aber letztlich nutzt mir ein sehr geringer Idle Verbrauch so gut wie nichts, weil mein Rechner genutzt wird, wenn er läuft. Habe ich nichts daran zutun, schalte ich das Ding ab.
 
Und natürlich lässt man seinen PC stundenlang im Leerlauf, statt was damit zu machen, wenn man das Ding eingeschaltet hat, ist klar.
Natürlich. Ich schalte doch meinen Rechner nicht jedesmal aus und wieder ein, wenn ich kurz mal gucken will, ob jemand im Luxx so sinnfreie Antworten wie deine gepostet hat. ;)
 
Ooof, dafür müsstest du schon länger suchen, am Thema interessiert sein und so... es ist ein Erfahrungswert ausgehend Werte der Leute die Idle händisch nach unten zu drücken versuchen. In diesem Forum zb..
6 Watt sind nicht der grund warum DDR5 nicht läuft
bei 4 stunden IDLE pro tag x 365 sind es 4,90€ stromkosten im Jahr was der amd sich nimmt. bei 42cent die kwh

man kanns auch übertreiben

1679236153932.png
 
Natürlich. Ich schalte doch meinen Rechner nicht jedesmal aus und wieder ein, wenn ich kurz mal gucken will, ob jemand im Luxx so sinnfreie Antworten wie deine gepostet hat. ;)
Ich rede von "stundenlang" und du sabbelst von "kurz mal gucken" daher. Ja, dein Posting strotzt nur so vor sinnvollem Inhalt. Respekt!
 
Ich rede von "stundenlang" und du sabbelst von "kurz mal gucken" daher. Ja, dein Posting strotzt nur so vor sinnvollem Inhalt. Respekt!
Was genau hast du nicht verstanden? Ich schalte meinen Rechner morgens ein und Abends wieder aus. Er läuft also zig Stunden im Idle.
Im Grunde genommen idlet er sogar, wenn ich "kurz mal gucke", weil die Webseite zu aktualisieren ist quasi 0 Last.
Ich schalte NICHT meinen Rechner ein, gucke 2 Minuten und schalte ihn dann wieder aus. Ergo: Er idlet STUNDENLANG.
Beitrag automatisch zusammengeführt:

Sicher, ein möglichst geringer Verbrauch ist grundsätzlich eine super Sache, keine Frage. Aber letztlich nutzt mir ein sehr geringer Idle Verbrauch so gut wie nichts, weil mein Rechner genutzt wird, wenn er läuft. Habe ich nichts daran zutun, schalte ich das Ding ab.
Ja, DU machst das vielleicht so. Du bist aber nicht der Nabel der Welt. Ich mache das GANZ ANDERS.

Mein Anwendungsprofil ist halt nicht: Ich setz mich jetzt 2h an den Rechner und "arbeite", sondern mein Anwendungsprofil ist: Ich gucke mal kurz hier was, bin dann wieder 15 Minuten vom Rechner weg, dann gucke ich wieder irgendwas, dann bin ich ne halbe Stunde weg, dann bin ich wieder am Rechner und lese/beantworte ne halbe Stunde Beiträge im Luxx (was praktisch auch Idle-Last ist), dann bin ich 15 Minuten im Keller und stelle fest, das der 3D-Druck nicht klappt, also gehe ich wieder hoch, aktualisiere am Rechner CAD/Slicer (das ist dann kurzzeitig nicht Idle-Last), kopiere auf einen USB-Stick und dann bin ich wieder x-Minuten weg vom Rechner. Am Ende läuft der Rechner den ganzen Tag, auch wenn ich 70% nicht davor sitze und "hardwarefordernde" Aktivitäten betreibe.
 
Zuletzt bearbeitet:
Worin denn ? In synthetischen Bandbreite-Benchmarks ?

Wenn Spiele/Anwendungen so gut mit Bandbreite skalieren würden wäre DDR5 zu den aktuellen Preisen ein Selbstläufer.
Versuchs nochmal - Schreib dich nicht ab - lern lesen und schreiben.
 
Überall nur noch blöde Sprüche.

So macht das doch keinen Spaß mehr.
 
Was beim Idleverbrauch reinhaut sind die Grafikkarten. Da ist AMD im Idle DEUTLICH schlechter als NVidia. Im Desktop.
Ahja!

..und dann ist meine AMD GPU was? Eine ReLabel Branding nVidia GPU?

rx6650xt.png

Ich hab schon immer gewußt das mit der Pixelschleuder was nicht stimmt. :fresse:
 
..und dann ist meine AMD GPU was? Eine ReLabel Branding nVidia GPU?
Ich kenne dein Setup nicht. Aber guck in die entsprechenden AMD-GPU-Threads hier im Forum.

Ich gebe zu, auch meine Aussage war etwas zu pauschal und ich kann mich auch nur auf die 6000er beziehen...
Das "Problem" ist Multimonitor und mehr als 60Hz. Ich krieg meine nicht unter 7W und selbst das geht nur, wenn ich den Energiesparmodus erzwinge, maximal einen Monitor angesteckt habe und der mit maximal 60Hz läuft. Sobald der Monitor mehr als 60Hz hat ODER ein zweiter Monitor angeschlossen ist, zieht die GPU Minimum 40W. (Weil der VRAM dann 1Ghz beibehält und nicht weiter runtertaktet, was er mit nur einem Monitor mit maximal 60Hz aber tut).
Die Nvidia-Grafikkarten sind da afaik nicht so speziell. Meine frühere 660ti war es nicht und was man so liest sind auch aktuellere NVidias da nicht so extrem.

Aber um die GPUs gehts hier ja eigentlich nicht. Nur mal eingeworfen weil von "Gesamtsystem" gesprochen wurde.
 
Die Threads interessieren mich eher weniger bis gar nicht. Für mich ist wichtig, wie meine HW. bei mir läuft und Aus die Maus. ;)

..und um zum Thema zurück zu kehren: Ich finde es äußerst begrüßenswert, dass die Boardpartner, zumindest bei Intel, auch mit Chip(set) 7xx weiterhin teils auf DDR4 setzen. (y)
Der Dimm Standard ist noch lange nicht EOL, erst recht nicht bei den Preisen was das "drum herum" zum DDR5 derzeit kostet. Die Nummer ist bisher -in der breiten Masse- kräftig nach hinten los gegangen.

edit:
Die Nvidia-Grafikkarten sind da afaik nicht so speziell. Meine frühere 660ti war es nicht und was man so liest sind auch aktuellere NVidias da nicht so extrem.
Schade das ich keinen Screen von meiner alten MSI GTX770 gemacht hatte, da hättest du mal sehen können was "Idle Extreme" bedeutet. Die hatte nicht umsonst 2x 8pin PCIe. :haha:

(..irgendwo habe ich die noch rum liegen.. ..nur wo? :rolleyes:)
 
Zuletzt bearbeitet:
Die Threads interessieren mich eher weniger bis gar nicht. Für mich ist wichtig, wie meine HW. bei mir läuft und Aus die Maus. ;)
Ja, das ist immer so, bis es dann eben doch mal michtmehr so läuft, wie man es sich erhofft.
 
Ach, waren das noch Zeiten als allein das X99-System 100W im idle gezogen hat.
Es sollte doch jedem klar sein, dass jeder ein anderes Anwendungsprofil hat.
Meine PCs laufen kaum stundenlang im idle. Meistens nur, wenn ich wirklich etwas daran arbeite/zocke.
 
Wenn das Standard wäre, wäre der PC wirklich schon lange tot. Deine Präferenzen sind nicht die vieler, der Mehrheit oder aller.
 
Mein PC läuft fast nur im Idle!

Nicht weil ich Strom sparen möchte (dann würde ich die Kiste ganz aus lassen), sondern weil die Games in der letzten Zeit inhaltlich immer beschissener werden. Die will man gar nicht mehr daddeln.
..und weil ich es halt mega entspannend finde, hier zu jeden Pups meinen Senf dazu zu geben und gerne mal auch in einigen Fanboythreads den Blutdruck anderer steigen lasse.

Da braucht man noch nicht einmal eine 13900KS + 4090XXX Supra Platinum xtreme für. Geht auch so in FHD 144fps. :haha:
 
Schwieriges Thema. DDR5 ist halt im direkten Vergleich mit DDR4 bei geringem Mehrwert in Sachen Leistung in Relation gesehen immer noch zu teuer. Von den Kosten der gesamten Plattform mal abgesehen.
 
Schwieriges Thema. DDR5 ist halt im direkten Vergleich mit DDR4 bei geringem Mehrwert in Sachen Leistung in Relation gesehen immer noch zu teuer. Von den Kosten der gesamten Plattform mal abgesehen.
Nur rein vom Speicher, würde ich das nicht sagen, wenn man mal von 32GB Leistung DDR5 zu DDR4 geht, sind die gar nicht mehr so teuer, zu Anfang ja, da haben wir alle bluten müssen, IronAge kann da ein Lied von singen, jetzt sind die Preise aber sehr stark gefallen, wenn man nicht gerade das schnellste haben möchte, aber das ist bei DDR4 mit CL14 auch teuer.
 
Na ja..,.. seien wir ehrlich: Die Plattformen, die DDR5 verwenden, sind aktuell schlicht um einiges zu teuer.
Ich habe zwar kürzlich auf dem Produktiv-PC den Wechsel von AM4 auf AM5 vollzogen, aber unbedingt nötigt gewesen wäre es nicht. Es war eher die Überlegung, die AM4-Hardware aktuell so günstig verkaufen zu können, daß mich der Wechsel von Board, RAM und CPU unter dem Strich nur 100 Euro kostete. Und auf dem Zweit-PC (Videorekorder) habe ich mich trotz Alderlake bewußt für ein Mainboard mit DDR4 entschieden, da der RAM einfach schon vorhanden war. So werden viele aktuell denken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh