Seit einer Woche ist doch bei 18 Cent / kWh die Bremse (für Erzeuger). https://efahrer.chip.de/news/maximal-18-cent-eu-zieht-endlich-die-strompreis-bremse_109685
OT: Entspräche in Deutschland einem Endkundenpreis von 46,27ct/kWh.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Seit einer Woche ist doch bei 18 Cent / kWh die Bremse (für Erzeuger). https://efahrer.chip.de/news/maximal-18-cent-eu-zieht-endlich-die-strompreis-bremse_109685
Günstig ist anderes...OT: Entspräche in Deutschland einem Endkundenpreis von 46,27ct/kWh.
Also ich scheiß mich jetzt nicht ein, wenn ich 50 Cent pro Stunde Gamezeit zahlen müsste.
Aber ich zocke auch nicht so viel. Lasst es 4 Stunden am Tag sein (was es nicht sind), dann wären das 60 Euro im Monat Strom bei 50 Cent / kwh. Bei einem PC der 1kw zieht (was er auch mit der 3090 nicht tut).
Für das Hobby fände ich das aber durchaus okay.
Dazu kommt, dass man sicher die Heizung im Raum des PCs 1-2 Stufen niedriger drehen kann.
Bei einer Wärmepumpe kostet das Heizen 1/3 der eigentlich nötigen Strommenge.
Bei einer 4090 kostet das Heizen gar nichts wenn man zockt. Ist doch nice
Bei Leaks bin ich vorsichtig, wäre nicht das erste mal das mit einem Benchsystem und Extremer Kühlung gemessen wurde und dagegen "retail" mit Luftkühler verwendet wurde.3080 10G vs 4080 16G: 320W vs 320W bei 50-60% mehr Rasterization Performance laut aktuellsten Leaks.
3090Ti vs 4090: 450W vs 450W bei mindestens 60% mehr Rasterization Performance laut aktuellsten Leaks.
Insofern hast du nicht recht mit deiner Aussage. Hätte die 4090 jetzt tatsächlich 600W gesaugt oder die 4080 450Watt, wär das was anderes gewesen. Ist aber nicht der Fall.
Der einzige Kritikpunkt bleibt berechtigterweise der Preis. Performance Gains haben wir in der Vergangenheit schon deutlich schlechteres gesehen, da kann man wirklich nicht meckern.
What??eine cpu bringt keine gpu fps und umgekehrt.
Ich glaube kaum, das sich jemand, der sich eine 4090 kauft, noch die "Stromgebühren" ausrechnen muss.^^
Absolut richtig. Ich denke aber gemeint war das Bottleneck zu lockern.eine cpu bringt keine gpu fps und umgekehrt.
Ich heize im Winter mein Schlafzimmer mit den PC. Zusammen mit dem TV kommen da einige 100 W zusammen. Die Heizung steht auf minimum und geht nur an wenn der Raum zu sehr abkühlt. Im Sommer ist das in der Dachgeschosswohnung leider nachteilig, die Temperatur steigt spürbar wenn der PC läuft.Also ich scheiß mich jetzt nicht ein, wenn ich 50 Cent pro Stunde Gamezeit zahlen müsste.
Aber ich zocke auch nicht so viel. Lasst es 4 Stunden am Tag sein (was es nicht sind), dann wären das 60 Euro im Monat Strom bei 50 Cent / kwh. Bei einem PC der 1kw zieht (was er auch mit der 3090 nicht tut).
Für das Hobby fände ich das aber durchaus okay.
Dazu kommt, dass man sicher die Heizung im Raum des PCs 1-2 Stufen niedriger drehen kann.
Bei einer Wärmepumpe kostet das Heizen 1/3 der eigentlich nötigen Strommenge.
Bei einer 4090 kostet das Heizen gar nichts wenn man zockt. Ist doch nice
Ich würde mir an deiner Stelle einen eher 5800X3D holen wenn der Preis passt und die CPU limitiert.Habe auch überlegt, aber für 21:9 1440er Auflösung brauchts das wohl auch in Zukunft nicht. Sinnvoll wäre bei nem Upgrade wohl vermeintlichen 7800x3D mit vernünftigem B650 Board und ne reduzierte 30er Karte. Auch dafür ist der 40er Release super
Wenn du eine 4090 mit nem Atom paarst, dann wirst du (auf der GPU) nicht mehr Frames bekommen, indem du auf ne 4090Ti umbaust.Was denn?
Was aber noch dazu kommt ist dass man mit einem High-End-System nicht immer am Limit hängt. Wann sind GPU und CPU beide voll ausgelastet? Nur in den allerneusten Spielen und dort wird auch eine CPU nicht voll gefordert wenn es ein 5950X oder so ist. Die Hardware läuft nicht ineffizienter als schwächere Hardware die für dieselbe Leistung am Limit laufen muss.
er hat gesagt, dass die cpu und die gpu sich erstmal nicht direkt beeinflussen.Was denn?
Da halte ich dagegen, theoretisch magst du recht haben. Aber es gibt ein Problem: Vierkern CPUs haben zu kleinen Cache, wir haben am 5800X3D gesehen was dieser ausmacht und wie stark dieser immer noch moderne CPU AM5/Zen4/Intel Raptor Lake/Alder Lake trotzdem hart schlagen in vielen Szenarien.100 W mehr machen durchaus was aus wenn das System am Limit läuft. Es ist aber nahezu unmöglich eine moderne Vielkern-CPU mit Videospielen voll auszulasten. Höchstens Strategiespiele / Simulationen können die Kerne eventuell besser nutzen. Die anderen Spiele profitieren schon kaum von mehr als 6 Kernen, da entscheidet dann vor allem der Singlethread ob die CPU limitiert. Ich würde trotzdem immer erst bei der GPU übertreiben als eine zu starke CPU zu kaufen, vor allem wenn man damit nur zocken will. In 4K kommt man erst ins CPU-Limit wenn man jenseits der 60 FPS spielen will (und die GPU die Kapazität dafür hat) oder die CPU wirklich grottig ist.
Vergiss nicht dass du im Sommer das Ganze (inkl. Zimmer) auch kühlen musst...Dazu kommt, dass man sicher die Heizung im Raum des PCs 1-2 Stufen niedriger drehen kann.
Wo haben wir das? Bei den Tests die ich gesehen hab liegt er oft haarscharf vorn, aber der Aufpreis zu den anderen Ryzen 7 steht dabei in keinem Verhältnis zur Mehrleistung. Ist das gegenüber Intel nicht genau so?, wir haben am 5800X3D gesehen was dieser ausmacht ...
Fürs Gaming reicht an sich auch ein Ryzen 5 bzw. lohnt sich da eher das Wechseln in jeder Generation. Leider hat AMD seit Zen 3 die Preise angezogen. Die Zeiten des 200 € Hexacore sind vorbei. Der 7600X kostet jetzt mehr als mein 2700X (Damals 8C Topmodell) am Launchtag (319 €) und bei dem war sogar ein hochwertiger Lüfter dabei.Wo haben wir das? Bei den Tests die ich gesehen hab liegt er oft haarscharf vorn, aber der Aufpreis zu den anderen Ryzen 7 steht dabei in keinem Verhältnis zur Mehrleistung. Ist das gegenüber Intel nicht genau so?