CPU Lebenszyklus verlängert "These"

Da hast du natürlich Recht, die Effizienzsteigerung gilt allerdings auch für Mid- und Lowrange Karten.

Zum fiktiven 5000W Monster: so eins würd ich mir zum Rendern auch unter den Tisch (oder eher in nen Nebenraum) stellen. Wäre ideal wenn was schnell berechnet werden soll.
Unter Vollast meist effizienter ist das Problem mit einer (überdimensionierten) Maschine (wie überall) eine höhere Verlustleistung bei Teillast. Das lässt sich teilweise durch intelligentes Design (Powergating, Taktanpassung, Kernstillegung, Spannungsanpassng und co) ausgleichen aber eben nie zu 100%.
Zum zocken bleib ich daher bei meinen 400-600W maximal. Und ich hoffe dass das auch noch ein paar Jahre so bleibt und reicht ^^

mfg

Solche Maschinen gibts ja heute schon... Dicke Bladecenter oder Server über Infiniband sind extrem effizient. Aber halt von den Anschaffungskosten auch extrem teuer...

Wobei ich sagen muss, so ne als Beispiel dicke RX900 Fujitsu Büchse im Vollausbau mit 2TB RAM und ich glaube 16x Hexacore Intel Xeons der letzten Gen. kommt mit etwas über 120.000€ gar nicht so schlecht weg... Wenn man bedenkt, das man dort 96 CPU Cores und 256GB pro Blech hat. Das ganze aber über Infiniband zusammen zu einem dicken Node zusammen gepackt ist und somit von einer einzigen Maschine/Software ausgelastet werden könnte...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es betrifft nicht nur die CPUs.
Auch bei den Grafikkarten geht es seit 2 Jahren nicht vorwärts.
imernoch 40nm Fertigung + GDDR5
Es wurde nur Die DirectX/Shaderversionen angepasst ansonsten unveränderte Designs.
Bei DX9 hat ist die Performance exakt die gleiche über drei Kartengenerationen hinweg. [Bei gleicher TDP]
Die Effizienz ist nicht gestiegen.
(die High end Modelle mal aussen vor)
 
Zuletzt bearbeitet:
Kann dem TE nur zustimmen.

im Jahre 2006 einen Q6600 @ 3,2 GHZ und der ist heute noch völlig Ausreichend um Spiele wie Metro 2033 etc in Max Details Darzustellen.

Das sind 5 Jahre High End. CPU,s sind so Langlebig wie noch nie. auch mein X3 der nur als Übergang zum Bulldozer Dienen sollte, ist total Oversized für meine Spiele.
 
Auch bei Grafikkarten ist die Tendenz zu sehen, wenn auch nicht ganz so stark, wie bei CPUs.

Wer sich damals eine 8800GTX gekauft hat, kann auch heute noch jedes Spiel zocken und viele auch mit hohen Details. Das ist schon krass für ne GraKa.

Das ist im Prinzip die erste Zocker GraKa mit einer derart langen Lebensdauer.

Bei den CPUs ist mittlerweile auch ein Standard erreicht, bei dem eine schnellere CPU Dinge wie reguläre Office Arbeiten und im Internet surfen nicht mehr merklich beschleunigt. Und das sind unterm Strich die Dinge, die den Heimanwender interessieren.

Mit einer schnelleren CPU hat der Heimanwender also nicht mehr die Vorteile wie noch vor ein paar Jahren, wo das den Unterschied zwischen Videos ruckelig und Videos flüssig abspielen können bedeutete. Das können heute auch die kleinsten Maschinen.

Und für HD Inhalte eine starke CPU zu haben ist auch nicht nötig, das erledigt ja mittlerweile auch die GPU, wobei die meisten 0815 CPUs damit auch keine Probleme haben.

Wie gesagt, ein gewisser Standard ist erreicht, der fast jedem Anwender, außer er ist auf jedes Quäntchen CPU Power angewiesen, keine merkliche Leistungssteigerung bei seinen täglichen Anwendungen mehr beschert.
 
ja es ist schon verwunderlich

ich habe meinen Q9650 mittlerweile seit knapp ueber 2 jahren im rechner (kein oc)

als ich dieses jahr auf sandy bridge 2600 umsteigen wollte bei ca. 70% erhoffter mehrleistung, habe ich mich dagegen entschieden.

ich habe lieber meine velociraptor in rente geschickt und durch eine ssd ersetzt.
ich glaube das der erzielte effekt bei dem bisschen was ich mache hoeher ist.
 
Meiner Meinung nach hat das aber vorallem mit der "Grundlast" eines 08/15 Nutzers zu tun. Jede Config ist letztendlich vorallem so schnell/gut, wie es der Benutzer mitbekommt. Vorallem die Multi-Core Prozessoren der letzten Jahre haben da einiges weggeräumt. Als ich damals meinen 3700+ hatte, konnte ich z.b. entweder etwas packen oder flüssig damit arbeiten, mein erster Dualcore (4800+) hatte zwar nur ca. 300Mhz mehr, aber das war eine richtige performancewelt... *schwelg*, da faktisch ein Core fast immer für den User zuständig sein konnte, während die andere dauerrechnete. Dasselbe waren dann die Quadcores, welche den gefühlten Performanceverlust des Anwenders nocheinmal gesenkt haben

Habe mittlerweile einen schönen leisen dualcore der 2ten Generation als Desktop und lasse meinen großen Quadcore als Server/Rechensklave in einem Nebenzimmer sein werk verrichten, reicht vollkommen aus.
 
Zuletzt bearbeitet:
Auch bei Grafikkarten ist die Tendenz zu sehen, wenn auch nicht ganz so stark, wie bei CPUs.

Wer sich damals eine 8800GTX gekauft hat, kann auch heute noch jedes Spiel zocken und viele auch mit hohen Details. Das ist schon krass für ne GraKa.

Das ist im Prinzip die erste Zocker GraKa mit einer derart langen Lebensdauer.

Das kommt alles auf die persönlichen Ansprüche an...
Ich bin damals von ner stark OCed 2900XT auf ne HD4870 gewechselt, weil die Leistung zu gering war. Dann ein kurzer Abstecher zur HD4870 X2 und schlussendlich zu ner 470GTX. Mittlerweile werkeln zwei 470er im SLI. Und es könnte immernoch mehr sein ;)

Der Leistungsschub zu jeder neuen Karte war 50-70%... Teils gar deutlich mehr. (Extremfälle)

CPU Technisch habe ich mich bis vor kurzem noch mit einem 3,4GHz Core2Quad (2xXeon 5160@OC) bewegt. Und das ging soweit voll iO.
Aber in einigen Games und vor allem in Anwendungen merkt man extreme Unterschiede... Gothic 3 werkelt teils mit doppelten FPS jetzt zum alten Core2 Quad. Das ist unnormal.
 
Ist mir auch schon aufgefallen, dass man die gleiche hardware immer länger nutzen kann, wenn man nicht immer auf den allerhöchsten details zocken will. früher konnte man ja schon nach 2 jahren nicht mehr alles zocken.
 
Zuletzt bearbeitet:
Ich werd mit meinem Q9550 @ 4ghz wahrscheinlich auch noch lange glücklich sein.
Meine HD4870 muss für BF3 aber was Aktuellem weichen.

Du kannst bei mir ja mal BFBC2 am Q9650@4,5GHz mit einer GTX580 zocken und dann am i7 2600K@5GHz mit einer GTX testen... das sind gleich mal 50FPS mehr im durchschnitt also schon ein merkenswerter unterschied.

50 fps? Das kann man ja kaum glauben...
 
ja ich habe mir auch im jahre 2006 eine G80 zugelegt. die ging mit den Jahren dann kaputt und wurde durch diese HD4770 (mid range von 2009) ausgetauscht, welche aber weniger leistung als die 8800GTx von 2006 hat, und ich kann immernoch alle games die ich zocke auf max zocken. nur bei Crysis 1 und Metro musste ich etwas zurück schrauben da ich auf max nur 20 fps hatte, was zur not aber auch noch "erträglich" ist.

ich hatte damals CPU Technisch quasi einen K8 X2 @ 2,6 ghz. im Selben jahr gab es aber schon den Conroe Quad 65nm der schon 3 bis 3,2 ghz jeh nach kühlung ermöglichte.

ein Config aus Raptor HDD, Intel Quad @ 3,2 ghz und 8800GTX wäre für mich heute noch völlig aussreichend für alles was ich Zocke. Meist sogar Overkill.

bei Crysis 2, Mass Effect 2, bioshock 2, Fear 3 etc ist das System Locker für Max Details zu haben.
 
Ich werd mit meinem Q9550 @ 4ghz wahrscheinlich auch noch lange glücklich sein.
Meine HD4870 muss für BF3 aber was Aktuellem weichen.



50 fps? Das kann man ja kaum glauben...

Kannst du aber glauben, bei PCGH ist nen test.
BFBC2 profitiert enorm von SMT also läufts auf dem 2600K mit 8 Therads.
 
Zuletzt bearbeitet:
HD4770 (mid range von 2009) ausgetauscht, welche aber weniger leistung als die 8800GTx von 2006 hat, und ich kann immernoch alle games die ich zocke auf max zocken.

FULL ACK hab ich auch das ding...

1. alles flüssig auf vollen details (keine riesenauflösungen und gelegenheitsgamer)

2. die nachfolger karten HD5770 und HD6770 sind 100% die gleiche karte.
Nur das eben DX 10.1b oder DX11 support hinzugefügt wurde.
(Gleiche perfomance bis auf Taktunterschiede, was aber durch Overclocking ausgeglichen werden kann.)

3. Die Karte lässt sich super übertakten, meine läuft
bei 1Ghz Core und 1,2 Ghz Speichertakt.
Damit schlägt sie einige aktuelle low und midrange Karten.
 
2. die nachfolger karten HD5770 und HD6770 sind 100% die gleiche karte.
Nur das eben DX 10.1b oder DX11 support hinzugefügt wurde.

Dann kann es ja wohl schon mal schlecht 100% die gleiche Karte sein :hmm:

Davon abgesehen hat die HD4770 640 Shader und 32 Textureinheiten, die HD5770 hat 800/40 und kann außerdem Eyefinity.

Deine These "gleiche Performance bis auf Taktunterschiede" kannst du somit auch gleich wieder einpacken. ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh