CPU Lebenszyklus verlängert "These"

Mindfactory

Enthusiast
Thread Starter
Mitglied seit
04.07.2009
Beiträge
1.927
Ort
Oldenburg
Hallo ich wollte mal anmerken, dass meiner Meinung nach der Lebenszyklus von CPU sich im Vergleich zu den 1990er und frühen 2000er Jahren verlängert hat.

Ich kann z.B heute noch mit meinem über 3,5 Jahre alten Q9550 alle aktuellen PC Spiele mit den höchsten Einstellungen spielen. Wozu aufrüsten?
Da muss man schon sagen, dass diese CPU ein richtig gutes Invest war.

Klar das liegt zum großen Teil an den vielen Konsolenports, die die PC Entwicklung bremsen aber ich erinnere mich noch an Zeiten, wo man gezungen wurde alle 2 Jahre aufzurüsten.

Die Vorteile dieser Konsolenentwicklung liegt eben in der Haltbarkeit aktueller PC hardware.
Die vielen Nachteile möchte ich nicht nochmal aufwärmen :)

Den Q9550 @ 4,25GHz werde ich mindestens noch 1,5 Jahre weiter nutzen und ich bezwefel, dass bis dahin irgendein Spiel ruckeln wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die meisten spiele sind ja eher gpu lastig als cpu, wobei du deine cpu schon gut übertacktet hast.
 
Zuletzt bearbeitet:
Hier betrachtet man mal wieder nur die Pc-Spiele und ganz ehrlich das ist nicht der Hauptgrund für wachsende CPU Leistung bzw dem Beadarf dazu. Einfach mal über den Tellerrand schauen und dann wird man feststellen, dass cpu bedarf weiterhin wie damals vorhanden ist und genutzt werden will
 
Hier betrachtet man mal wieder nur die Pc-Spiele und ganz ehrlich das ist nicht der Hauptgrund für wachsende CPU Leistung bzw dem Beadarf dazu. Einfach mal über den Tellerrand schauen und dann wird man feststellen, dass cpu bedarf weiterhin wie damals vorhanden ist und genutzt werden will

Hardware: Spiele sind der Antrieb

Dann erklär mal deinem Chef dass dein Q9550 zu langsam ist und du nun einen i7 brauchst. Klar sind PC-Spiele nicht das einzige, aber es ist nun mal bei weitem die größere Zielgruppe. Soviel zum Tellerrand.
 
Ich denke das liegt zum Großteil auch daran, das eben der CPU Markt in den letzten Jahren ziemlich wenig Performancesprünge zu verzeichnen hatte...
Wer zu Core2Quad Release auf nen großen Quad gewechselt ist (QX6800) oder nen kleinen mit OC genommen hat, hat damit eine CPU Leistung, wie sie heute immernoch aktuell ist. Und das nach vier Jahren+...

Stellt euch mal den Leistungssprung vor 10 Jahren vor, wie viel Leistung man in vier Jahren mehr bekommen hat im CPU Markt.
Logisch lassen sich bei nur spärlicher Leistungssteigerung ältere Modelle auch nach Jahren noch gut weiter verwenden... ;)

Im GPU Markt schaut das anders aus. Jede neue Gen. bringt ca. 50-80% Mehrleistung zum Vorgänger Top Modell. Dort vier Jahre mit der alten Karte zu überleben wird nicht möglich sein, ohne Qualitätsverluste hinnehmen zu müssen...
Aber das war damals auch schon so ;)
 
klar ohne OC wäre der Q6600 nicht mehr wirklich zu gebrauchen. Aber das hat ihn damals halt so interessant gemacht. Viele Kerne, Viel Cache, geringer Basistakt zum OCen.

Damals gab es auch keine Konkurenz, aber was will man verkaufen wenn der Markt bedient wurde und die eigenen neuen Prozessoren auch auf den Markt können (Q9xxx 45nm). Also Preis runter.
 
Mindfactroy kommt auf die Settings an im Spiel ob es ruckelt oder nicht. in 800x600 wirst du sicherlig noch lange freude haben mit der CPU, wilslt du aber nen SLi system füttern viel Spass...
 
Mindfactroy kommt auf die Settings an im Spiel ob es ruckelt oder nicht. in 800x600 wirst du sicherlig noch lange freude haben mit der CPU, wilslt du aber nen SLi system füttern viel Spass...
Und was soll an einem SLI Gespann von 2x 6600GT bis zu 2x GTX 460/560 mit einem Q9550 @4200 zu schlecht zum füttern sein?
Ah du meinst wohl die 0, nix Prozent 2x oder 3x GTX 580/HD 6790 Leute die in der Statistik nicht einmal auftauchen. Die sollen jetzt die 99,9% richtige Aussage von Mindfactory falsch machen?
Boah wie wichtig.:stupid:
 
Und was soll an einem SLI Gespann von 2x 6600GT bis zu 2x GTX 460/560 mit einem Q9550 @4200 zu schlecht zum füttern sein?
Ah du meinst wohl die 0, nix Prozent 2x oder 3x GTX 580/HD 6790 Leute die in der Statistik nicht einmal auftauchen. Die sollen jetzt die 99,9% richtige Aussage von Mindfactory falsch machen?
Boah wie wichtig.:stupid:

Neja er verwendet schonmal eine HD6970... Sollte er mal irgendwann vllt ne zweite zustecken, lässt er unter Umständen einiges an FPS liegen mit der CPU... Aber das heist nicht, das es nicht geht ;)
Im absoluten GPU Limit rücken die CPUs wieder stark zusammen... Steht man hingegen auf hohe FPS, muss die CPU auch mitspielen... ;)
 
Im GPU Markt schaut das anders aus. Jede neue Gen. bringt ca. 50-80% Mehrleistung zum Vorgänger Top Modell. Dort vier Jahre mit der alten Karte zu überleben wird nicht möglich sein, ohne Qualitätsverluste hinnehmen zu müssen...
Aber das war damals auch schon so ;)
Wobei ich mir da durchaus die Frage stelle, wie weit das noch gehen kann. Immerhin erkauft man sich diese Leistungssteigerungen auch durch eine enorme Zunahme des Stromverbrauchs, während der bei CPUs seit Jahren konstant ist und sogar immer mehr Modelle im TDP Bereich um 45 oder 65W kommen.
AGP hat damals bis 50(?) Watt geliefert und heute zieht eine GTX 580 irgendwas oberhalb von 300W. Wie weit kann/will man das noch steigern?
 
Wahrscheinlich bis es sich nichtmehr verkauft - und Produkte wie die 6990 sind aufgrund des Preises und des Verbrauchs eben schon Nischenprodukte. Viel höher wird man nichtmehr gehen - während anno 2000 im Privatbereich so gut wie niemand auf den Verbrauch schaute und nur (Anschaffungs-)Preis/Leistung beim Kauf eine Rolle spielte hat sich vor wenigen jahren der Verbrauch als immer wichtiger werdendes Kriterium dazugesellt.
Weil eine 300 Watt Karte eben sehr hohe Ansprüche an das Netzteil, die Kühllösung (oder die Ohren ^^) sowie die Stromrechnung stellt. Also ich werd mir keine Graka mit einem Verbrauch von über 300 Watt in den Rechner schnallen, und ich bin mir sicher dass ich da nicht alleine bin. Und wo es keinen Markt gibt wirds auch kein Produkt geben, der "Scheitepunkt" ist denke ich fast erreicht.
Wobei es, wie auch bei Autos, wohl immer ein paar "Unvernunftsboliden" geben wird - Vorzeigeprodukte bei denen auf Verbrauch und Preis nix gegeben wird und nur die Leistung zählt, z.B. Asus Mars - die ordne ich aber eher unter Exoten ein - genauso wie Systeme mit Serverprozessoren. (Im Privatbereich versteht sich bevor ein dude sich wieder beschwert)


Dass der Bedarf von Spielen an CPU-Power stagniert hat mMn mehrere Gründe, was mir spontan einfällt sind:

Auslagerung von vielen (parallelisierbaren) Berechnungen auf die Grafikkarte (T&L, PhysiX etc.).
Es gibt ein Bewusstsein dass eine gute Grafik allein kein gutes Spiel macht, Indie-Entwickler machen es mit Minecraft und co vor dass es auch ohne ressourcenfressendes Grafikmonster geht.
Ein höherer Detailgrad erfordert immermehr Programmier-Zeit und damit Kosten welche sich oft durch den eventuell möglichen Mehrgewinn nicht decken lassen.
Es gibt ein Größeres Spektrum an "Rechenpower" wie noch vor 10 Jahren und Spiele werden auf eine möglichst große Zielgruppe programmiert.
Konsolen.


mfg
 
Zuletzt bearbeitet:
@Papalagi
du treibst dich hier im Luxx forum rum,
Es gibt auch leute die 3 Way SLi fahren ect. Leute die Gerne downsampling ein Hohes AA fahren Selbst wenn es 0,1% ist aber die gibt es nunmal.
Für die Reicht so eine CPU nicht.

Jeder hat eigene Ansprüche und meine sind mit so einer CPU halt nicht erfüllt.
Man sollte mal über den eigenen Tellerand gucken. Wenn es für ihn reicht is doch super aber Pauschal kann man das nicht auf alle User beziehen.
 
Wie HisN sagt. Ist doch egal ob die CPU am Limit läuft. Dickste GPU rein und fertig. Klar sollte das Verhältnis stimmen, aber mal ein Beispiel.

Sockel-775-Rechner mit einer potenten CPU @ OC & einer gängigen Graka die so alt ist wie die CPU.

400€ zur Verfügung.

a) Lieber alles in die neue Grafikkarte investieren
b), oder 200€(+150€ Verkaufserlös) in CPU+Board+Ram und 200€ in Graka

wo bekomme ich mehr fps? ;)
 
Wie HisN sagt. Ist doch egal ob die CPU am Limit läuft. Dickste GPU rein und fertig. Klar sollte das Verhältnis stimmen, aber mal ein Beispiel.

Sockel-775-Rechner mit einer potenten CPU @ OC & einer gängigen Graka die so alt ist wie die CPU.

400€ zur Verfügung.

a) Lieber alles in die neue Grafikkarte investieren
b), oder 200€(+150€ Verkaufserlös) in CPU+Board+Ram und 200€ in Graka

wo bekomme ich mehr fps? ;)

natürlich hat er recht ,aber um wirklich den letzten fps aus einer modernen karte wie eine 580gtx rauszuholen ,da brauch man ein 2600K mit 4.3-4.5ghz und so ein sli gespann da sind es sogar ca 5ghz ,was aber bisschen varriiert je nach spiel .wir reden aber von einer einstelligen fps zahl,also luxus
 
Zuletzt bearbeitet:
Weil eine 300 Watt Karte eben sehr hohe Ansprüche an das Netzteil, die Kühllösung (oder die Ohren ^^) sowie die Stromrechnung stellt. Also ich werd mir keine Graka mit einem Verbrauch von über 300 Watt in den Rechner schnallen, und ich bin mir sicher dass ich da nicht alleine bin. Und wo es keinen Markt gibt wirds auch kein Produkt geben, der "Scheitepunkt" ist denke ich fast erreicht.
Wobei es, wie auch bei Autos, wohl immer ein paar "Unvernunftsboliden" geben wird - Vorzeigeprodukte bei denen auf Verbrauch und Preis nix gegeben wird und nur die Leistung zählt, z.B. Asus Mars - die ordne ich aber eher unter Exoten ein - genauso wie Systeme mit Serverprozessoren. (Im Privatbereich versteht sich bevor ein dude sich wieder beschwert)

Mir persönlich ist es ziemlich egal, wie viel Watt die Kiste unter Volllast verbraucht... Denn man bedenke auch, mit jeder neuen Kartengeneration sowie auch CPU Generation nimmt die Effizienz idR zu... Das heist, die CPUs/GPUs werden idR sparsamer, wenn man Leistung/Verbrauch betrachtet. Wie viel dann absolut verbraucht werden, spielt da eigentlich keine Rolle... Denn bei weniger Verbrauch braucht man für die gleiche Berechnung halt auch ungleich länger (mit der alten Gen.)

natürlich hat er recht ,aber um wirklich den letzten fps aus einer modernen karte wie eine 580gtx rauszuholen ,da brauch man ein 2600K mit 4.3-4.5ghz und so ein sli gespann da sind es sogar ca 5ghz ,was aber bisschen varriiert je nach spiel .wir reden aber von einer einstelligen fps zahl,also luxus

Nicht unbedingt nur einstellig... Crysis 1 schafft teils doppelte Leistung zwischen 3400MHz Sandy ohne Turbo vs. 4,5-5GHz+ Sandy ohne Turbo mit zwei HD6970ern im CF.
Ist aber mit Sicherheit auch Szenenabhängig... Und ob man nun gerade so um die 35FPS schafft vs. 60FPS+ ist schon ein Unterschied wie Tag und Nacht... Gerade bei MR empfindlichen Personen ;)
 
Zuletzt bearbeitet:
das stimmt mit sli oder cf ist es noch mehr ,bin halt von einer 570gtx ausgegangen ,weil ich es selber getestet habe
 
@TE

Du siehst das nur von den Spielen, aber es gibt auch genug andere Anwendungsgebiete wo es sich immer lohnt die neueste Generation zu erwerben.

Wenn man das natürlich nur unter dem Aspekt der Spiele betrachtet hast du natürlich Recht, das hat aber eben mehrere Ursachen, es sind sicherlich zum großen Teil Einflüsse der Konsolen, diese sind eben die Cash-Cow für die Spiele-Industrie und nicht der PC-Markt, der

a) z.B. in einigen Ländern der Erde nicht so verbreitet ist in Sachen Gaming (Bsp. USA).

b) auch der Markt ist, der prozentual zum Gesamtumsatz die höchsten Raubkopien aufweist.

Es gibt aber noch viele andere Gründe, z.B. das grafische Verbesserung meist nicht durch linearen Aufwand erfolgen sonder exponetiell. Das bedeutet, will ich eine doppelt so gute Grafik, muß ich 4 mal soviel Energie/Aufwand/Zeit/etc. investieren.

Es sind eben komplexe und vorallem vielseitige Aspekte die hier zum tragen kommen, auch das Games seit vielen Jahren schon enorm von der GPU profitieren.

Aber wie schon oben gesagt, trifft das nur auf den Teilaspekt "Gaming" zu, andere Sektoren wie Encoding, Videobearbeitung, usw. profitieren schon enorm von den stetig folgenden neuen Generationen.
 
Zuletzt bearbeitet:
Stimmt aber schon auf meinem Q9650 PC läuft immer noch alles Top selbst mit ner kleinen GTX470.
Es muss also zum vernünfig zocken zu können nicht die dickste und neuste CPU und GPU sein... (sagt einer mit zwei GTX580 :fresse:)



 
Zuletzt bearbeitet:
Den Q9550 @ 4,25GHz werde ich mindestens noch 1,5 Jahre weiter nutzen und ich bezwefel, dass bis dahin irgendein Spiel ruckeln wird.

All points bulletin ruckelt..

Dank UE3 Engine läuft es erst bei min, am besten über 60fps flüssig.
Liegt aber auch daran, das nur 2 bzw. 2 1/2 Cores genutzt werden wenn überhaupt.
 
Danke für das zahleiche Feedback.
Natürlich macht heutzutage die Grafikkarte in Spielen den größten Unterschied aus da bin ich mit meiner HD6970 auch ganz gut dabei.

Es war mir nur wichtig aufzuzeigen, dass anders als früher die CPU Leistung bezüglich der Software-Anforderungen, speziell PC Spielen, sich nach hinten verlagert hat.

Daraus resultiert eine wesentlich längere Nutzbarkeit aktueller CPU´s als es früher der Fall war.
 
Zuletzt bearbeitet:
Es war mir nur wichtig aufzuzeigen, dass anders als früher die CPU Leistung bezüglich der Software-Anforderungen, speziell PC Spielen, sich nach hinten verlagert hat.

Daraus resultiert eine wesentlich längere Nutzbarkeit aktueller CPU´s als es früher der Fall war.

Das wäre halt die Frage woran es liegt...
Zum einen das, was du sagst, zum anderen stagniert halt die CPU Leistung in den letzten Jahren auch deutlich stärker als noch vor 10 und mehr Jahren...
 
Das liegt ganz klar daran weil die meisten Games für Konsolen entwickelt werden, diese aber noch "Steinzeittechnik" beinhalten (egal ob PS3 oder Xbox360) und so kaum aktuelle Hardware gefordert wird.
 
Mir persönlich ist es ziemlich egal, wie viel Watt die Kiste unter Volllast verbraucht... Denn man bedenke auch, mit jeder neuen Kartengeneration sowie auch CPU Generation nimmt die Effizienz idR zu... Das heist, die CPUs/GPUs werden idR sparsamer, wenn man Leistung/Verbrauch betrachtet. Wie viel dann absolut verbraucht werden, spielt da eigentlich keine Rolle... Denn bei weniger Verbrauch braucht man für die gleiche Berechnung halt auch ungleich länger (mit der alten Gen.)

Das stimmt so nicht. Ich glaube nichteinmal du würdest einen Rechner unterm Tisch stehnhaben wollen der 5000Watt verbrät - egal wie effizient er sein mag.

Andere Geschichte als ich noch zuhause gewohnt habe. Winter, Heizung ausgefallen, Muttern kommt rein: "Mensch hier ist es ja schön warm"
Holzofen vs Q6600 - klarer Sieger :banana:

Alles hat irgendwo seine Grenze. Ich gebe dir Recht solange der Idle-Wert besser wird kann der Volllastverbrauch ruhig höher sein, aber alles hat seine Grenze. Und dass Programme schneller abgearbeitet sind mag zwar beim packen, render, etc stimmen, aber nicht beim Zocken.

Um nocheinmal zum Thema kommen. Es ist klar das ein alter Sockel 775 Prozessor mit einem Quad-SLI GTX580 überfordert ist. Aber lieber in eine dicke Graka investieren, als die an sich noch gute CPU zu verschärbeln.

Kleines Beispiel. 2005 hatte ich mir einen neuen Rechner für BF2 gekauft. Geforce 6800GT für 350€ und als Übergangslösung weil die DualCores erst auf den Markt kamen einen Celeron für 35€. 2,8Ghz und einen Cache der so klein war, dass er gerade noch auf der Verbakung lesbar war. Das über 2 Jahre alte C&C Generals war nur mit ach und Krach spielbar. BF2 hingegen lief wie Butter. Immer über 60fps und mit fraps aufnehmen klappte sogar auch ohne Einbrüche.

Am Ende ist doch die Frage wie bekomme ich am meisten Leistung für möglichst wenig Geld und da ist es nun mal sinnvoller die Sockel 775 CPU zu behalten und den Kepler dazuzustecken. :heuldoch:
 
Na ja... wenn Kepler ca so schnell werden wird wie ne GTX590 dann ist alles unter 4,5 Core 2 Quad GHz definitiv eine Bremse für die GPU.

Du kannst bei mir ja mal BFBC2 am Q9650@4,5GHz mit einer GTX580 zocken und dann am i7 2600K@5GHz mit einer GTX testen... das sind gleich mal 50FPS mehr im durchschnitt also schon ein merkenswerter unterschied.
 
Das stimmt so nicht. Ich glaube nichteinmal du würdest einen Rechner unterm Tisch stehnhaben wollen der 5000Watt verbrät - egal wie effizient er sein mag.
Wieso nicht?
Ich verbrauche allein an Rechentechnik bei mir Zuhause gute 4000kWh im Jahr... (und ja ich zahle das allein) Würde ich nen PC haben, der 5000W verballert unter Volllast, dafür aber auch unter Volllast deutlich mehr wie 10 mal so schnell ist wie mein jetziger (da komm ich auf gute 650-700W bei GPUs und CPU) wäre das kein Problem für mich...
Das einzige was wohl bei dem Thema stört ist die Hitzeentwicklung und der damit verbundene extreme Mehraufwand diese abzuführen... Im Moment gehts grad noch halbwegs zu kühlen. Bei ner Verdopplung zu heute wird es mit Luft allerdings schon schwer werden...

Mal ganz davon ab, was ist denn nicht richtig?
 
Denn man bedenke auch, mit jeder neuen Kartengeneration sowie auch CPU Generation nimmt die Effizienz idR zu... Das heist, die CPUs/GPUs werden idR sparsamer, wenn man Leistung/Verbrauch betrachtet. Wie viel dann absolut verbraucht werden, spielt da eigentlich keine Rolle... Denn bei weniger Verbrauch braucht man für die gleiche Berechnung halt auch ungleich länger (mit der alten Gen.)

Da hast du natürlich Recht, die Effizienzsteigerung gilt allerdings auch für Mid- und Lowrange Karten.

Zum fiktiven 5000W Monster: so eins würd ich mir zum Rendern auch unter den Tisch (oder eher in nen Nebenraum) stellen. Wäre ideal wenn was schnell berechnet werden soll.
Unter Vollast meist effizienter ist das Problem mit einer (überdimensionierten) Maschine (wie überall) eine höhere Verlustleistung bei Teillast. Das lässt sich teilweise durch intelligentes Design (Powergating, Taktanpassung, Kernstillegung, Spannungsanpassng und co) ausgleichen aber eben nie zu 100%.
Zum zocken bleib ich daher bei meinen 400-600W maximal. Und ich hoffe dass das auch noch ein paar Jahre so bleibt und reicht ^^

mfg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh