Ist der merkliche Fortschritt bei der CPU oder auch PC Performance abgeflacht?

Photoshop profitiert auch von den zwei zusätzlichen Kernen, gegenüber dem X4.

Meinst Du so was :

photoshop.jpg

oder hier :

winrar-real.jpg

Audio auch nicht wirklich, aber bei der Video-Geschichte gebe ich Dir recht, hatte ich aber auch nicht wirklich gemeint ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
auch die spiele leistung ist kaum gestiegen. ich glaube da brachte core 2 -> nehalem mehr. und ich glaube nehalem -> sandy brachte auch mehr.
 
Was hat denn ein Bug in Chipsatz (mal wieder) mit der magern Leistungssteigerung von 5-10% bei Haswell, bzw. CPUs generell zu tun?
 
ja der bug ist irrelevant.
zum thema kann ich nur sagen, meine anfangs prognosen haben sich bewahrheitet. mit haswell wude der fortschritt langsamer.
 
Mit Haswell wird aber auch die GPU deutlich schneller, die Entwicklung schreitet schlicht in eine andere Richtung vorran...
 
selbst wenn die cpu,s in zukunft ne eigene soundkarte an board haben werden, oder einen eigenen lan chip, wäre mir das sowas von egal.
ich als zocker interessiere mich nur für die cpu leistung für mein geld. wenn du dich über diesen "fortschritt" freuen kannst... ich kann es nicht.
 
Soc ist die Zukunft und da interessieren Einzelmeinungen wenig. ;) Außerdem sagte ich nicht, dass mir die Richtung gefällt...
 
was wäre denn dein persönlicher wunsch bei der entwicklung ? auch mehr cpu leistung bei gleichzeitig weniger verbrauch ?
 
Ich persönlich bin kein Fan vom aufbohren der iGPUs, da reicht mir eine 2D-Anzeige als Notfall-Spielzeug. Ich hätte gerne eine Mischung aus Verbrauchssenkung und Leistungssteigerung, meinet wegen auch in die Breit anstatt in die Spitze. Sechs oder Acht ivy Bridge Kerne ohne Server-Gedöns wären was nettes. Nur wird es das leider nicht geben, weil man auf Jahre keinerlei Aufrüst-Anreiz hätte. Was ja Intels Lebensversicherung ist. Alternativ auch gerne Bulldozer mit 40% weniger Verbrauch, der HErsteller ist mir ja relativ egal. Die Mischung ist wichtig Effizienz und Leistung muss vereinbar sein.
 
Ich persönlich bin kein Fan vom aufbohren der iGPUs, da reicht mir eine 2D-Anzeige als Notfall-Spielzeug. Ich hätte gerne eine Mischung aus Verbrauchssenkung und Leistungssteigerung, meinet wegen auch in die Breit anstatt in die Spitze. Sechs oder Acht ivy Bridge Kerne ohne Server-Gedöns wären was nettes. Nur wird es das leider nicht geben, weil man auf Jahre keinerlei Aufrüst-Anreiz hätte. Was ja Intels Lebensversicherung ist. Alternativ auch gerne Bulldozer mit 40% weniger Verbrauch, der HErsteller ist mir ja relativ egal. Die Mischung ist wichtig Effizienz und Leistung muss vereinbar sein.

jetzt verstehen wir uns :drool:
 
Was hat denn ein Bug in Chipsatz (mal wieder) mit der magern Leistungssteigerung von 5-10% bei Haswell, bzw. CPUs generell zu tun?

na Großer, nun sieh das mal nicht so eng. Das Thema schließt schließlich auch die PC-Performance im Allgemeinen mit ein, oder gehört bei dir der Chipsatz nicht zu den Performance beeinflussenden Elementen?

Gruß Proon

na ja, blamabel ists wohl trotzdem, denn es sollte ja stetig vorwärts gehen und der geneigte Anwender/Kunde sollte auf gar keinen Fall zum Beta-Tester degradiert werden!
Meckere nicht, das nennt sich halt Fortschritt und dient nur noch einzig und allein dem Zweck Profit zu scheffeln, denn um echte technische Innovatioenen gehts hier schon lang nicht mehr!

---------- Post added at 09:43 ---------- Previous post was at 09:41 ----------

[/COLOR]
ja der bug ist irrelevant.
zum thema kann ich nur sagen, meine anfangs prognosen haben sich bewahrheitet. mit haswell wude der fortschritt langsamer.

na du erst noch ... . Dann sag mir doch bitte mal was deine CPU ohne relevanten Chipsatz wert ist!
Du bist halt das Fachgenie mit dem gezüchteten Tunnelblick, oder?

Gruß Proon

---------- Post added at 09:45 ---------- Previous post was at 09:43 ----------

[/COLOR]
Mit Haswell wird aber auch die GPU deutlich schneller, die Entwicklung schreitet schlicht in eine andere Richtung vorran...

net von dir, aber das sollten wir dann doch besser den dafür geeigneten GraKas überlassen, findest du nicht auch?

Gruß Proon
 
Zuletzt bearbeitet:
@ proon. ich dachte mit chipsatz bug sei der usb 3.0 bug gemeint. wusste nicht das dadurch auch cpu leistung verloren geht. wenn das so ist, ist der bug natürlich relevant so wie damals beim Phenom I schon.
 
selbst wenn die cpu,s in zukunft ne eigene soundkarte an board haben werden, oder einen eigenen lan chip, wäre mir das sowas von egal.
ich als zocker interessiere mich nur für die cpu leistung für mein geld. wenn du dich über diesen "fortschritt" freuen kannst... ich kann es nicht.


tja, ich auch nicht!
Verdammt kluge Worte. Mag ja nicht jedem gefallen, ist aber so!

Gruß Proon

Hier meinen ja User, dass die Entwicklung nur in eine andere Richtung driftet und das halt in einem CPU Gehäuse ;-)
Wenn ich bessere Grafikleistung brauche, greife ich nach wie vor besser zu einer leistungsfähigeren GraKa, als zu einer umfunktionierten CPU, lol!

---------- Post added at 09:51 ---------- Previous post was at 09:47 ----------

[/COLOR]
Ich persönlich bin kein Fan vom aufbohren der iGPUs, da reicht mir eine 2D-Anzeige als Notfall-Spielzeug. Ich hätte gerne eine Mischung aus Verbrauchssenkung und Leistungssteigerung, meinet wegen auch in die Breit anstatt in die Spitze. Sechs oder Acht ivy Bridge Kerne ohne Server-Gedöns wären was nettes. Nur wird es das leider nicht geben, weil man auf Jahre keinerlei Aufrüst-Anreiz hätte. Was ja Intels Lebensversicherung ist. Alternativ auch gerne Bulldozer mit 40% weniger Verbrauch, der HErsteller ist mir ja relativ egal. Die Mischung ist wichtig Effizienz und Leistung muss vereinbar sein.

na siehste, geht doch :-)

GrußProon

---------- Post added at 09:56 ---------- Previous post was at 09:51 ----------

[/COLOR]
@ proon. ich dachte mit chipsatz bug sei der usb 3.0 bug gemeint. wusste nicht das dadurch auch cpu leistung verloren geht. wenn das so ist, ist der bug natürlich relevant so wie damals beim Phenom I schon.

da hast du Recht, aber mit Einführung der USB 3.0 Schnittstelle, wenn sie dann auch funktioniert, hat so eine Maschine, auch Rechner genannt, doch einen gewaltigen Innovationssprung erfahren, oder wolltest du das bestreiten?
Fixiere dein Denken mal bitte nicht so stur auf CPUs, es geht hier auch um PC Innovationen im Allgemeinen und da hat sich Intel nun mal nicht gerade mit Ruhm bekleckert, zumal es ja nicht das erste Mal ist!
Nun, die Probleme mit USB 3.0 beim Aufwachen sind offenbar behoben, aber diese intergrierten Spannungswandler (FIVR) wollen noch nicht so wie sie sollen ...

Gruß Proon

erstaunlich scheint mir hier schon der Umstand, dass man seinen guten Ruf so leichtfertig aufs Spiel setzt indem man Shit auf den Markt wirft. Na ja, es geht hier halt um Kohle, aber offenbar bedenken diese Strategen nicht, dass ein Rückruf um ein Vielfaches turer werden könnte ...

---------- Post added at 10:39 ---------- Previous post was at 09:56 ----------

[/COLOR]
auch die spiele leistung ist kaum gestiegen. ich glaube da brachte core 2 -> nehalem mehr. und ich glaube nehalem -> sandy brachte auch mehr.

jo mei, man kann doch mal eine Generation auslassen und dann auf wirklich Leistungsfähigeres, falls es dann kommen möge, umsteigen ;-).
Wer sagt denn, dass man den Werbestrategen unbedingt folgen muß, nur weil es ja neuer und damit "in" ist?

Gruß Proon

bewahre dir halt deine Objektivität, denn diese ist quasi unbestechlich
 
Zuletzt bearbeitet:
na Großer, nun sieh das mal nicht so eng. Das Thema schließt schließlich auch die PC-Performance im Allgemeinen mit ein, oder gehört bei dir der Chipsatz nicht zu den Performance beeinflussenden Elementen?
na du erst noch ... . Dann sag mir doch bitte mal was deine CPU ohne relevanten Chipsatz wert ist!
Du bist halt das Fachgenie mit dem gezüchteten Tunnelblick, oder?

Rein Theoretisch sollte es bei Intel auch möglich sein, mit alten Chipsätzen, solange sie mit PCIe angebunden sind, neue CPUs zu betreiben, genauso wie das OC auch ohne Z77 möglich sein sollte... dem steht nur die Geldgier im Weg.
Ich lehne mich mal so weit aus dem Fenster und behaupte, dass selbst AMDs FM2-Chipsätze laufen könnten, dürfe nur eine Treiber/BIOS sache sein.

net von dir, aber das sollten wir dann doch besser den dafür geeigneten GraKas überlassen, findest du nicht auch?
Hier meinen ja User, dass die Entwicklung nur in eine andere Richtung driftet und das halt in einem CPU Gehäuse ;-)
Wenn ich bessere Grafikleistung brauche, greife ich nach wie vor besser zu einer leistungsfähigeren GraKa, als zu einer umfunktionierten CPU, lol!

Die Grafikleistung wird mMn. nur gesteigert, da Intel sich durch AMDs APUs angegriffen fühlt und hier mithalten will. Im Desktopmarkt stimmt deine Einstellung, wer Grafikpower will, kauft eine externe GPU, Mobil sieht es dank Ultrabooks :kotz:, die noch weniger Platz und Gewicht für eine Vernünftige Kühlung, sowie Akku bieten anders aus. Hier dürfte es von Vorteil sein, wenn ich nur einen Hotspot kühlen muss. Den meisten Schaden dürfte wohl Nvidia davon tragen, da immer weniger mini GPUs gebraucht werden.

da hast du Recht, aber mit Einführung der USB 3.0 Schnittstelle, wenn sie dann auch funktioniert, hat so eine Maschine, auch Rechner genannt, doch einen gewaltigen Innovationssprung erfahren, oder wolltest du das bestreiten?
Fixiere dein Denken mal bitte nicht so stur auf CPUs, es geht hier auch um PC Innovationen im Allgemeinen und da hat sich Intel nun mal nicht gerade mit Ruhm bekleckert, zumal es ja nicht das erste Mal ist!
Nun, die Probleme mit USB 3.0 beim Aufwachen sind offenbar behoben, aber diese intergrierten Spannungswandler (FIVR) wollen noch nicht so wie sie sollen ...

Innovation mit USB3 hin oder her, der Vorgänger konnte es auch schon (meines Wissens fehlerfrei). Vor allem handelt es sich "nur" um eine schon länger notwendige Geschwindigkeitssteigerung.
Mehr Innovationspotential sehe ich aktuell bei AMDs HSA-Konzept, da hier weniger Lesitung durch Daten-kopieren, Overhead der Protokolle verschenkt wird und der Code direkt auf der passenden Ausführungseinheit ausgeführt werden kann.
Das mit den Integrierten Spannungswandlern erschließt sich mir nicht, da die Energiespeicher (Spule) immer noch außerhalb sitzen wird. Es kann nur schneller auf Laständerungen reagiert werden, was vllt. 0,5Wh spart. Es gibt genug gute Schaltregler, die das genauso gut können.

erstaunlich scheint mir hier schon der Umstand, dass man seinen guten Ruf so leichtfertig aufs Spiel setzt indem man Shit auf den Markt wirft. Na ja, es geht hier halt um Kohle, aber offenbar bedenken diese Strategen nicht, dass ein Rückruf um ein Vielfaches turer werden könnte ...
na ja, blamabel ists wohl trotzdem, denn es sollte ja stetig vorwärts gehen und der geneigte Anwender/Kunde sollte auf gar keinen Fall zum Beta-Tester degradiert werden!
Meckere nicht, das nennt sich halt Fortschritt und dient nur noch einzig und allein dem Zweck Profit zu scheffeln, denn um echte technische Innovatioenen gehts hier schon lang nicht mehr!
Der verbugte Chipsatz hat ihnen bei Ivy schon nicht geschadet, also warum sollte man dann anders fahren? solange der Kunde es frisst, ... Aus meiner Sicht eine Frechheit.
 
Was das OC mit Chipsatz und die Geldgier angeht sollte man sich mal fragen wie viele Leute auf einer full unlocked FX-CPU rumdaddeln ohne sie jemals zu übertakten. Die Reale Welt ist außerhalb von Nerdhausen und seinen Ansprüchen. Und Ivy hatte keinen verbuggten Chipsatz sondern Sandy und du kannst ja mal fdsonne fragen wie viele seiner SATA-Geräte inzwischen gestorben sind, laut Sig betreibt er ein Board mit B2-Stepping.

Ansonsten ist diese AMD vs Intel-Diskussion dezent am Thema vorbei, weil es sich um die Firmen udn nciht um die technische Entwicklung an sich bei Ihnen dreht. ;)
 
Das nur ein kleiner Prozentsatz seinen Prozessor übertaktet ist mir klar, aber was zum Geier hat denn ein Chipsatz, der nur Peripherie zur Verfügungstellt denn damit zu tun, ob ich Übertakten kann oder nicht?

Das man mit einem billigen H61 Board nicht OC-Rekorde erstellen können muss sollte klar sein, hier sollten aber die Spannungswandler der limitierende Faktor sein und nicht so was unbeteiligtes wie ein Chipsatz ;)

Ob der Fehler bei Sandy oder Ivy aufgetreten ist, ändert nichts daran, das er so ausgeliefert wurde. Das Chipsätze hier nicht zum Thema gehören, OK, aber damit hab ich auch nicht angefangen, ich hab nur auf die Aussage reagiert, dass ein Chipsatz Bug die Entwicklung von CPUs bremst.

Wo du in meinem Post eine AMD-Intel-Diskussion siehst ist mir nicht ganz klar. Ich habe nur geschrieben, warum sich mMn. die Entwicklung bei den einzelnen Herstellern so verhält, wie sie sich verhält. Ich bin speziell auf die Entwicklungen der einzelnen Firmen eingeganen, also warum darf ich sie nicht beim Namen nennen? Ich kann auch grüner, roter und blauer Poweranger schreiben, wenn dir das lieber ist, das trägt aber nicht zur Lesbarkeit bei. Das eine leichte Kritik an Intel vorhanden ist, leugne ich nicht, ich habe halt meine Meinung geäußert, dafür ist ein Forum ja da. Das ich dir das erklären muss ... ;)
 
Technsich gesehen hat das auch ncihts mit dem Chipsatz zu tun, das ist einfach gesperrt, das habe ich auch nicht bestritten. ;) Nur ist der Ansatz gemessen am Gesamt-Markt eigentlich nicht verkehrt. 90% der Anwender übertakten ihre CPU nie im Leben und die die OC betreiben erhöhen Leistungstechnisch theoretisch die Laufzeit ihrer CPU, warum nicht dafür bezahlen lassen. Kann man natürlich auch kacke finden, aber mich juckt es nicht.

Das mit dem Chipsatz-Bug habe ich dann falsch verstanden Sorry. ;)

Wo ich die AMD vs Intel-Diskussion sehe? HSA und dass Intel sich von AMD angegriffen fühlt. ;) AMD hat Intel da definitiv gezeigt wo da Märkte sind, aber an ihren iGPUs schraubt Intel schon länger, wenn auch recht inkompetent, gemessen am Finanz-Potenzial. Die eigene Meinung äußern ist auch in Ordnung, aber man sollte das in diesem Kontext eher etwas allgemeiner halten. So fließt inzwischen bei beiden Herstellern viel Halbleiter in die iGPU, bei AMD halt effizienter als bei Intel. ;)
 
HSA ist keine AMD vs. Intel, da Intel hier auch mit machen kann, es aber nicht will. Auch wenn AMD das ganze ins Leben gerufen hat, wird es als offener Standard entwickelt.

Das Intel an ihren iGPUs schon immer schraubt stimmt, aber die Werbung, dass man mit ihren iGPUs auch spielen kann und die großen Leistungssprünge in dem Bereich sind neu und das hat AFAIK erst mit der Einführung von Llano angefangen.
 
Rein Theoretisch sollte es bei Intel auch möglich sein, mit alten Chipsätzen, solange sie mit PCIe angebunden sind, neue CPUs zu betreiben, genauso wie das OC auch ohne Z77 möglich sein sollte... dem steht nur die Geldgier im Weg.
Ich lehne mich mal so weit aus dem Fenster und behaupte, dass selbst AMDs FM2-Chipsätze laufen könnten, dürfe nur eine Treiber/BIOS sache sein.




Die Grafikleistung wird mMn. nur gesteigert, da Intel sich durch AMDs APUs angegriffen fühlt und hier mithalten will. Im Desktopmarkt stimmt deine Einstellung, wer Grafikpower will, kauft eine externe GPU, Mobil sieht es dank Ultrabooks :kotz:, die noch weniger Platz und Gewicht für eine Vernünftige Kühlung, sowie Akku bieten anders aus. Hier dürfte es von Vorteil sein, wenn ich nur einen Hotspot kühlen muss. Den meisten Schaden dürfte wohl Nvidia davon tragen, da immer weniger mini GPUs gebraucht werden.



Innovation mit USB3 hin oder her, der Vorgänger konnte es auch schon (meines Wissens fehlerfrei). Vor allem handelt es sich "nur" um eine schon länger notwendige Geschwindigkeitssteigerung.
Mehr Innovationspotential sehe ich aktuell bei AMDs HSA-Konzept, da hier weniger Lesitung durch Daten-kopieren, Overhead der Protokolle verschenkt wird und der Code direkt auf der passenden Ausführungseinheit ausgeführt werden kann.
Das mit den Integrierten Spannungswandlern erschließt sich mir nicht, da die Energiespeicher (Spule) immer noch außerhalb sitzen wird. Es kann nur schneller auf Laständerungen reagiert werden, was vllt. 0,5Wh spart. Es gibt genug gute Schaltregler, die das genauso gut können.



Der verbugte Chipsatz hat ihnen bei Ivy schon nicht geschadet, also warum sollte man dann anders fahren? solange der Kunde es frisst, ... Aus meiner Sicht eine Frechheit.


irgendwo hast du Recht, aber damit soll wohl eine "feinkörnigere"Regelung realisiert werden können. Außerdem ist die TDP des Boards insgesamt niedriger zu halten, obwohl die des Chips selber steigt, also, was bringts letztendlich?

nicht nur aus deiner Sicht ist es eine Frechheit, das ist Ausdruck von Arroganz und ich denke, die Geduld des geneigten Kunden ist nicht unendlich strapazierbar, oder sollte es zumindest nicht sein.

Gruß Proon
 
Zuletzt bearbeitet:
Als wenn der geneigte Endkunde sich Gedanken macht wo ​die Spannungsregler sitzen, der weiß gar nicht dass es die gibt...^^ Ein Board hat keine TDP und die der CPU steigt primär wegen der integrierten Spannungsregler...
 
@Nighteye

Ich bin auch eher der Meinung wie Mick_Foley daß derzeit der Fortschritt bei der CPU bzw. die PC Performance (wie schon im Threadtitel geschrieben) NICHT abflacht, aber halt in andere Richtungen geht. Forstschritt wie schon erwähnt bestimmt nicht denn es kommen ja laufend neue Technologien dazu und die CPUs entwickeln sich doch etwas mehr in die Breite bzw. in Richtung Effizienz.
PC Performance wie zuvor schon fdsonne geschrieben hat ist in dem Sinn auch nicht wirklich abgeflacht, aber halt auch eher in die Breite gegangen bzw. durch die verschiedenen Plattformen und OC Varianten "K" sowie "BE" und "FX" Modelle in eine etwas andere Richtung.
Die ein Kern Leistungssteigerung die Dir ja wichtig ist kann man jedoch sagen ist schon etwas abgeflacht. Zwar werden die Kerne auch immer besser und effizienter, allerdings (mitunter) durch mangelnde Taktsteigerung nicht so deutlich schneller wie damals zu ein Kern CPU Zeiten und eventuell auch knapp danach mit den Dual Cores.
Allerdings ein altes Spiel wie SC als Benchmark der gesamten PC Leistung bzw. CPU herzunehmen ist etwas falsch da man hier eben nicht die komplette Leistung testet sondern eben lediglich einen bis zwei (oder gar drei?) Kerne und auch nicht auf neue Funktionen aktueller CPUs zugreift.
Generell geht es im Gaming Bereich schon voran, allerdings auch langsamer als es sollte. Es gibt jedoch schon einige Spiele die von aktuellen CPUs bzw. vielen Kernen und auch HT profitieren. Und dort sieht man dann auch den Unterschied zwischen z.B. einem Core2Quad und einem aktuellen i7.


erstaunlich scheint mir hier schon der Umstand, dass man seinen guten Ruf so leichtfertig aufs Spiel setzt indem man Shit auf den Markt wirft. Na ja, es geht hier halt um Kohle, aber offenbar bedenken diese Strategen nicht, dass ein Rückruf um ein Vielfaches turer werden könnte ...

Naja ich würde da mal nicht so hart urteilen denn bis jetzt wurde noch kein fehlerhafter Haswell Chipsatz auf den Markt geworfen. Wenn man noch vor dem Release auf Fehler drauf kommt und diese ausbessert, wieso nicht? Viele die sich nicht damit beschäftigen wissen das nicht einmal daß es da Probleme gegeben hat und werden es auch wohl nie erfahren. Ich kann mir auch vorstellen daß es viele Probleme gibt die vielleicht auch erst kurz vor dem Release gefixed werden von denen nie jemand ausserhalb der Entwicklung erfährt. Ist das so schlimm?

Anders sind natürlich Fehler und Probleme die auftauchen nachdem die Sachen auf dem Markt gekommen sind wie eben der Bug der ersten Sandy Bridge 60er Chipsätze. Auch Fehler wie z.B. einige der ersten Pentium (60 und 66MHz) Modelle hatten sind da schon eher peinlich. Oder auch Probleme die sich auf die Namensgebung auswirken wie z.B. der KT133 Chipsatz von VIA der ja aufgrund von Problemen gar keine 133MHz FSB konnte wie der Name eigentlich sagen wollte und auch die Pläne von VIA in diese Richtung gingen. (Erst der KT133A kurz danach konnte das). Somit wurde dann kurzerhand gemeint daß sich die 133 auf den Speicher bezogen (welcher bereits mit 133MHz angesprochen werden konnte).
Allerdings war das "Speicherbezeichnungsschema" beim KT400 wieder über Board denn dieser konnte entgegen der Bezeichnung keine DDR-400 Speichergeschwindigkeit und auch keinen FSB von 200MHz (bzw. 400 DDR).
Danach hat man dann anscheinend das Namensschema betreffend RAM oder FSB Geschwindigkeit zu benennen komplett über den Haufen geworfen und mit KT600 (200MHz FSB und DDR-400 Support) und letztlich KT880 weitergemacht.
 
Generell geht es im Gaming Bereich schon voran, allerdings auch langsamer als es sollte.

ich denke das ist der grund warum ich der meinung bin das die leistung abgeflacht ist.
wir haben so viele tolle neue befehlssätze und 8 threads für den kleinen geldbeutel, und dennoch nur wenige spiele die dies nutzen.

bei den cpu entwicklungen damals profitierten die spiele immer davon. daher bin ich der meinung, haben wir zu viel entwicklung in schnick schnack, und zu wenig entwicklung in rohleistung. daher mein urteil. ich will mehr rohleistung für den kleinen geld beutel wie es auch in der vergangenheit war.
 
Wann war den ROH-CPU-Leistung, inflationsbereinigt, schon mal deutlich billiger als jetzt? :hmm:
 
na mick du vergleichst das anders als ich. natürlich haben wir heute mehr leistung als damals, dem fortschritt sei dank. es geht mir aber um den kontext des themas. sprich, mehr rohleistungssteigerung von gen zu gen.
 
Das habe ich verstanden, aber es ist doch mehr oder weniger nichts teurer geworden. Der E8300 Q2 2008 für 150€ erschienen, heute bekommst du für 50€ Pentiums die deutlich schneller - knapp ein drittel vom Preis und ca 40% mehr Leistung. Über den Preis kann man dabei nicht meckern im Moment, das wird erst ab Intels X6 relativ teuer...
 
einen E8400 würde ich nicht als referenz nehmen. lieber die damaligen AMD Athlon II (K10,5 Kern ohne L3). die waren P/L technisch das beste damals.
 
Das Ding bot ein eine relativ hohe Rohleistung für kleines Geld, das ist aber analog der Pentium aus meinem Vergleich zu einem vorigen Athlon oder so, ich bin da gerade zu faul das sinnbildliche Gegenstück zum E8300 zu finden...

Ich weiß gar nciht wie tief man gehen müsste um da den aktuellen sinn gemäßen Nachfolger zu finden...^^
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh