Haswell-CPUs verkaufen sich mit geringer Nachfrage

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe mit meinem 4670K mit StandardTakt unter Prime 95
ca. 68 bis 59 Grad an den einzelnen Kernen und dem Sniper M5
Der heisseste wird eben etwa 68 Grad, der kühlste bleibt bei 59 bis 60 Grad.

@Roach
Wie siehts bei Dir da aus ?
Dank!
 
kann ich dir leider nicht sagen, da ich noch kein prime hab laufen lassen. ist eh nicht übertaktet und von daher brauch ich das nicht. aber beim zocken war max temp bisher 65 grad auf einem kern, der voll ausgelastet war.
 
Ja, bei Prime95 sind Extrembedingungen
Zudem läuft der Skype Mugan 3 Rev. B wohl dann mit 100 prozent, von der Lautstärke fühlt sich dies recht laut an.

Werde heute mal bei diesen beiden Benchmarks/ Metro LL und Valley
die CPU / Kern Temperatur im Auge behalten.
Prime 95 ist ja nur für extremes OC gedacht, zum Stabilitätstest ... :-)
 
Da schwimmt auch eine Portion "Sich nicht mit der Materie auseinandersetzen wollen" mit. Wie viele schreien hier nach achtkernern und 80Ghz Takt, bei 90% der Leute hier langweilt sich in Wirklichkeit ein i5 @Stock beim "Gamen"...

Super Idee, Im Server Bereich werden 12 Cores verkauft und im Consumerbereich gibts "Performance-CPUs" mit 4 Cores. Seit Jahren dergleiche Rotz nur mit neuem Sockel und nun auch immer öfter 5% Sprünge. Und als Argument kommst du mit "braucht ja eh keiner". Klasse, dann können wir ja gleich aufhören neue Hardware zu kaufen. Ach stimmt ja - die Kunden machen ja mittlerweile genau das, der PC-Markt is ja rückläufig.


Viele kaufen sich eine Haswell CPU und sind einfach glücklich damit, wenn sie als kleinen Bonus 200-300 MHz über den Turbo hinaus takten können.
Bescheidenheit ist einigen Luxxern fremd und viele sind von Sandy/Ivy Bridge her verwöhnt bzw. verdorben worden. ;)

Meines Erachtens beschneidet Intel das OC immer mehr. Ist schon sehr auffällig. Seit C2Q gibt es ....
- keine günstigen CPUs mit vielen Kernen und geringem Takt (Im Gegensatz zum Serverbereich)
- nur noch K-Modelle welche eine gewisse Preisklasse vorraussetzten
- nur noch K-Modelle welche ein OC der gesamten Plattform unterbinden
- einen parallelen High-End Sockel (keine CPUs mit vielen Kernen im Mainstream - technisch nicht notwenig)
- integrierte Spannungswandler welche die Kerntemp stark erhöhen
- verklebte statt verlötete CPUs welche die Temp erhöht

Haswell ist die erste CPU welche sich schlechter OCen lässt als der Vorgänger bei gleicher Architekturbasis. Also nicht sowas wie P4->C2D

Und wie gut die Langlebigkkeit durch diese integrierten Spannungswandler ist muss sich noch zeigen. Besonders bei hohem OC und hoher Spannung. Wenns schon kein DX für CPUs gibt als "Verfallsdatum" und die Performancesprünge immer kleiner werden ja eine super "Sollbruchstelle". Ich bin wirklich auf die Langzeiterfahrungen gespannt. Und vor allem ob der Serverbereich auch dieses "Feature" erhält. In einem Blade sind noch mal ganz andere thermische Belastungen.
 
Super Idee, Im Server Bereich werden 12 Cores verkauft und im Consumerbereich gibts "Performance-CPUs" mit 4 Cores. Seit Jahren dergleiche Rotz nur mit neuem Sockel und nun auch immer öfter 5% Sprünge. Und als Argument kommst du mit "braucht ja eh keiner". Klasse, dann können wir ja gleich aufhören neue Hardware zu kaufen. Ach stimmt ja - die Kunden machen ja mittlerweile genau das, der PC-Markt is ja rückläufig.

Im server-Bereich gibt es auch Software, die diese 12 Kerne ausreizt. Im Dektop-Markt besteht 90% der Software aus Titel, die eine i3 mal gerade so fordern. Lastet die Software heutige Systeme nicht richtig aus, bringt einem mehr vom selben auch nichts. Kannst dir ja gerne mal die Erfolgsgeschichte der FX 8xxx ansehen, die stinken gerne sogar gegen i3s ab, weil die Software nicht weit genug parallelisiert ist. Ein fiktiver Intel Achtkerner würde dies dort analog tun.
 
Ist kein riesen Unterschied aber jetzt noch auf eine veraltete Platform zu setzen, wenn die neue P/L praktisch gleich ist sehe ich als nicht so schlau an. Haswell hat an Verbrauch, Sata Ports usw. durchaus seine Vorteile. Wenn du vor hast dir ein K Modell mit günstigem Mainboard zu kaufen solltest du ne Ecke billiger mit Haswell rauskommen, die meisten Boards mit kleineren Chipsätzen können mit einem Biosupdate auch den Multiplikator ändern. Vorrausgesetzt du willst keinen Dualcore kaufen, die sind noch nicht raus als Haswell Versionen.

ups, noch einer der Haswell nicht kauft ;)

Bin durch Zufall an Nehalem gekommen, das dürfte auch heute noch genug Power haben für mich, und befriedigt meinen Spieltrieb und meien Technikfaszination mehr als ein neuer Haswell ;)

QPI und TrippleChannelSpeicher sidn irgendwie exotischer ;)

NextGen müsste für mich dann wohl eher Haswell-EP sein ;)
 
Der FX 8xxx ist grottig. Da ändert auch Multithreading nicht viel. Aber dir ist schon klar, dass Anforderungen der Software an die Hardware und Leistungssteigerungen der Hardware schon zusammenhängen. Oder anders gesagt wenn 99,999% der Nutzer 4 Kerne haben wird kein Softwareentwickler der Welt mehr paralelisieren. Die Hardware muss immer vorrausgehen, das war schon immer so. Und dann kommt die Software.


Das ist im Grafikkartenbereich und den Performancsprüngen dort auch nicht anders. Wenn man überlegt wie lange heute Grafikkarten reichen. Das liegt nicht nur an den Konsolen, es gibt ja auch genug PC-only Titel.
 
Zuletzt bearbeitet:
Der FX 8xxx ist grottig. Da ändert auch Multithreading nicht viel. Aber dir ist schon klar, dass Anforderungen der Software an die Hardware und Leistungssteigerungen der Hardware schon zusammenhängen. Oder anders gesagt wenn 99,999% der Nutzer 4 Kerne haben wird kein Softwareentwickler der Welt mehr paralelisieren. Die Hardware muss immer vorrausgehen, das war schon immer so. Und dann kommt die Software.

Die Quadcores gehen schon seit fast sechs Jahren voraus und die Software kommt immer noch nicht hinter her, was sollte ein weiteres ausbauen der Hardware bringen? Selbst Smartphones gehe sinniger mit ihrer Hardware um als der Desktop-Markt und das liegt nicht an fehlender Leistung, sondern an der schlechten Consumer-Software. Was technisch möglich ist, zeigt die teuere "Pro"-Software.

P.S.: Dein GPU-Beispiel zeigt es doch, hier wird die Hardware regelmäßig von der Software ausgelastet...
 
Zuletzt bearbeitet:
Für mich sind die meisten Ultraeinstellungen der Games reinste Augenwischerei. ES sieht kaum besser aus frist aber extrem viel Leistung. Einen Hype den man seit Crysis ausgelöst hat. Wenn ein Spiel nicht annähernd eine High-End Grafikkarte in die Knie zwingen kann dann ist es ja nicht "auf der Höhe der Zeit"... Ungeachtet davon ob der Mehrwert gerechtfertigt ist. Ändert trotzdem nicht daran, dass man mit einer der ersten DX11 Karten kaum Einschränkungen zu heute hat. Das ist kein Vergleich zu damals. Und es interessiert die Masse nicht ob hier 1-2 Nerds mit Tripple-Screen und 3D mit exotischen Settings über den Treiber zocken und diese Hardware brauchen.

Tja woran liegt denn das, dass heute selbst QuadCores nicht voll ausgelastet werden? Doch nicht etwa an den 3 Kernen in den aktuellen Konsolen? Aber auch hier kann man das Ganze wieder herunterbrechen. Die Hardware geht der Software vorraus. Keine neue Konsolen keine neue Anforderung an die Hardware.

Nach deiner Logik hätte es nie DualCores gegeben und die 1Ghz Marke hätten wir heute durchbrochen. Es hat Jahre gebraucht bis die DualCores richtig genutzt wurden. Aber das kannst du auch auf andere Bereiche projezieren, egal ob DX-Hardwarelevel, Befehlssätze, etc immer kommt zuerst die Hardware.
 
Zuletzt bearbeitet:
Klär uns auf, ich verstehs auch nicht ganz :fresse:

Finde die Argumente von G3cko schon recht hieb- und stichfest.
 
Gecko sagt, dass die Hardware voran gehen muss. Dem würde ich auch nicht wieder sprechen, nur ist die Software beim letzten Voranschreiten schon nicht wirklich nachgezogen. Wir sind auf einem Software-Stand für Konsumenten, bei dem ein mehr oder weniger aktueller Dual Core meist nicht mal richtig an seine Grenzen kommt. Dabei gibt es seit sechs Jahren Quadcores, der dazugehörige Entwicklungsschritt in der Breite der Software fehlt. Was bringt dann noch ein weiterer Hardware-Entwicklungsschritt? Dann ist die Hardware zwei Schritte weiter als die Software. Was willst du mit acht Intel Kernen machen? 120 Browsertabs öffnen? Die Leistung pro Kern/Thread ist inzwischen ziemlich hoch, so hoch, dass selbst ein FX 8350 bei allen ausgefahrenen Threads nur 20% schneller ist AMD FX-9590 Prozessor im Test (Anhang 15) - ComputerBase, also bei voller Breite. Lastet die Software die heutigen CPUs nicht stärker aus, bringt es auch nichts noch mehr ungenutztes potenzial liegen zu lassen.

Es werden immer gerne Zahlen gefordert ohne sich mit der realen Leistungsfähigkeit auseinanderzusetzen. Gecko hat z.B. einen Q6600 im Einsatz, ein aktueller Haswell i7 dürfte @Stock ca doppelt so schnell sein. Natürlich schrumpft durch OC der Abstand, selbst wenn man Haswell auch übertakten würde. Trotzdem wäre der Leistungsabstand bei OC von beiden CPUs immens, trotzdem reicht ihm der alte Quad anscheinend und er will warten, bis es Achtkerner gibt. Wenn die Leistung eines übertakteten sechs Jahren alten Quads heute noch ausreicht, obwohl ein übertakteter i7 fast das Doppelte an Leistung bringen würde, was würden denn dann acht Kerne verändern?
 
nur mehr zukunftssicherheit.

Gesendet von meinem MB525 mit der Hardwareluxx App
 
Habe ich damals bei meinem 1055t auch gedacht... :d Wobei das ja theoretisch stimmt. ;)
 
Ich kann das aus der Sicht von Intel auch nachvollziehen, sehe es aber als Konsument nicht ein. Ich möchte eben auch einen gewissen Grad an Zukunftssicherheit und ob 4 Kerne bei den neuen Konsolenports reichen weiß man eben nicht. Ich erinnere mich da an diverse Spiele welche einen DualCore vorraussetzten und sich mit einem SingelCore nicht einem starten ließen. Und ich meine hier wirklich starten und nicht nur wenige fps.

Was mich aber am meisten stört, ist das die Fertigungsprozesse immer kleiner werden, daher man locker mehr bieten könnte. Stattdessen wird einem eine zusätzliche GPU aufgezwängt. Aber selbst mit GPU ist die Chipfläche ein Witz. Parallel hierzu werden im Smartphone 8-Kerner vorgestellt. Sicherlich keine Frage, die Chips sind nicht zu vergleichen, aber das muss man sich mal auf der Zunge zergehen lassen wie lange dazu nun Quads im Mainstream sind.
 
Die Masse braucht eben heute keine CPUs mit mehr wie acht Threads. Ja kann nichtmal die 8 Threads der aktuellen Threads im Schnitt so auslasten, das es eben für einen Hersteller Sinn ergeben würde, noch breitere CPUs im Niederpreissegment zu bringen.
Man sollte nämlich das ganze P/L Konstruckt auch mal von der anderen Seite betrachten. Nämlich vom Preis. Stellt euch mal die Preise vor, was eine Dualcore CPU kosten würde, hätte Intel analog zu S775 die schnellsten CPUs im S1150/S1155 gebracht? Da wäre die teuerste CPU dann als Extrem mit 10/12 Cores für ~1000€ auf dem Plan. Was soll da die Einstiegsklasse kosten? Bekommt man dann noch nen Hunni in die Hand gedrückt vom Händler, wenn man nen Dualcore nimmt? Oder wie soll das laufen?
Der Weg, den Intel gegangen ist mit S1366/S1156, nämlich die abermalige Splittung des Marktes in Mainstream und HighEnd ist rückblickend schon sehr schlüssig. Denn wir bekommen heute die mit Abstand schnellsten CPUs der überwiegenden Alltagsanwendungen für unter 300€. Das gab es seinerzeit schlicht nicht. Verzichtet man auf SMT, sinds gar nur 200€.

Und wer mehr will, kauft halt mehr, soll sich aber auch nicht über den Preis beklagen. Verschenken wird kein Hersteller irgendwas...
Ich finde es immer wieder witzig, wie Leute hier 8 Core/16 Thread CPUs verlangen im Mainstreambereich. Lass mal noch ein Jahr vergehen, dann schreit man nach 12 Core/24 Thread CPUs.
Ganz ehrlich, warum kaufen diese Leute sicht nicht entsprechende Hardware heute schon? Und diese gibts definitiv. Schimpft sich Xeon und kann mit aktuell bis 2x8Core Sandy-E Kernen und 768GB RAM pro CPU deutlich mehr... Oder als Quadsockel S2011. Mit Ivy-E ab Herbst gehts dann auf 2/4x12C/24T.
Denn wer heute 8C/16T CPUs im Mainstreambereich verlangt, wird diese auch auslasten können -> hat aber definitiv und da gehe ich jede Wette ein, auch kein Problem damit, 24 oder 32 Threads zu befeuern. Ja selbst noch mehr, sollten kein Thema sein. Denn eine Anwendung, die 1A auf 16 Threads skaliert, lässt sich so gut parallelisieren, das diese auch auf noch mehr Threads skalieren würde. -> Fakt!

Bleibt also unterm Strich einzig und allein die Frage, warum kauft man sowas dann nicht? Und schon sind wir wieder beim Preis...
Der Supersportler, der 300km/h auf der Bahn bringt, kost nunmal nicht nur 10.000€... ;) Irgend so ein Ducia aber ist dafür zu haben. Nur fährt der keine 300. -> sollte klar sein.

Für mich sind die meisten Ultraeinstellungen der Games reinste Augenwischerei. ES sieht kaum besser aus frist aber extrem viel Leistung. Einen Hype den man seit Crysis ausgelöst hat. Wenn ein Spiel nicht annähernd eine High-End Grafikkarte in die Knie zwingen kann dann ist es ja nicht "auf der Höhe der Zeit"... Ungeachtet davon ob der Mehrwert gerechtfertigt ist. Ändert trotzdem nicht daran, dass man mit einer der ersten DX11 Karten kaum Einschränkungen zu heute hat. Das ist kein Vergleich zu damals. Und es interessiert die Masse nicht ob hier 1-2 Nerds mit Tripple-Screen und 3D mit exotischen Settings über den Treiber zocken und diese Hardware brauchen.

Der Vergleich hinkt aber doch schon gewaltig...
Diese besagten Ultrasettings gibts nicht erst seit Crysis. BQ steigernde Maßnahmen gibts seit fast Anfang der 3D Spiele... Und setzte schon immer auch enorme Leistungsfähigkeiten der Hardware vorraus...

Wie so oft heist es aber auch hier, wer mehr will, muss auch mehr zahlen. Nur stellt sich die Frage, wer dazu bereit ist!? Komisch ist nur, das oftmals die Leute es als "unnütz" einschätzen, die es selbst nicht nutzen... Ich persönlich knall immer SGSSAA rein, wenn es geht. Oder nutze diverse AA Modi, zur Not auch Downsampling um die lästige Treppchenbildung möglichst vollständig zu unterbinden. -> und wenn die Hardware es nicht mehr mitmacht, kommt eben neue (schnellere) rein... Und warum? Weil es es mir wert ist und ich es mir leisten kann.
Das gleiche gilt auch bei der CPU. Ich hab seinerzeit Dual Dualcore Xeon auf Core2 65nm Basis genutzt. Um eben mehr wie seinerzeit übliche zwei Cores zu haben. Und weil das Angebot deutlich attraktiver war, als seinerzeit die QX6700/QX6800, ja sogar als die ersten Q6600.

Was mich aber am meisten stört, ist das die Fertigungsprozesse immer kleiner werden, daher man locker mehr bieten könnte. Stattdessen wird einem eine zusätzliche GPU aufgezwängt. Aber selbst mit GPU ist die Chipfläche ein Witz.

Dafür kostet die CPU aber auch nur noch einen "Witz"...
200€ für den i5-4670K ist für diese Leistungsfähigkeit eine ziemliche Hausnummer.

Und bei der IGP, ich denke, das Intel hier analog zu S1366/S1156 eine Marktsplittung vornehmen wird. Wie sich auch schon andeutet. Denn die Iris Pro APUs gibts nicht im Desktop Bereich. Und sollen doch wenn mich nicht alles täuscht, dort auch nicht kommen... Erst wenn die Alltagsanwendungen hier höhere Anforderungen stellen werden, wird man wohl hier nochmal deutlich nachlegen...
Dass es durch die IPGs teurer wird, kann man wohl nicht behaupten. Siehe zu Core2 Zeiten -> ohne IGP und auch nicht günstiger ;)
 
Der Weg, den Intel gegangen ist mit S1366/S1156, nämlich die abermalige Splittung des Marktes in Mainstream und HighEnd ist rückblickend schon sehr schlüssig. Denn wir bekommen heute die mit Abstand schnellsten CPUs der überwiegenden Alltagsanwendungen für unter 300€. Das gab es seinerzeit schlicht nicht. Verzichtet man auf SMT, sinds gar nur 200€.

Sry aber was redest du da für einen Blödsinn? Zu C2Q Zeiten haben Games vereinzelnt 2 Threads genutzt. Aber wirkich nur vereinzelnt. Wie kann man das nur so schön reden das wir ja heute soviel Leistung bekommen? Ich meine ganz ehrlich ich bin im Abstand von 2 Jahren von PentiumD auf einen C2Q umgestiegen. Ich gebs ja zu ich habe meine Ansprüche schon runtergeschraubt und erwarte auch keine 8 Cores wenn es ein Gescheiter 6-Kerner im Preissgment 200-300€ ist. Überleg mal welcher Zeitraum zwischen C2Q und heute liegt. Hier schreit niemand nach 8 Cores und morgen schon nach 12.

Und an 5% Leistungssteigerung gibts nix schön zureden. Besonders nicht bei einem Tock! Bei AMD hätten alle rumgeheult wenn der Bulldozer 5% drauflegt. Bei Intel ist es ok weil keine Software es aktuell braucht?

Und vor Crysis war das im Leben noch nicht so extrem wie heute. Kannst ja mal BeispielE nennen. Guck dir doch mal die ganzen BF3 Settings an. viele haben auf Normal, Mittel, Hoch, Ultra Null Effekt. Tesslation teilweise mit kaum mehrwert wie PhysiX lässt die fps einbrechen. etc etc usw
 
so schauts aus... Und auch Intel scheint das so zu sehen. Denn die Anwender, die eben mehr Threads voll ausfahren können, greifen auch zu Platformen, wo diese CPUs mit mehr Cores drin sind.
Und das kostet eben mehr. Siehe S2011, Dual S2011 oder Quad S2011. Oder damals noch S1366, Dual S1366 usw.
Der Mainstream Bereich will es idR so günstig wie möglich. Und hier bekommt man seit S1156 eben die beste Alltagsleistung in Sachen CPU. Anständige Multithreadingleistung für den Preis und verbraucht dazu auch nicht viel Strom...

Wie gesagt, der Knackpunkt ist, wer 4-8 Threads spielend voll auslasten kann, der kann auch 16 oder 24 oder oder oder Threads voll auslasten. Diesen Umstand hat Intel erkannt.
Dsa geht beispielsweise mit Bild/Videobearbeitung oder CAD Anwendungen usw. Games gehören aber nicht primär dazu. Ggf. einige Ausnahmen gibts, aber das war es auch schon.


@G3cko
ob Games nur zwei Threads nutzen oder nicht, sei mal dahingestellt. Wenn ich mir meinen Taskmanager ansehe, da laufen da 1000+ Threads gleichzeitig ;)
Der Vorteil beim Dualcore ist/war seinerzeit schlicht, das nicht eine einzige Aufgabe den ganzen PC vollständig in die Ecke fahren kann. Dieses Problem bestant nämlich seinerzeit bei den Athlon/Athlon XP/Athlon 64 CPUs. Intel hat mit HT/SMT nachgelegt und diesen Effekt weitestgehend eliminiert, bis man voll auf zwei echte Cores gesetzt hat. Ob irgend ein popliges Game da nun schneller rennt oder nicht, ist vollkommen nebensächlich...
 
Dann sehe ich das eben anders. 0 Innovation = 0 Geld. Da fällt mir die Entscheidung nicht schwer.

Als würde ich Hardware kaufen wenn ich sie wirklich brauche... :haha:
 
Ein Problem wird einfach sein, dass immer weniger Leute PCs kaufen. Früher gabs halt keine Tablets (die auch gekauft wurden) und Smartphones und die Leute haben sich um den neusten Aldi PC geprügelt. Das Argument des PCs war "Intel Prozessor" und viel "MHz", was Intel ja zum Netburst-Debakel geführt hat.

Intel will halt nicht den gleichen Weg wie Dell jetzt gehen und versucht sich auf mobile CPUs zu konzentrieren. Desktop CPUs sind ja auch mehr als schnell genug für Mutti und Onkel Otto. Mit einem Haswell 4 Kerner surft sichs nicht schneller als mit einem Core 2 Duo und die paar Office und Photoshop-Sachen packt der C2D ja auch noch locker.
 
Wenn die alten CPUs kaputt gehen, werden wieder neue gekauft :p
Oder wenn die Stromrechnung noch höher wird. Au0er es gibt gar keinen Strom mehr dann :>
 
Alle reden hier von "Software", die anscheinend nicht optimiert sei für mehrere Kerne. Ihr meint wohl Games sind nicht optimiert. Das liegt an der Art, wie man Spiele programmiert. Da kann man nur so viel parallelisiert ablaufen lassen. Andere Software, wie euer Browser braucht die Parallelisierung einfach nicht, weil mehr als genug Leistung vorhanden ist. Wirkliche Software, die viel Leistung braucht ist doch schon lange optimiert auf viele Threads und teils sogar GPU beschleunigt. Als Programmierer optimiert man halt erst, wenn es nötig ist. Das ist total aufwändig und teuer.
 
Intel will halt nicht den gleichen Weg wie Dell jetzt gehen und versucht sich auf mobile CPUs zu konzentrieren. Desktop CPUs sind ja auch mehr als schnell genug für Mutti und Onkel Otto. Mit einem Haswell 4 Kerner surft sichs nicht schneller als mit einem Core 2 Duo und die paar Office und Photoshop-Sachen packt der C2D ja auch noch locker.

Das ist auch durchaus nachvollziehbar. Schaue ich bei mir auf der Arbeit, so sehe ich gute 90% aller Hardware für die Anwender im mobilen Bereich. Selbst die Leute, die tag täglich an der Büchse sitzen, ohne sich damit auch nurmal aus dem Raum zu bewegen, sitzen idR an einem Notebook.
Und da die Notebook CPUs immer besser werden, bzw. sich immer mehr den Desktop Pedanten angleichen, wird sich das auch nicht sonderlich ändern. Speziell auch im Unternehmensumfeld, wo man idR nicht selbst "bastelt" bleibt auch die höhere Flexibilität in einem Desktop PC (Komponententausch, Aufrüstbarkeit, Anzahl der Komponenten ala HDDs usw.) start im Hintergrund.

Alle reden hier von "Software", die anscheinend nicht optimiert sei für mehrere Kerne. Ihr meint wohl Games sind nicht optimiert. Das liegt an der Art, wie man Spiele programmiert. Da kann man nur so viel parallelisiert ablaufen lassen. Andere Software, wie euer Browser braucht die Parallelisierung einfach nicht, weil mehr als genug Leistung vorhanden ist. Wirkliche Software, die viel Leistung braucht ist doch schon lange optimiert auf viele Threads und teils sogar GPU beschleunigt. Als Programmierer optimiert man halt erst, wenn es nötig ist. Das ist total aufwändig und teuer.

Es gab mal Zeiten, da war die Ablaufoptimierung ganz oben auf dem Plan ;)
Und das andere Software (nicht Games) nicht optimiert werden müssen, halte ich für ein Gerücht.
Wenn ich meinen Browser ansehe, der beim Starten (inkl. der gut 30 offenen Tabs) 25-30sec Vollast auf einem Thread fährt, sehe ich klar Bedarf dahingehend. Die GPU Beschleunigung von mancher Software hilft an der Stelle nicht.
Das gleiche gilt für diverse Officeanwendungen, die von Multithreading so gar nix gehört haben.
 
hmm im grunde genommen braucht es ja "nur" eine killerapp und das thema is durch - was wie keine ahnung vieleicht die 16Kbit krypto die uns vor staat und konzernen schützt ka

und spiele na die devs sind durch die next gen konsolen gezwungen zu parallelisieren gut sie werden wohl keine 8 thread spiele bringen wegen dem video social gedönz mit denen die konsolen fetzen wollen aber gut man kann halt nich alles haben
 
Was die Spiele angeht, ist eher das Problem, dass die CPU der Konsolen so lahm ist, das selbst vier Intel Kerne deutlich schneller sind. Die dürften selbst mit Portierungs-Abstrichen nicht langsamer agieren als die Konsolen CPU über acht Threads...
 
da bin ich mir nich so sicher mich beschleicht das gefühl es wiederholt sich die p3->p4->pm(p3)=c2d nur halt als athlon2=phenom1+2->bulli1+2->konsole(phenom)->? ach du scheisse klatscht alles an die wand

will sagen ich könnte mir vorstellen der athlon phenom basierente konsolen chip das ist was einzt der p3 basierente pentiumM für intel war (die rettung) - ach und scheisse war das geil mit nem celeronM jeden p4ee an die wand zu klatschen


und wenn dann noch der vertrag mit intel ended wonach jede amd cpu min 15% mehr vcore haben muss alls nötig - nein kleiner scherz aber es ist halt schon seltsam das min seit einem halben jahrzehnt alle amd cpus ~15% mehr vcore als nötig haben die ingeneure bei amd sind doch auch nich blöd
 
Zuletzt bearbeitet:
Ich denke das die relativ geringe Nachfrage beim Haswall daran liegt das zB selbst ein betagter i7-920 Nehalem genug Leistung für die Meisten User hat. Für Viele hätte sogar noch ein Q6600 genug Power. Warum dann einen Haswell kaufen??
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh