Intel plant angeblich Broadwell-EP-CPUs mit maximal 5,1 GHz

Das glaub ich erst wenn ich's sehe. Beim 5775C war die Ausrede für die unterirdischen Taktraten noch, dass Broadwell nicht auf hohe Taktraten ausgelegt sei.
Das ist ja auch nicht Broadwell sondern Broadwell-E und da sind die Unterschied größer als mancher denkt. Die Architektur hat zwar noch den gleichen Namen, wird aber nicht selten deutlich geändert. Die ursprüngliche Auslegung von Broadwell war und ist die auf Low-Power Systeme und nicht auf hohe Frequenzen. Mit Broadwell-E ist man offenbar davon deutlich abgegangen, wenn man nun sogar eine CPU mit 5,1GHz ab Werk anbietet, auch wenn diese nur für spezielle Anwendungen interessant ist und Gamer kaum die Zielgruppe sind, was aber für Xeons generell gilt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit Broadwell-E ist man offenbar davon deutlich abgegangen, wenn man nun sogar eine CPU mit 5,1GHz ab Werk anbietet, auch wenn diese nur für spezielle Anwendungen interessant ist und Gamer kaum die Zielgruppe sind, was aber für Xeons generell gilt.
Die letzten CPUs für HighFrequencyTrading wurde nur an ganz wenige Hersteller abgegeben und diese in recht teuren Server verkauft. Sollte Intel diesmal die CPUs frei verkaufen, wird Intel sicherlich nichts dagegen haben, wenn Gamer sich diese CPUs ins System verbauen. Der Witz wäre, wen die Dinger auf einem zertifizierten Workstationboard unter Luft schneller laufen, wie die Broadwell-E CPUs mit OC.
 
Also ich glaube, wenn es diese CPUs überhaupt frei verfügbar geben wird, werden sie schweineteuer (>3k) und sich gegenüber Haswell E nicht lohnen.
Der Punkt bei Xeons ist ja dass sie ihren dienst garantiert und zuverlässig verrichten. Das lässt sich Intel natürlich vergolden.
Als Gamer, etc. braucht man dieses Optimum eigentlich nicht wirklich so dass zumindest die allermeisten mit gut übertakteten "normalen" CPUs klar kommen weil keine Millionen von der Zuverlässigkeit abhängt...
Und ob 4.6 Ghz oder 5.1Ghz ist auch wieder egal, wenn wir ehrlich sind >_> Davon abgesehen dass die 5.1Ghz wenn es wirklich kommen sollte, sicher nur Singlecore turbo ist.
 
Zuletzt bearbeitet:
Auch die Spannung wäre interessant. Vermutlich wird dieses sehr hoch ausfallen.
Die VID beim 2699v3 liegt auch schon bei bis zu 1.30V.
 
Also ich glaube, wenn es diese CPUs überhaupt frei verfügbar geben wird, werden sie schweineteuer (>3k) und sich gegenüber Haswell E nicht lohnen.
Mit Sicherheit wird das ein teurer Spaß, die X5698 haben so ungefähr US$10.000 das Stück gekostet, wenn man die Serverpreise von Dell und HP gegenüber den anderen Modell umgerechnet hatte. Wenn wir hier von 2-3k pro CPU reden könnten, gibt es sicherlich "Verrückte", die sich die CPUs fürs Gaming kaufen werden. Alleine um schon Dual Board damit bestücken zu können, man denke nur an EVGA SR-2 zurück.
Davon abgesehen dass die 5.1Ghz wenn es wirklich kommen sollte, sicher nur Singlecore turbo ist.
Ich glaube eher diese CPU wird die 5,1GHz konstant auf allen Cores halten.
 
Also ich glaube, wenn es diese CPUs überhaupt frei verfügbar geben wird, werden sie schweineteuer (>3k) und sich gegenüber Haswell E nicht lohnen.
Der Punkt bei Xeons ist ja dass sie ihren dienst garantiert und zuverlässig verrichten. Das lässt sich Intel natürlich vergolden.
Als Gamer, etc. braucht man dieses Optimum eigentlich nicht wirklich so dass zumindest die allermeisten mit gut übertakteten "normalen" CPUs klar kommen weil keine Millionen von der Zuverlässigkeit abhängt...
Und ob 4.6 Ghz oder 5.1Ghz ist auch wieder egal, wenn wir ehrlich sind >_> Davon abgesehen dass die 5.1Ghz wenn es wirklich kommen sollte, sicher nur Singlecore turbo ist.

Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist :wut:
 
Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist :wut:
Welche Spiele?

Das einzige Game das mir einfällt das einen aktuellen modernen i7@4Ghz wirklich sinnvoll auslastet ist Star Citizen seit der alpha. Das Game lastet dabei aber auch alle Kerne gut aus. Wenn die CPU begrenzt weil ausschließlich ein kern belastet wird, dann ist das schlicht schlecht programmiert...
 
Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist :wut:

Also ich glaube nicht, dass du die 4 respektive 10% an Mehrtakt (=/=Mehrleistung) in irgendeinem Spiel bemerkst, es sei denn du spielst Benchmarks. Diese CPU gibts für den hochfrequenten Börsenhandel wo es um Millionen gehen kann wenn man das eine oder andere Qäntchen früher mit kaufen/verkaufen dran ist, zwar verrückt, aber so ist die Welt.
 
Also ich habe schon einen Unterschied bemerkt ob ich meine CPU mit 4 oder 4.5 GHz betrieben habe. Diese pauschale Aussage das 10% eh keiner bemerkt halte ich für Schwachsinn.
Ich behaupte mal das der 0815 user davon mehr bemerkt als von 4 weiteren Threads durch HT oder ein paar cores mehr.
Ich kenne genug Software die schlecht genug skaliert um hohe Preise für hoch getaktete CPUs mit wenig Threads zu rechtfertigen.
Und natürlich ist der 0815 user nicht die Zielgruppe.
 
Das ist schon wie Religion!
Natürlich kann ich jedes meiner Spiele grafisch so abspecken, dass es läuft.
Möchte ich aber nicht, ich hätte gerne die maximal mögliche und auch visuell erfassbare Grafikleistung.

Und da hinken GPU und ganz besonders CPU hinterher.
Ein SLI auszulasten erfordert schon ein potente CPU.

Ich spiele seit 2011 hauptsächlich Skyrim und modde unentwegt. Komm jetzt bitte nicht mit schlechter Engine. Das wäre dann ja auf alle Spiele übertragbar, wenn man die Grafikleistung aufbohrt.
Es geht darum das 2 GPUs auf die CPU warten müssen. Wenn ich z.B. die RealVision ENB auf max. habe bei einem 3440x1440 Monitor und gehe in einen Bereich mit vielen NPC. Dann schuftet die CPU ohne Ende und es ruckelt bis zu Standbildern.

Eine Community von Moddern wie z.B. auf Nexus, kann schon Grafik, Physikengine usw. so perfekt umsetzen, dass die vorhandene HighEnd Hardware vollends in die Knie geht, voran die CPU Leistung.
 
Das einzige Game das mir einfällt das einen aktuellen modernen i7@4Ghz wirklich sinnvoll auslastet ist Star Citizen seit der alpha. Das Game lastet dabei aber auch alle Kerne gut aus. Wenn die CPU begrenzt weil ausschließlich ein kern belastet wird, dann ist das schlicht schlecht programmiert...

Damit machst du es dir aber etwas zu einfach... Nur weil etwas nicht ausgelastet ist, ist die Software schlecht programmiert?
Viel eher ist das IMMER eine Frage von Aufwand/Nutzen. Was nutzt es, riesen Aufwand zu betreiben für eine Software, die so oder so mit Mainstream Modellen im PC Bereich auskommen muss? Sprich wo noch niedrig getaktete Dualcores mindestens mal genau so oft vertreten sind, wie "potente" acht+ Thread CPUs?
Um so höher die Auslastung der CPU bei normalen Settings, desto bescheidener die Performance bei langsameren CPUs... Und das fällt wohl immernoch mehr Leuten auf die Füße (Stichwort Negativpresse), als ein paar "Freaks" mit viel CPU Power das letzte bisschen CPU Reserven zu entlocken.

Simples Beispiel, schau dir CoD:BO3 an -> frisst sau viel VRAM, weil es viele Daten dort rein kippen kann. Schiebt dir dabei spielend die 12GB der TitanX zu -> Presse meint, scheiße programmiert oder nicht sauber optimiert -> und da gibts noch nen Schalter, der das verhindert ;)
Wie sähe das nun aus, wenn die Spiele nur noch mit acht Thread CPUs bei (annähernd) 100% CPU Load laufen würde??

Ich spiele seit 2011 hauptsächlich Skyrim und modde unentwegt. Komm jetzt bitte nicht mit schlechter Engine. Das wäre dann ja auf alle Spiele übertragbar, wenn man die Grafikleistung aufbohrt.
Es geht darum das 2 GPUs auf die CPU warten müssen. Wenn ich z.B. die RealVision ENB auf max. habe bei einem 3440x1440 Monitor und gehe in einen Bereich mit vielen NPC. Dann schuftet die CPU ohne Ende und es ruckelt bis zu Standbildern.

Beim Modding von Titeln kommt übrigens noch erschwärend hinzu, dass die Spiele gewisse Rahmenbedingungen vorgeben, die sich durch bisschen Modkits und leichte Änderungen an irgendwelchen Configfiles nur bedingt aushebeln lassen. Gerade RPGs sind da oft ein Problemkind. Skyrim mit zu vielen Mods vollgeblasen bringt dich gern mal in RAM Probleme, weil die Software selbst nicht so viel Speicher verwalten kann -> dafür müssen dann erst wieder dedizierte Lösungen gefunden werden.
Auch Gothic 3 ist so ein Beispiel... Das skaliert sogar bei >5GHz auf der CPU noch, wenn man die Sichtweite sowie Darstellungsdistanz ausfährt... Das Schlimme dabei ist leider, dass man oft die eingedrehten Werte klar auf dem Schirm sieht. Bei CPU und/oder GPU Power am Limit aber nicht weiter ausfahren kann. Selbst ein altbackenes G3 von 2006 macht so einigen aktuellen RPGs in Sachen Sichtweite und Fernsicht noch gut einen vor. Skaliert dabei genau NULL über die CPU Breite und packt selbst mit 2x2er Downsampling und zusätzlichem 8xSGSSAA keine Volllast auf 1-2 halbwegs aktuellen HighEnd GPU(s) :fresse:
 
Damit machst du es dir aber etwas zu einfach... Nur weil etwas nicht ausgelastet ist, ist die Software schlecht programmiert?
Moment, das hast du falsch verstanden. Ich hab auf 2ultima4's Komentar geantwortet bezüglich dass sein i7 nicht ausreicht.
Die Software ist eben dann schlecht programmiert wenn sie auf einem i7 mit >4.5Ghz nicht läuft und 2ultima4 hat ja behauptet es gäbe solche Software.
Wenn die Software eben mehr Leistung braucht, dann soll sie die anderen Kerne nutzen - genau das macht z.b. Star Citizen relativ gut soweit ich gehört habe, weswegen ich das angeführt hab.

EDIT: Hab erst jetzt den neuen Komentar gelesen.
URGH.. Modding .. das sollte man meiner Meinung nach von solchen Vergleichen ausklammern >_>
Sicher, man kann immer alles ans Limit bringen, aber die Verhältnismäßigkeit (Spielerlebnis vs Anforderungen) ist da einfach nicht mehr gegeben.
 
Zuletzt bearbeitet:
Wenn die Software eben mehr Leistung braucht, dann soll sie die anderen Kerne nutzen
Wobei es aber eben auch Algorithmen gibt, die man eben einfach nicht parallelisieren kann, da geht es beim besten Willen einfach nicht. Ob das bei der jeweiligen SW so ist oder nur der Faulheit/Unfähigkeit der Programmierer geschuldet ist das etwas nicht parallel läuft, kann auch natürlich auch nicht sagen. Wobei ich bei Spielen eher geneigt bin letzteres zu unterstellen, aber auch da passieren ja nicht wenige Dinge die direkt voneinander abhängen und wo man eben das eine nicht machen kann bevor das andere nicht erfolgt ist und immer dann wenn eines vom Ergebnis des anderen abhängt, geht es nicht beides parallel auszuführen. Außer man rechnet halt alle Varianten der anderen Aktion durch und verwirft die nachträglich als falsch erkannten, was bei zwei Möglichkeiten noch machbar ist, aber bei deutlich mehr Möglichkeiten dann nicht mehr praktikabel ist.
 
Wobei ich bei Spielen eher geneigt bin letzteres zu unterstellen, ...

Das würde ich so nicht sagen... Je nachdem, was man da genau macht, existiert ein himmelweiter unterschied zwischen Multithreading und Multithreading. ;)
Wenn du x verschiedene Sachen gleichzeitig machst, ist das genau so Multithreading wie wenn du eine Sache durch x verschiedene Teilschritte gleichzeitig berechnest... Ersteres ist das einfachste auf der Welt und funktioniert auch absolut schmerzfrei in Spielen. Letzteres ist genau das, was die Leute hier wollen, funktioniert aber eben nicht bedingungslos und überall.

Das Problem ist allerdings, wenn die Basis nicht schnell genug ist und sich nicht durch MT optimieren lässt (wie du selbst sagst), dann nutzt dir mehr Berechnung durch mehr Lastthreads abgefackelt durch MT auch nix...
Und hier kommt wie oben erwähnt zum tragen, dass die Entwickler auf gewisse Märkte abzielen. Eine Software, die nur mit den allerbesten CPUs überhaupt funktioniert, wird sich nicht verkaufen. Und eine Software, die so gar nichts von MT versteht und nur das aller notwendigste überhaupt berechnet (mit allen optischen Nachteilen) lässt Performance liegen...

Schaut man sich mal auf den Konsolen um, so existieren dort acht Threads... Die Entwickler werden also irgendwo mit 6-8 Lastthreads rumspielen... Viel viel mehr wird nicht auf absehbare Zeit notwendig sein. Und viel viel weniger lässt Potential liegen. Das sagt uns am Ende aber absolut gar nix über die notwendige Basisperformance aus. In der einen Software muss das ein Quadcore sein, in der anderen reicht ein Dualcore. Anhand des Lastzustands den "Optimierungsgrad" festzumachen, wie es oben getätigt wurde, halte ich für fadenscheinlich. Vor allem, wenn man nicht weis, was da genau passiert ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh