Warum Intels Core i7-5820K günstiger angeboten wird

FM4E

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
15.01.2007
Beiträge
18.230
Ort
Oberbayern
<p><img style="margin: 10px; float: left;" alt="intel3" src="/images/stories/logos-2013/intel3.jpg" height="100" width="100" />Noch rund eine Woche wird man sich gedulden müssen, bis die gesamte Haswell-E-Plattform von <a href="http://www.intel.de">Intel</a> gelauncht wird. Vorab sind jedoch bereits zahlreiche Informationen breitgetreten worden. Fest steht schon einmal, dass es zumindest vorerst bei drei Modellen bleiben wird. Im Angebot sind der Core i7-5820K, der Core i7-5930K sowie der Core i7-5960X als Flaggschiff. Die Preisdifferenzen zwischen den drei Modellen werden teilweise wieder deutlich ausfallen, besonders zwischen dem Core i7-5930K und dem Core i7-5960X. So sind bereits Mitte Juli <a...<br /><br /><a href="/index.php/news/hardware/prozessoren/32407-warum-intels-core-i7-5820k-guenstiger-angeboten-wird.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Performancetechnisch wird es nur geringe Unterschiede geben, wenn die zweite Karte mit nur acht Lanes versorgt wird, optimal ist es aber dennoch nicht"

Was ist daran nicht optimal? es ist total egal ob pcie 3.0 8x oder 16x siehe hier: Ivy Bridge PCI-Express Scaling with HD 7970 and GTX 680 Review | techPowerUp

Die 40 Lanes sind rein auf die grakas betrachtet absoluter quatsch.
 
es ist total egal ob pcie 3.0 8x oder 16x

Das ist mir nicht neu. ;) Allerdings wird es viele Interessenten geben, die gerade wegen der Möglichkeit, zwei Grafikkarten mit 16 Lanes zu versorgen, zu der Enthusiasten-Plattform greifen. Der Unterschied ist wirklich nicht gewaltig bzw. nicht spürbar, aber vielen geht es nur um die Zahlen. Ich passe den Satz dennoch mal eben an. ;)
 
Zuletzt bearbeitet:
Also mich könnten sie diesmal zum Umsteigen und die Sandy in Rente schicken bewegen. Da ich nach wie vor nichts von MultiGPU halte, ist diese CPU dennoch für mich geeignet. Interessant ist die Frage, ob ne gute OC Möglichkeit trotz der abgeschalteten Bereiche gegeben ist!? Zudem muss DDR4 erstmal breit verfügbar sein... naja mal sehen :d

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Ich finde das jedenfalls ätzend... immer wieder dieses künstliche Kastrieren bei der sogenannten High-End Plattform, einfach total unnötig -.-
 
Da werden die Preise für die x79 Plattform bald stark sinken.
 
Zuletzt bearbeitet:
Für ~350€ würde ich auch noch auf den 5820K umsteigen. So ein 6-Kerner hat schon was.
Mal schauen, wie sich die Preise später entwickeln werden.
 
@coolnik

Die Preise werden wie immer bei Intel relativ stabil bleiben. Und das über den kompletten Produktlebenszyklus bzw. der kompletten Vertriebsdauer.

Zu den 350€(glaube ich auch) werden allerdings nochmal mindesten 200-230 für das günstigste Mainboard kommen. Plus ca 200-250€ für DDR4. Zumindest am Anfang wird man schon ordentlich early adopter Aufschlag bezahlen müssen.
 
Wer braucht das wirklich? Das PC-Zeitalter im Privathaushalt ist vorbei bzw. hat es nie gegeben. 99% aller nützlichen Anwendungen kann man auf 3 Jahre alten Durchschnitts-PCs erledigen.
 
Die 40 Lanes sind rein auf die grakas betrachtet absoluter quatsch.
also ich bitte dich! :eek:
ein gescheites trippel sli aus 3 x titan II braucht 3 x 16 lanes = 48 lanes. 40 lanes sind viel zu wenig! >.<
und der 5820K hat derer sowieso nur 28. aber da er auch nur 6 kerne hat, isser sowieso eher was für ne lahme officekrücke. 8 kerne sollten doch für ne gescheite spielekiste heute standard sein! kein mensch braucht so ne krüppel-cpu! :p
(wer ironie findet, darf sie behalten :d)
 
Zuletzt bearbeitet:
Diesmal könnte ein Umstieg interessant werden. Mal sehen. Oder ich kaufe mir ein 3770K günstig im MP :bigok:
 
also ich bitte dich! :eek:
ein gescheites trippel sli aus 3 x titan II braucht 3 x 16 lanes = 48 lanes. 40 lanes sind viel zu wenig! >.<
und der 5820K hat derer sowieso nur 28. aber da er auch nur 6 kerne hat, isser sowieso eher was für ne lahme officekrücke. 8 kerne sollten doch für ne gescheite spielekiste heute standard sein! kein mensch braucht so ne krüppel-cpu! :p
(wer ironie findet, darf sie behalten :d)

Theoretisch sind 8/16 Kerne bei Spielen eh fürn Popo. Am Schluss entscheidet der Takt und der Cache... Keine Ahnung wie gut die Dinger zum takten gehen aber u.U. ist nen i5 ganz oben mit dabei in Sachen Spiele Performance und der hat nur 4/4 ;)
 
Gibt es es schon irgendwo Test die ein bisschen mehr über die Leistung verraten? Hätte mal Lust wieder etwas aufzurüsten aber ich befürchte das der Leistungszuwachs zu meinem 3970X nicht wirklich groß ausfallen wird?!
 
Guck dir Sandy - Haswell benches an. Großen Unterschied zwischen Sandy-E & Haswell-E wirst du da nicht finden (wenn wir jeweils die 6Kerner nehmen)

mfg
 
Guck dir Sandy - Haswell benches an. Großen Unterschied zwischen Sandy-E & Haswell-E wirst du da nicht finden (wenn wir jeweils die 6Kerner nehmen)

mfg
Denke du meinst Ivy-E, oder? Haswell kommt ja grade erst...

Und ja, die Architektur ist ja fast die selbe wie in den Mainstream Prozis (oder?), daher ist stark anzunehmen dass die Leistung bei gleichem Takt wieder nur um ~10% gestiegen ist (sofern man keinen Gebrauch von neuen Hardwarebeschleunigungen macht).
 
Nein, Happy meint wirklich Sandy Bridge im Vergleich zu Haswell. Der Unterschied kann dann auf Sandy-E zu Haswell-E übertragen werden.
 
was mich brennend interessieren würde ob 5820k auch gleich wieder freier Multiplikator heißt ^^

bei gut 350 scheinen wär das ein adequater ersatz für meinen 3570K xD
 
Klar, K heißt freier Multi.

Erst mal schauen wie gut die sich takten lassen. Bin ja auch am Überlegen, der Mainstream Haswell war mir aber schon Stress genug.
 
Zuletzt bearbeitet:
Wer braucht das wirklich? Das PC-Zeitalter im Privathaushalt ist vorbei bzw. hat es nie gegeben. 99% aller nützlichen Anwendungen kann man auf 3 Jahre alten Durchschnitts-PCs erledigen.

Wenn man einen Anwendungszweck für Hyper-V und co gefunden hat, macht so ein 6 Kerner schon jetzt Sinn.
Es passiert mir zu oft, dass ich alle paar Wochen irgendeinen Mist installieren muss, den ich genau ein einziges Mal benötige und dafür sind VMs Klasse.
Zerschießt man sie sich, setzt man sie zurück. Braucht man ein Programm x nur einmal, dann kopiert man sie und löscht sie hinterher wieder.
Und das Beste: Der Grundsystem bleibt sauber und enthält wirklich nur noch die wichtigsten Programme, die man braucht (Browser, MediaPlayer, Steam, vllt. Office).

Ansonsten hast du natürlich Recht, aber ohne solche Entwicklungen gäbe es bis heute kein Graphische Oberfläche. In ein paar Jahren, werden auch normale Programme einen Nutzen von 6 Kernen und mehr haben.
Dank der x86-Architektur und 8 Kernen in der PS4 und dem XBone wird das vermutlich nicht mehr lange dauern.
 
Wenn man einen Anwendungszweck für Hyper-V und co gefunden hat, macht so ein 6 Kerner schon jetzt Sinn.
Was genau hat Hyper-V mit der Kernzahl zutun?
ich hab ne Windows XP VM recht problemlos auf nem alten Phenom II x4 965 benutzt und kenne recht viele Leute in der Hochschule die VMs auf relativ schwache Laptops einsetzen.

Es passiert mir zu oft, dass ich alle paar Wochen irgendeinen Mist installieren muss, den ich genau ein einziges Mal benötige und dafür sind VMs Klasse.
Zerschießt man sie sich, setzt man sie zurück. Braucht man ein Programm x nur einmal, dann kopiert man sie und löscht sie hinterher wieder.
Und das Beste: Der Grundsystem bleibt sauber und enthält wirklich nur noch die wichtigsten Programme, die man braucht (Browser, MediaPlayer, Steam, vllt. Office).
Joa, dafür sind VMs nützlich (wobei ich persönlich finde dass die Ära wo jedes programm das System zerschießen konnte und zugemüllt hat, ziemlich vorbei ist). Aber du benutzst doch die Anwendungen in der VM und hast diese damit Fokus so dass wwindows die gesamte Rechenleistung für die VM bereitsstellen kann. Also wofür braucht man da mehr Kerne?


Ansonsten hast du natürlich Recht, aber ohne solche Entwicklungen gäbe es bis heute kein Graphische Oberfläche. In ein paar Jahren, werden auch normale Programme einen Nutzen von 6 Kernen und mehr haben.
Naja, ich finde da ist irgendwo ein Ende erreicht... Wie sagt man so schön? Ein Supercomputer wartet auch nicht schneller auf Emails...
Und Programme wie Video encoding sind heute schon maximal paralelisiert.
Was ich mir vorstellen könnte, wenn sich Sprachsteuerung und Gestensteuerung (soll ja mit Windows 9 oder Windows 10 kommen) durchsetzt - das könnte wieder einen höheren Bedarf an Rechenleistung im Mainstream bewirken.

Dank der x86-Architektur und 8 Kernen in der PS4 und dem XBone wird das vermutlich nicht mehr lange dauern.
Das wirkt sich aber höchstens auf Games aus.
 
"Performancetechnisch wird es nur geringe Unterschiede geben, wenn die zweite Karte mit nur acht Lanes versorgt wird, optimal ist es aber dennoch nicht"

Was ist daran nicht optimal? es ist total egal ob pcie 3.0 8x oder 16x siehe hier: Ivy Bridge PCI-Express Scaling with HD 7970 and GTX 680 Review | techPowerUp

Die 40 Lanes sind rein auf die grakas betrachtet absoluter quatsch.

Ja, rein auf Grakas, aber wenn du jetzt noch nen Raidcontroller hast, ne High End Soundkarte, und und und, weil du audiovisualisierung machst, dann kommt es eben auf diese paar Lanes drauf an, ABER wer macht das schon??? - sehr wenige Menschen, deswegen, so denke ich, werden deutlich mehr Menschen, sofern diese mindestens 1 Hirnzelle haben, den 5820k nehmen.
 
Ja, rein auf Grakas, aber wenn du jetzt noch nen Raidcontroller hast, ne High End Soundkarte, und und und, weil du audiovisualisierung machst, dann kommt es eben auf diese paar Lanes drauf an,
Naja, höchstens wenn du an den Raidcontroler mehrere SSDs anschließt und diese auch noch gleichzeitig benutzen musst. Sonst reichen 1-2Gb/s von 2 Pcie 2.0 lanes locker aus... und Musik ist eigentlich auch nicht sonderlich bandbreitenlastig.
 
Was genau hat Hyper-V mit der Kernzahl zutun?
ich hab ne Windows XP VM recht problemlos auf nem alten Phenom II x4 965 benutzt und kenne recht viele Leute in der Hochschule die VMs auf relativ schwache Laptops einsetzen.

Mehr Kerne = mehr Operationen sind gleichzeitig Möglich. Macht also schon Sinn, da man ja dann mehrere Betriebssystem gleichzeitig am laufen hat.
Und zumindest ich bekomm meine Windows 8-VM so weit ausgelastet, dass sie die CPU-Auslastung auf über 60% hochtreibt.
Natürlich funktioniert das noch mit einem Vierkerner, aber mit 6 Kernen hat man mehr reserven zum Spielen/Testen (seltener Arbeiten :d) und die 2011er Systeme ermöglichen einem auch mehr Arbeitsspeicher zu verbauen.


Joa, dafür sind VMs nützlich (wobei ich persönlich finde dass die Ära wo jedes programm das System zerschießen konnte und zugemüllt hat, ziemlich vorbei ist). Aber du benutzst doch die Anwendungen in der VM und hast diese damit Fokus so dass wwindows die gesamte Rechenleistung für die VM bereitsstellen kann. Also wofür braucht man da mehr Kerne?

Ach die Zeiten sind nie vorbei und ich guck gerne mal in andere Programmiersprachen rein und dementsprechend landen dann x Compiler, IDEs und sonstiges auf dem Rechner.
Mit mehr als einem Monitor ist dann auch Multitasking möglich, was dementsprechend den Fokus nicht nur in eine VM lenkt.
VMWare geht mit Unity sogar soweit und integriert die VM sozusagen in den Host, sodass man außer einem zweiten Menübutton fast keinen Unterschied zum Host hat.


Naja, ich finde da ist irgendwo ein Ende erreicht... Wie sagt man so schön? Ein Supercomputer wartet auch nicht schneller auf Emails...
Und Programme wie Video encoding sind heute schon maximal paralelisiert.
Was ich mir vorstellen könnte, wenn sich Sprachsteuerung und Gestensteuerung (soll ja mit Windows 9 oder Windows 10 kommen) durchsetzt - das könnte wieder einen höheren Bedarf an Rechenleistung im Mainstream bewirken.

Ich kann mir nicht vorstellen, dass Sachen wie Videoencoding schon maximal parallelisiert sind, allerdings werden solche Aufgaben immer häufiger durch die GPU übernommen, sodass der Prozessor hierbei eine immer kleiner werdende Rolle spielt.
Das selbe hat man auch beim Erscheinen der Quadcore-Prozessoren gesagt und mittlerweile gibt es sehr viele Programme die einen Nutzen daraus ziehen.
Es macht ja auch wenig Sinn Programme für Multithreading zu programmieren, wenn der Absatzmarkt überhaupt noch nicht die nötige Hardware besitzt, die dazu fähig ist bzw. die Programmiersprache.
Mit einem relativ günstigen Sechskerner wird dieser aber geschaffen, nur wird leider der DDR4-Speicher am Anfang den Gesamt-Preis wieder auf das jetzige Niveau hochtreiben.
Im Übrigen gab es Supercomputer schon vor 30 Jahren und werde jetzt von jedem Smartphone um Längen geschlagen ;)


Das wirkt sich aber höchstens auf Games aus.
Und trotzdem ein Punkt für Gryffindor :fresse:

- - - Updated - - -

Jetzt muss ich aber meiner Argumentation nach kurzer Überlegung kontern :hmm:
Für die meisten Anwender wird sogar ein Dualcore locker reichen.
Ein aktueller ULV-Prozessor verrichtet bei mir tadellos seine Arbeit.
Triple-A Spieletitel kann man damit zwar nicht spielen oder im professionellen Stil 500 Bilder in Photoshop und 5 Stunden Filmmaterial in 4K-Auflösung an einem Arbeitstag bearbeiten,
aber für die meisten Leute sollte der dicke reichen.

Ich würde mal sagen, dass wir alle auf gewisse Weise recht haben und es auch ein klein wenig auf den Anwendungsbereich ankommt.
 
Zuletzt bearbeitet:
Ich kann mir nicht vorstellen, dass Sachen wie Videoencoding schon maximal parallelisiert sind, allerdings werden solche Aufgaben immer häufiger durch die GPU übernommen, sodass der Prozessor hierbei eine immer kleiner werdende Rolle spielt.
Das selbe hat man auch beim Erscheinen der Quadcore-Prozessoren gesagt und mittlerweile gibt es sehr viele Programme die einen Nutzen daraus ziehen.
Es macht ja auch wenig Sinn Programme für Multithreading zu programmieren, wenn der Absatzmarkt überhaupt noch nicht die nötige Hardware besitzt, die dazu fähig ist bzw. die Programmiersprache.
Mit einem relativ günstigen Sechskerner wird dieser aber geschaffen, nur wird leider der DDR4-Speicher am Anfang den Gesamt-Preis wieder auf das jetzige Niveau hochtreiben.
Im Übrigen gab es Supercomputer schon vor 30 Jahren und werde jetzt von jedem Smartphone um Längen geschlagen ;)

Also man kann gerade beim Video Encoding schon sagen, das man dort schon ziemlich das maximum an möglichem Parallelisierungsgrad rausgeholt hat.
Mir wäre aus dem Hut erstmal kein wirklich greifbares Limit bekannt. Sprich du wirst selbst ne Quad Sockel - 96 Thread Intel Möhre mit einem einzigen Task fürs Videoencoding vollständig in die Ecke fahren können... Oder eine acht Sockel - 128 Thread AMD Opteron Kiste. Mehr ist so ohne weiteres aktuell nicht in einer Maschine!

Was die Programmierung angeht, hier solltest du klar trennen. Es gibt Multithreading und Multithreading. ;) (ja, kein Schreibfehler) Rein für die Programmierung spielt die absolut vorhandene Core/Thread Anzahl auf der CPU keine wirkliche Rolle. Das Betriebssystem übernimmt so oder so die Aufgabe, die Sachen auf die Ausführungseinheiten zu verteilen, das möglichst effizient der Leerlauf so wenig wie irgend möglich eintritt. Der Programmierer muss einzig und allein dafür sorgen, das seine Worker eben auch in dieser Zeit mit Last erzeugenden Berechnungen arbeiten anstatt irgendwie zu "schlafen".
Und hier kommt auch schon das Problem an der Geschichte. Es lässt sich nicht alles bedingungslos bis ins kleinste Detail derart aufteilen, das man IMMER und zu jeder Zeit volle Last auf allen Threads hat.
Statischer Kontent, wie es beim Video Encoding der Fall ist, schmeckt das hingegen extrem gut. Denn das ganze ist 1:1 bis fast ins unendliche zerhackstückelbar. Es ändert sich nicht und ist immer fix. Je nach eingesetzter Methode wäre es bspw. denkbar, das jeder Worker Thread ein Frame des Videos berechnet. Videos gehen idR recht "lange". Bei 24 Frames die Sekunde würden dir schon 5,333 Sekunden Video reichen, ob die obig genannte Opteron 128 Thread Maschine kurz aber schmerzlos mit Arbeit zu versorgen. Längere Videos halten die Last länger oben.
Software mit dynamischem Kontent hingegen - allen vorran Games - sind da ne ganz andere Hausnummer. Da wird auch in 10 Jahren noch kein derartiges Wunder passieren, welches das Gegenteil erzeugt ;)
Man bedient sich einzig dem Trick, die Last "künstlich" zu erhöhen. Mehr unterschiedliche Berechnungen erzeugen mehr Last. Ne KI Berechnung bspw. kann man bequem neben dem eigentlichen Spiel berechnen lassen. Das gleiche gilt für Physik, Sound und weis der Teufel was noch. So erzeugt man quasi mehr Last und die breiteren CPUs bekommen mehr zu tun. Das hilft aber auch nur eher bedingt weiter. Denn werden die CPUs zu breit, wird auch das nicht mehr sooo viel nutzen.

Unterm Strich, normal wird so oder so multithreaded programmiert, ob da nun sechs Kern CPUs mit SMT verfügbar sind, Quadcore CPUs, wie sie heute gängiger Standard sind, oder wie vor fast 10 Jahren noch, wo es gerade so losging mit den ersten "echten" Dual Core CPUs, spielt da weniger eine rolle. Entscheidender ist, das die Threads wärend der Programmlaufzeit auch was zu tun haben und sich nicht gegenseitig "ausbremsen" oder auf sich warten. -> dies hinzuoptimieren ist je nach Fall eine Herrausforderung, die mal zu stemmen ist, mal aber auch unmöglich ist! Wenn du A + B rechnen willst, und das Ergebnis durch C teilen willst, sind das zwei Schritte "Last", die sequenziell anzuarbeiten sind, da nutzt dir Multithreading gelinde gesagt gar nix. Dieses einfache Beispiel hast du im großen Stiel in Anwendungen mit dynamischem Kontent, bspw. Games. Dort hängt extrem viel von einander ab. Man kann häufiger punktuell gewisse Sachen gleichzeitig machen, aber eben nicht alles unabhängig, wie es beim Video Encoding mit statischem Kontent der Fall ist/wäre.
 
Richtig (so ne Argumentation hab ich vor ein par Wochen irgendwo im Grafik-Bereich auch geführt :d ). bei manchen Software"arten" wie games kann man gut und gerne davon ausgehen dass der Programmieraufwand exponentiell steigt, desto mehr Threads gleichzeitig arbeiten können müssen. Deswegen gibts immernoch Games die nur mit 1-2 kernen arbeiten :-[

Vieleicht bringt DirectX 12 etwas Schwung in die Sache. Das soll ja Verbesserungen in dieser Hinsicht bringen. Zumindest zeigen das die Demos. Wir kennen aber (eigentlich ähnlich wie bei AMD's Mantle Api) nicht wie groß der Programmieraufwand für den Anwender der neuen API ist...
 
Zuletzt bearbeitet:
Ok das heißt also für den reinen Gaming Bereich lohnt sich diese CPU sogut wie garnicht? Der höhere Cache sollte aber was bringen!? Wie siehts mit DDR4 aus, bringt das was für mich als 99% Gamer? Muss sagen, dass ich langsam schon gern umsteigen möchte. Hab ja so einige Versionen dank 4,4 Ghz Sandy aussetzen können.


Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh