[W2k]Shadow
Legende
- Mitglied seit
- 22.09.2007
- Beiträge
- 23.207
version 3 ist meinem wissne nach nicht zutreffend da wohl keine 4kerner mehr für 2011 kommen.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Die werden sicher keine zwei EE Modelle auf den Markt bringen.
Wirst du bei Haswell E aufrüsten? Ich ringe gerade mit mir wegen des teuren Achtkerners.
Vielleicht entscheidet das Angebot an Mainboards und DDR4 RAM letztendlich darüber ....
Könnte schon passieren, aber wenn dann liegen da ein paar Monate dazwischen. Da der acht Kerner aber mittlerweile wohl bestätigt ist, könnte es also bestenfalls passieren, dass man diesen später bringt als "geplant" und erstmal nen Hexacore als EE vertickt. Ich denke aber, das würden die potentiellen Kunden Intel übel nehmen
Denn in der Gerüchteküche hält sich ja Haswell-E gerade wegen des i7 Oktacores als sehr beliebt...
Der Plan sieht es zumindest vor. So bleibe ich auch meinem Takt treu und verbaue seit den ersten A64 Modellen mit jedem Aufrüsten die doppelte Threadanzahl
Ne im Ernst, ich werd das Ding wohl kaufen... Egal was da nun der Speicher kost. Ich könnte vorerst auch mit 16GB leben. Mal gucken, wie sich das mit DDR4 dann verhalten wird. Das soll ja ne PTP Verbindung werden. Bei Quadchannel also vier Riegel maximal. -> die Boardhersteller sollen/wollen wohl irgendwelche Extender für die Riegel verbauen, damit auch acht Riegel gehen -> müsste man dann sehen, wie es mit der Performance ausschaut. Wenn das arg Leistung kostet, muss man wohl oder übel gleich zum richtigen Speicherausbau greifen. Also in meinem Fall wohl das gesunde Mittelmaß mit 32GB. Wenn DDR4 unverhofft günstig ist/wird, dann auch gleich 64GB in 16GB Riegeln.
Beim OC verspreche ich mir selbst ne ganze Menge. Die acht Kerner dürften mehr oder weniger Problemlos auf ~4GHz gehen. Wenn doch die Hexacores mit Turbo schon fast diese Taktrate per default packen. Das Silizium selbst kann also den Takt wohl ohne horende Spannungen ab. Das macht der acht Kerner dann ebenso spielend. Interessanter dürfte die notwendige Kühlleistung dafür werden. Könnte also sein, das ich dazu auf Wasser umrüsten muss.
Ich plane bei minimum 4GHz einzusteigen. Besser 4,2GHz. Damit habe ich dann in Summe ca. doppelte MT Performance zu meiner jetzigen 4,5GHz Sandy und in ST bzw. der Gamingleistung keinen Leistungsnachteil, eher sogar nen minimalen Vorteil. Auch skalieren die GPU Treiber häufiger gut über die Threads, sprich es kommt mehr Leistung bei mehr Threads rum obwohl das Game das selbst nicht auslastet.
Geht es mit dem OC gar nicht gut und die Hütte lässt sich nur mit äußerstem Aufwand gegen 4GHz bringen, dann lass ich diese erste acht Core i7 Generation aus und steige beim i7-4790K ein. Vielleicht noch ein paar MHz drauf auf den Allcore Turbo und hab auch meine ~10-20% mehr als jetzt. Kost obendrein auch nur einen Bruchteil vom Haswell-E
Warum sollten sie nicht über 4GHz takten das machen die schon seit Sandy-E problemlos mit
Wenn es dann gleich ein 8 Kerner sein soll wird der bestimmt nicht über 4.2 GHz brauchbar mit Luft zu kühlen sein...
leuchtet einWarum? Darum:
mal ne frage:
welche anwendungen bzw. engines können derzeit 16 threads handhaben? und unter welchem OS?
wir bewegen uns hier sicher richtung linux datenbanken oder sowas? oO
Nunja, relativ.@Skillar Was spielt die Temp bei gleichem Übertaktungspotential denn für eine Rolle?.. Das ist doch nur ein Zahlenwert und selbst eine R9 290 mit Luftkühlung @90° wird ziemlich sicher lange genug leben das sie in einem Enthusiasten-System ausgemustert wird (<2-3 Jahre)
Ich halte es eben für bedenklich, meine Komponenten mit 85-90°C laufen zu lassen.
fdsonne das ist jedem selbst ueberlassen.
meinereiner ist mit der lastlautstaerke bei wakue deutlich zufriedener als bei luft.
@fdsonne
Du vergisst die besseren Temperaturen.
Vollkommen irrelevant, wie heiß es in meinem Zimmer ist, meine Ti wird nie wärmer als 40°C.
Verlötete Prozessoren, bzw. welche mit besserer (weniger) Paste (Devils Canyon) auch um einiges.
Und wenn Lautstärke vorher kein Problem war, ist sie danach noch weniger eins (richtige Konfig vorausgesetzt).
ja sind sieAber mal zum Thema: Sind die Sockelbohrungen gleich zum bisherigen 2011?
Fast alle Intel Entwickler Libraries (Fourier Transformation, BLAS, LAPACK, Performance Libraries) skalieren sehr gut mit der Core Anzahl. BLAS und LAPACK sind Bibliotheken zur Bearbeitung von Matrizen bzw. dem Lösen von Eigenwertproblemen. Das kann man auch für die Bildbearebeitung einsetzen, aber im großen und ganzen ist das Programmcode für HPC. Wenn man MPI einsetzt skaliert die Software nicht mehr nur auf einem Knoten (ein einzelner Server meistens Dual Socket mit zwei Xeons mit 10 oder 12 Cores je Xeon), sondern in einem Cluster. Wie gut hängt jeweils vom Problem ab und von der Netzwerktopologie des Clusters. Man kann je nach Problem auch mal schnell mehrere tausend Knoten belegen. Jeder Knoten rechnet an einem anderem Teil des Problems, und per MPI werden dann die Daten jeweils ausgetauscht. Cluster sind mittlerweile fast eine Linux only Geschichte.welche anwendungen bzw. engines können derzeit 16 threads handhaben? und unter welchem OS?
Fast alle Intel Entwickler Libraries (Fourier Transformation, BLAS, LAPACK, Performance Libraries) skalieren sehr gut mit der Core Anzahl. BLAS und LAPACK sind Bibliotheken zur Bearbeitung von Matrizen bzw. dem Lösen von Eigenwertproblemen. Das kann man auch für die Bildbearebeitung einsetzen, aber im großen und ganzen ist das Programmcode für HPC. Wenn man MPI einsetzt skaliert die Software nicht mehr nur auf einem Knoten (ein einzelner Server meistens Dual Socket mit zwei Xeons mit 10 oder 12 Cores je Xeon), sondern in einem Cluster. Wie gut hängt jeweils vom Problem ab und von der Netzwerktopologie des Clusters. Man kann je nach Problem auch mal schnell mehrere tausend Knoten belegen. Jeder Knoten rechnet an einem anderem Teil des Problems, und per MPI werden dann die Daten jeweils ausgetauscht. Cluster sind mittlerweile fast eine Linux only Geschichte.
Kommerziell findet so etwas etwa in Ansys (insbesondere Fluent) Verwendung, das ist eine Software um Strömungsprobleme zu lösen. Die eigentliche Ingenieurs Applikation läuft unter Windows, das HPC Backend läuft üblicherweise auf einem Linux Cluster. Aber es gibt schon für Renderprogramme Clusteransätze, so daß die Jobs auf viele Computer verteilt werden können.
Es gibt bei der Parallelisierung mehrere wichtige Schwellen, die man für hochparallel Code überwinden muß.
- Der Code muß sich auf die Cores einer CPU aufteilen lassen
- Der Code muß mit den NUMA-Knoten einer Multisockel Maschine zurecht kommen
- Der Code muß sich über mehrere Knoten parallelisieren lassen
- Der Code muß mit der Topologie eines großen Clusters zurecht kommen, d.h. die Knoten sind nicht mehr gleich schnell erreichbar. Es existiert eine Hierachie.
Nur die beiden ersten Punkte sind für Spiele von Bedeutung.
Hast du auch irgendwelche von den Fachbegriffen verstanden?so eine ausfühliche antwort hatte ich nicht erwartet. besten dank
Unterstützung aber ungleich Skalierung
Wenn etwas sagen wir zu 80-100% bei 100% Einheitenverdopplung skaliert, dann ist das sehr anständig.
Wenn etwas aber mit sagen wir 10-20% bei Einheitenverdopplung skaliert, dann ist das äußerst mau. Und genau das hat es in den meisten Games, wo wir über mehr wie vier Threads sprechen stand heute einfach noch.
Nein vor 2-4 Jahren hätte ich Dir das noch unterschrieben aber die aktuellen Engine auf denen die meisten Titel geschrieben werden skalieren einfach besser.