Haswell-E“: Core i7-5960X als Achtkern-Flaggschiff

version 3 ist meinem wissne nach nicht zutreffend da wohl keine 4kerner mehr für 2011 kommen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja ist keiner angekündigt. Lohnt sich auch nicht wirklich, wie ich finde. Dann kann man auch gleich auf den Mainstream-Sockel setzen...
 
absolut, n quad duerfte von der 1150 plattform nur selten gebremst werden.
 
Die werden sicher keine zwei EE Modelle auf den Markt bringen.

Könnte schon passieren, aber wenn dann liegen da ein paar Monate dazwischen. Da der acht Kerner aber mittlerweile wohl bestätigt ist, könnte es also bestenfalls passieren, dass man diesen später bringt als "geplant" und erstmal nen Hexacore als EE vertickt. Ich denke aber, das würden die potentiellen Kunden Intel übel nehmen ;)
Denn in der Gerüchteküche hält sich ja Haswell-E gerade wegen des i7 Oktacores als sehr beliebt...

Wirst du bei Haswell E aufrüsten? Ich ringe gerade mit mir wegen des teuren Achtkerners.

Vielleicht entscheidet das Angebot an Mainboards und DDR4 RAM letztendlich darüber ....

Der Plan sieht es zumindest vor. So bleibe ich auch meinem Takt treu und verbaue seit den ersten A64 Modellen mit jedem Aufrüsten die doppelte Threadanzahl :fresse:
Ne im Ernst, ich werd das Ding wohl kaufen... Egal was da nun der Speicher kost. Ich könnte vorerst auch mit 16GB leben. Mal gucken, wie sich das mit DDR4 dann verhalten wird. Das soll ja ne PTP Verbindung werden. Bei Quadchannel also vier Riegel maximal. -> die Boardhersteller sollen/wollen wohl irgendwelche Extender für die Riegel verbauen, damit auch acht Riegel gehen -> müsste man dann sehen, wie es mit der Performance ausschaut. Wenn das arg Leistung kostet, muss man wohl oder übel gleich zum richtigen Speicherausbau greifen. Also in meinem Fall wohl das gesunde Mittelmaß mit 32GB. Wenn DDR4 unverhofft günstig ist/wird, dann auch gleich 64GB in 16GB Riegeln.

Beim OC verspreche ich mir selbst ne ganze Menge. Die acht Kerner dürften mehr oder weniger Problemlos auf ~4GHz gehen. Wenn doch die Hexacores mit Turbo schon fast diese Taktrate per default packen. Das Silizium selbst kann also den Takt wohl ohne horende Spannungen ab. Das macht der acht Kerner dann ebenso spielend. Interessanter dürfte die notwendige Kühlleistung dafür werden. Könnte also sein, das ich dazu auf Wasser umrüsten muss.
Ich plane bei minimum 4GHz einzusteigen. Besser 4,2GHz. Damit habe ich dann in Summe ca. doppelte MT Performance zu meiner jetzigen 4,5GHz Sandy und in ST bzw. der Gamingleistung keinen Leistungsnachteil, eher sogar nen minimalen Vorteil. Auch skalieren die GPU Treiber häufiger gut über die Threads, sprich es kommt mehr Leistung bei mehr Threads rum obwohl das Game das selbst nicht auslastet.


Geht es mit dem OC gar nicht gut und die Hütte lässt sich nur mit äußerstem Aufwand gegen 4GHz bringen, dann lass ich diese erste acht Core i7 Generation aus und steige beim i7-4790K ein. Vielleicht noch ein paar MHz drauf auf den Allcore Turbo und hab auch meine ~10-20% mehr als jetzt. Kost obendrein auch nur einen Bruchteil vom Haswell-E :fresse:
 
Zuletzt bearbeitet:
Also ich glaube das ich so zu Weihnachten ein nettes Board aussuche welches gut mit mehreren Gpus umgeht und sicher zum Broadwell E updatebar ist. Dann schnalle ich den untersten 6 Kerner dran weil ich nicht wirklich wüsste womit ich den 8 Kerner richtig auslasten soll. 1000,- ist mir auch deutlich zu viel für eine CPU. Eine Option zum späteren Update hat schon was beruhigendes und manchmal bieten sich Möglichkeiten an einen schnelleren Prozzi dranzukommen gegen geringen Aufpreis zum alten. So bin ich vom 2500k zum 2700k gewechselt. Ich glaube für ca. 40,- Differenz.
 
Könnte schon passieren, aber wenn dann liegen da ein paar Monate dazwischen. Da der acht Kerner aber mittlerweile wohl bestätigt ist, könnte es also bestenfalls passieren, dass man diesen später bringt als "geplant" und erstmal nen Hexacore als EE vertickt. Ich denke aber, das würden die potentiellen Kunden Intel übel nehmen ;)
Denn in der Gerüchteküche hält sich ja Haswell-E gerade wegen des i7 Oktacores als sehr beliebt...



Der Plan sieht es zumindest vor. So bleibe ich auch meinem Takt treu und verbaue seit den ersten A64 Modellen mit jedem Aufrüsten die doppelte Threadanzahl :fresse:
Ne im Ernst, ich werd das Ding wohl kaufen... Egal was da nun der Speicher kost. Ich könnte vorerst auch mit 16GB leben. Mal gucken, wie sich das mit DDR4 dann verhalten wird. Das soll ja ne PTP Verbindung werden. Bei Quadchannel also vier Riegel maximal. -> die Boardhersteller sollen/wollen wohl irgendwelche Extender für die Riegel verbauen, damit auch acht Riegel gehen -> müsste man dann sehen, wie es mit der Performance ausschaut. Wenn das arg Leistung kostet, muss man wohl oder übel gleich zum richtigen Speicherausbau greifen. Also in meinem Fall wohl das gesunde Mittelmaß mit 32GB. Wenn DDR4 unverhofft günstig ist/wird, dann auch gleich 64GB in 16GB Riegeln.

Beim OC verspreche ich mir selbst ne ganze Menge. Die acht Kerner dürften mehr oder weniger Problemlos auf ~4GHz gehen. Wenn doch die Hexacores mit Turbo schon fast diese Taktrate per default packen. Das Silizium selbst kann also den Takt wohl ohne horende Spannungen ab. Das macht der acht Kerner dann ebenso spielend. Interessanter dürfte die notwendige Kühlleistung dafür werden. Könnte also sein, das ich dazu auf Wasser umrüsten muss.
Ich plane bei minimum 4GHz einzusteigen. Besser 4,2GHz. Damit habe ich dann in Summe ca. doppelte MT Performance zu meiner jetzigen 4,5GHz Sandy und in ST bzw. der Gamingleistung keinen Leistungsnachteil, eher sogar nen minimalen Vorteil. Auch skalieren die GPU Treiber häufiger gut über die Threads, sprich es kommt mehr Leistung bei mehr Threads rum obwohl das Game das selbst nicht auslastet.


Geht es mit dem OC gar nicht gut und die Hütte lässt sich nur mit äußerstem Aufwand gegen 4GHz bringen, dann lass ich diese erste acht Core i7 Generation aus und steige beim i7-4790K ein. Vielleicht noch ein paar MHz drauf auf den Allcore Turbo und hab auch meine ~10-20% mehr als jetzt. Kost obendrein auch nur einen Bruchteil vom Haswell-E :fresse:

Warum sollten sie nicht über 4GHz takten das machen die schon seit Sandy-E problemlos mit ;) ob alle 4.5GHz mit brauchbarer Spannung erreichen das kann ich nicht versprechen und 5GHz wird auch wie bei Sandy-E oder IVY-E 24/7 eher die Ausnahme sein. Ein 4790K ist für mich nur noch Mittelklasse und mit 50-100 Euro Brettern für den Sparfuchs. Wer noch 200 Euro oder mehr für ein 1150er Board ausgibt ....... also dann wirklich gleich 2011 da wird der 1150er sinnfrei.
Wenn es dann gleich ein 8 Kerner sein soll wird der bestimmt nicht über 4.2 GHz brauchbar mit Luft zu kühlen sein, mindestens eine H100I oder gleich selber eine WaKü zusammenstellen wird da schon nötig sein.
 
Hmm.. ich frag mich grade wieviel % der Leute die hier über den Kauf dieser Enthusiasten-CPUs diskutieren und nachdenken, diese Leistung tatsächlich in der Praxis brauchen und nutzen! :d
Sind hier wirklich so viele Videobearbeiter und Bauteil/Physik Entwickler? o:
 
VOn diesen komplett Waküs bin ich nicht 100% überzeugt. Wenn dann richtig, nur muss dann der Vorteil wirklich eklatant sein um den Preis für die Wakü (vollumfänglich) zu rechtfertigen... Zumindest aus meiner Sicht.
Erreiche ich also sagen wir mit Wasser gerade so 4,4GHz, wärend mit Luft noch die 4,2 gehen, werde ich bestimmt nicht auf Wasser umrüsten.
Anders schauts aber aus, wenn die Kiste mit Luft gerade mich ach und krach die 4GHz packt, wärend mit Wasser sozusagen spielend ne 5 vorn stehen kann... Dann sehe ich auch einen Mehrwert und werde den Wakükauf mit einkalkulieren... Lautstärke ist für mich seit je her schon KEIN Argument gegen eine Lukü :fresse: Bleibt also quasi nur die Kühlleistung in Verbindung mit dem erreichbaren OC Takt.

Das gleiche kommt auch bei den GPUs als Argument. Meine 780TI bekomme ich mit Wasser auch nicht derart signifikant höher, das es sich lohnt den Preis dafür auszugeben. Unter Luft macht das Teil seine 1150-1190, je nach Last und Temp. Wenn da mit Wasser 1300 auf der Uhr stehen, bringt mich das in Sachen Performance sogut wie gar nicht weiter. Also schenk ich mir das sozusagen...
 
mal ne frage:

welche anwendungen bzw. engines können derzeit 16 threads handhaben? und unter welchem OS?

wir bewegen uns hier sicher richtung linux datenbanken oder sowas? oO
 
fdsonne das ist jedem selbst ueberlassen.
meinereiner ist mit der lastlautstaerke bei wakue deutlich zufriedener als bei luft.
 
@fdsonne
Du vergisst die besseren Temperaturen.
Vollkommen irrelevant, wie heiß es in meinem Zimmer ist, meine Ti wird nie wärmer als 40°C.
Verlötete Prozessoren, bzw. welche mit besserer (weniger) Paste (Devils Canyon) profitieren auch um einiges.
Und wenn Lautstärke vorher kein Problem war, ist sie danach noch weniger eins (richtige Konfig vorausgesetzt).

Aber man muss ich schon dafür begeistern können, auch hobbytechnisch, sonst macht es keinen Sinn.
 
Zuletzt bearbeitet:
mal ne frage:

welche anwendungen bzw. engines können derzeit 16 threads handhaben? und unter welchem OS?

wir bewegen uns hier sicher richtung linux datenbanken oder sowas? oO

Also die meisten aktuellen Softwares die relativ eingeschränkte Aufgaben haben, sollten mit "unendlich" vielen Kernen klar kommen.
Dazu zählen auf jeden Fall Dinge wie Video-encoding, Anwendung von Filtern auf Grafik und auch viele Physik-, 3D- oder Raytracing-Simulatioren bzw. allgemein Renderer.
Aus Programmierersicht ist es bei solchen Aufgaben kaum ein Mehraufwand wenn man das System auf 16 Threads splittet, oder nur auf 4.

Allerdings ist ja die Frage wer solche Dinge zuhause privat macht.
In professionellen Umgebungen kommen für sowas, meines Wissens nach, in der Regel Serveranlagen mit Xeons zum Einsatz und sicher keine solchen Platformen.


Erheblich schwieriger gestalltet sich Multithreading bei Echtzeit-Aufgaben wie z.B. Games. Da bedeutet jeder zusätzliche Thread der paralel laufen soll, einen hohen Mehraufwand.


@Skillar Was spielt die Temp bei gleichem Übertaktungspotential denn für eine Rolle?.. Das ist doch nur ein Zahlenwert und selbst eine R9 290 mit Luftkühlung @90° wird ziemlich sicher lange genug leben das sie in einem Enthusiasten-System ausgemustert wird (<2-3 Jahre)
 
Zuletzt bearbeitet:
@Skillar Was spielt die Temp bei gleichem Übertaktungspotential denn für eine Rolle?.. Das ist doch nur ein Zahlenwert und selbst eine R9 290 mit Luftkühlung @90° wird ziemlich sicher lange genug leben das sie in einem Enthusiasten-System ausgemustert wird (<2-3 Jahre)
Nunja, relativ.
Bei den 780Tis ist es nun mal so, dass bessere Temperaturen tatsächlich zu einem höheren/stabileren Takt führen.

Aber das war wohl missverständlich von mir ausgedrückt, es ging mir nicht um OC.
Bei SLI/Crossfire etc. werden durchaus bedenkliche Temperaturen erreicht, mit Wakü ist das Problem gelöst.
Ich halte es eben für bedenklich, meine Komponenten mit 85-90°C laufen zu lassen.

Edit: Mal von der dann vorherrschenden Lautstärke abgesehen.
 
Zuletzt bearbeitet:
Ich halte es eben für bedenklich, meine Komponenten mit 85-90°C laufen zu lassen.

Ich eigentlich auch... aber ich glaube mein Instinkt trügt mich da nur :d
Das ganze kommt wohl aus "alten" Zeiten wo die Siliziumteile nicht so robust waren wie heutige CPUs. Auch Intel CPUs sind z.B. für eine Temp von 100° spezifiziert und drosseln erst danach.

Auf Chip.de hatten wir mal einst einen Fall aufgedeckt wo einer über Performanceprobleme seines Rechners klagte. Es stellte sich heraus dass er über ein Jahr lang, seine CPU auch im Desktop auf ~100° betrieben hat und die sich darum ständig drosselte weil beim Einbau des Kühlers falsche Schrauben benutzt wurden, und wohl ein Milimeter großer Spalt zwischen Kühler und CPU da war...

Nach dem richtigen Einsetzen eines Kühlers lief der Rechner endlich eins A und scheint keinerlei Schaden abbekommen zu haben!

Das gilt auch für Grakas...

EDIT: Die Lautsärke hängt doch vom Kühler ab. Nur weil solche Temps erreicht werden, muss der Kühler ja nicht zwangsläufig auf volle Pulle laufen - kann man ja einstellen.
Der Referenzkühler der R9 290 ist natürlich eine Fehlkonstruktion, das ist klar.
 
Zuletzt bearbeitet:
fdsonne das ist jedem selbst ueberlassen.
meinereiner ist mit der lastlautstaerke bei wakue deutlich zufriedener als bei luft.

Ich habe auch nichts dergleichen angezweifelt ;) Sondern nur meine Meinung dazu geschrieben.

@fdsonne
Du vergisst die besseren Temperaturen.
Vollkommen irrelevant, wie heiß es in meinem Zimmer ist, meine Ti wird nie wärmer als 40°C.
Verlötete Prozessoren, bzw. welche mit besserer (weniger) Paste (Devils Canyon) auch um einiges.
Und wenn Lautstärke vorher kein Problem war, ist sie danach noch weniger eins (richtige Konfig vorausgesetzt).

Das Problem ist eher, mir ist die Temperatur dahinter im Grunde genommen vollkommen egal. Ob da nun 40 oder 70 stehen, :wayne: solange ich keinen Nachteil davon habe... Und ich im "grünen" Bereich, also der Herstellerobergrenze agiere.
Ich hatte vorhin mal ne Stunde Metro:LL laufen. Die 780TI macht gute 82°C. Hält dabei die ~1150 recht konstant bei mir mit angepasster Lüfterkurve. Selbst mit nur 40°C auf der GPU würde ich damit nicht derart mehr Takt rausholen, das es für mich lohnt den Aufwand zu betreiben. Nimmt man es genau, wären selbst 1300MHz gerade mal ~13% mehr. Das selbst 1:1 umgemünzt auf die FPS wäre zwar nice to have, aber keinesfalls ein Beinbruch, wenn man es nicht hat. Und dabei müssen die 1300 natürlich auch stabil sein :fresse:
 
CPUs und GPUs halten schon eine Menge aus den letzten CPU den ich geschossen habe das war ein Thuban da war ich selber schuld weil ich im Offset + und - durcheinander gebracht habe früh 4 Uhr nach stundenlangen OC fast 1V+ unter Luft und ende Gelände noch bevor der Schutzmechanismus greifen konnte ;)
 
Ihr habt Recht, CPU/GPUs interessieren die Temperaturen herzlich wenig.
Aber andersweitige Vorteile hat es durchaus- Stromverbrauch (drastisch bei AMD R9). Sah man relativ gut beim Raijintek Morpheus, wobei diese Karten ein Extremfall sind.
Aber mal abseits von den Herstellerangaben bezüglich Temperaturen- wenn ich eine 600€ GPU kaufe, soll sie auch gut gekühlt werden.
Eventuell Spinnerei, aber ist in meinem Fall eben so :fresse2:

@fdsonne
Ja, für 1300MHz muss man schon eine echt gut übertaktbare erwischt haben.
Allerdings wirst du es nicht testen können, da du (bei genügend hoher Temperatur) ins Power Target Limit kommen wirst.
Aber auch hier kann man sich endlos über Sinn/Unsinn streiten. Wie du sagtest- nive to have.

@topic
Bis jetzt waren die High-End-CPUs samt Mainboards nicht interessant für mich, sowohl kostentechnisch als auch in anbetracht des geringen Mehrwerts (in meinem Fall).
Allerdings hört sich DDR4 durchaus nach was an, mal schauen was dieser tatsächlich bringt.
Was mich allerdings deutlich stört, sind die lächerlichen 40 Lanes für die großen Modelle.
 
Zuletzt bearbeitet:
Ich habe wegen fehlendem GPU Wasserkühler probeweise meine zweite 7950 ohne Wakü montiert und es ist mir klar geworden was ich von der Wakü habe. Erstens konnte die Karte selbst mit 100% Lüftergeschw. nicht die letzten 150 MHZ erreichen und der Lärm selbst ohne oc ist echt eine Zumutung. Gerade bei heutigen Temperaturen hören ich eure Lukü jetartig durchstarten. Soll aber ja Leute geben denen es nichts ausmacht den Garten in einer Anflugschneise zu haben.

Aber mal zum Thema: Sind die Sockelbohrungen gleich zum bisherigen 2011?
 
Welche 7950? Dir ist ja wohl klar dass es Welten zwischen den unterschiedlichen Graka-Luftkühlern gibt und da du ja Wakü planst, nehme ich an dass du ein Referenzdesign hast das ja generell als eher laut gilt...
 
Also ich habe einige GPUs in Action gesehen und gehört. Es stimmt das eine PCS+ von meinem Kollegen weniger Lärm gemacht hat als meine Ref. Aber ab 1000mhz ist die auch ordentlich durchgestartet und von meinen takt mit entsprechender vgpu kann sie nur träumen.
 
welche anwendungen bzw. engines können derzeit 16 threads handhaben? und unter welchem OS?
Fast alle Intel Entwickler Libraries (Fourier Transformation, BLAS, LAPACK, Performance Libraries) skalieren sehr gut mit der Core Anzahl. BLAS und LAPACK sind Bibliotheken zur Bearbeitung von Matrizen bzw. dem Lösen von Eigenwertproblemen. Das kann man auch für die Bildbearebeitung einsetzen, aber im großen und ganzen ist das Programmcode für HPC. Wenn man MPI einsetzt skaliert die Software nicht mehr nur auf einem Knoten (ein einzelner Server meistens Dual Socket mit zwei Xeons mit 10 oder 12 Cores je Xeon), sondern in einem Cluster. Wie gut hängt jeweils vom Problem ab und von der Netzwerktopologie des Clusters. Man kann je nach Problem auch mal schnell mehrere tausend Knoten belegen. Jeder Knoten rechnet an einem anderem Teil des Problems, und per MPI werden dann die Daten jeweils ausgetauscht. Cluster sind mittlerweile fast eine Linux only Geschichte.

Kommerziell findet so etwas etwa in Ansys (insbesondere Fluent) Verwendung, das ist eine Software um Strömungsprobleme zu lösen. Die eigentliche Ingenieurs Applikation läuft unter Windows, das HPC Backend läuft üblicherweise auf einem Linux Cluster. Aber es gibt schon für Renderprogramme Clusteransätze, so daß die Jobs auf viele Computer verteilt werden können.

Es gibt bei der Parallelisierung mehrere wichtige Schwellen, die man für hochparallel Code überwinden muß.
  1. Der Code muß sich auf die Cores einer CPU aufteilen lassen
  2. Der Code muß mit den NUMA-Knoten einer Multisockel Maschine zurecht kommen
  3. Der Code muß sich über mehrere Knoten parallelisieren lassen
  4. Der Code muß mit der Topologie eines großen Clusters zurecht kommen, d.h. die Knoten sind nicht mehr gleich schnell erreichbar. Es existiert eine Hierachie.

Nur die beiden ersten Punkte sind für Spiele von Bedeutung.
 
Fast alle Intel Entwickler Libraries (Fourier Transformation, BLAS, LAPACK, Performance Libraries) skalieren sehr gut mit der Core Anzahl. BLAS und LAPACK sind Bibliotheken zur Bearbeitung von Matrizen bzw. dem Lösen von Eigenwertproblemen. Das kann man auch für die Bildbearebeitung einsetzen, aber im großen und ganzen ist das Programmcode für HPC. Wenn man MPI einsetzt skaliert die Software nicht mehr nur auf einem Knoten (ein einzelner Server meistens Dual Socket mit zwei Xeons mit 10 oder 12 Cores je Xeon), sondern in einem Cluster. Wie gut hängt jeweils vom Problem ab und von der Netzwerktopologie des Clusters. Man kann je nach Problem auch mal schnell mehrere tausend Knoten belegen. Jeder Knoten rechnet an einem anderem Teil des Problems, und per MPI werden dann die Daten jeweils ausgetauscht. Cluster sind mittlerweile fast eine Linux only Geschichte.

Kommerziell findet so etwas etwa in Ansys (insbesondere Fluent) Verwendung, das ist eine Software um Strömungsprobleme zu lösen. Die eigentliche Ingenieurs Applikation läuft unter Windows, das HPC Backend läuft üblicherweise auf einem Linux Cluster. Aber es gibt schon für Renderprogramme Clusteransätze, so daß die Jobs auf viele Computer verteilt werden können.

Es gibt bei der Parallelisierung mehrere wichtige Schwellen, die man für hochparallel Code überwinden muß.
  1. Der Code muß sich auf die Cores einer CPU aufteilen lassen
  2. Der Code muß mit den NUMA-Knoten einer Multisockel Maschine zurecht kommen
  3. Der Code muß sich über mehrere Knoten parallelisieren lassen
  4. Der Code muß mit der Topologie eines großen Clusters zurecht kommen, d.h. die Knoten sind nicht mehr gleich schnell erreichbar. Es existiert eine Hierachie.

Nur die beiden ersten Punkte sind für Spiele von Bedeutung.

so eine ausfühliche antwort hatte ich nicht erwartet. besten dank :banana:
 
Ich denke das schon punkt 2 in Spielen nicht unbedingt die beste Unterstützung findet weil Multisockel doch etwas selten ist. Der Punkt 1 ist aber völlig ausreichend und dürfte jetzt auch bei alle aktuellen Engine Standart sein.
 
Unterstützung aber ungleich Skalierung ;)
Wenn etwas sagen wir zu 80-100% bei 100% Einheitenverdopplung skaliert, dann ist das sehr anständig.
Wenn etwas aber mit sagen wir 10-20% bei Einheitenverdopplung skaliert, dann ist das äußerst mau. Und genau das hat es in den meisten Games, wo wir über mehr wie vier Threads sprechen stand heute einfach noch. ;)
 
Unterstützung aber ungleich Skalierung ;)
Wenn etwas sagen wir zu 80-100% bei 100% Einheitenverdopplung skaliert, dann ist das sehr anständig.
Wenn etwas aber mit sagen wir 10-20% bei Einheitenverdopplung skaliert, dann ist das äußerst mau. Und genau das hat es in den meisten Games, wo wir über mehr wie vier Threads sprechen stand heute einfach noch. ;)

Nein ;) vor 2-4 Jahren hätte ich Dir das noch unterschrieben aber die aktuellen Engine auf denen die meisten Titel geschrieben werden skalieren einfach besser dank next gen Konsolen müssen Sie sogar bis zu 8 Kerne berücksichtigen weil sie die AMD APUs komplett ausnutzen müssen.
 
Zuletzt bearbeitet:
Nein ;) vor 2-4 Jahren hätte ich Dir das noch unterschrieben aber die aktuellen Engine auf denen die meisten Titel geschrieben werden skalieren einfach besser.

Also von "meisten" würde ich nicht sprechen. Was bedeutet denn genau "besser"?
Von mehr als vier Kernen profitieren immernoch nur sehr wenige Games.. ist leider so...
Solang man aber keine dual-GPUs auf FullHD los lassen will, reicht aber trotzdem ein normaler 4kerner von Intel - muss nicht mal Enthusiasten Board sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh