[Frage] Umstieg von Nehalem auf Skylake sinnvoll? 1366->1151

Ich bin von nem Xeon E3 1230V2 auf den I7 6700K umgestiegen.
Tag und Nacht sag ich nur. Da liegen Welten dazwischen wenn man
zusätzlich noch DDR4 3200er Speicher nutzt. Also wäre der Unterschied
bei dir noch viel krasser. Ich spiele halt auch auf nem 1080P 144Hz Display
da spielt das CPU-Limit natürlich meistens ne Rolle. Aber es lohnt sich so
dermaßen ! Mach es!

EDIT: Schneller RAM macht sich nur im CPU-Limit bemerkbar. Dann aber massiv.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin von nem Xeon E3 1230V2 auf den I7 6700K umgestiegen.
Tag und Nacht sag ich nur. Da liegen Welten dazwischen wenn man
zusätzlich noch DDR4 3200er Speicher nutzt. Also wäre der Unterschied
bei dir noch viel krasser. Ich spiele halt auch auf nem 1080P 144Hz Display
da spielt das CPU-Limit natürlich meistens ne Rolle. Aber es lohnt sich so
dermaßen ! Mach es!

EDIT: Schneller RAM macht sich nur im CPU-Limit bemerkbar. Dann aber massiv.

Schnellerer RAM macht sich "massiv" bemerkbar? Dann zeig mal her deine Benchmarks um das mit Fakten zu zeigen, ich kenne nur unzählige Test im Netz wie z.B. den hier, der genau das Gegenteil besagt.
 
Schnellerer RAM macht sich "massiv" bemerkbar? Dann zeig mal her deine Benchmarks um das mit Fakten zu zeigen, ich kenne nur unzählige Test im Netz wie z.B. den hier, der genau das Gegenteil besagt.

DDR3-/DDR4-RAM 2016: Test, Vergleich, Kaufberatung und Bestenliste [August]

Bitteschön...

Avg FPS in Witcher 3 von 118 auf 146...

Ich hab ja gesagt die Differenz ist nur im CPU Limit so riesig. Wenn man 4k Downsampled ist der Ram natürlich völlig Wumpe...

"Schnellerer Speicher als DDR3-1600/DDR4-2133 ist pure Geldverschwendung!" - Aussagen dieser Art hört man leider immer wieder und sind so pauschal formuliert schlicht falsch. Richtig ist: Ob hohe RAM-Taktfrequenzen in der Praxis zu mehr Leistung führen, unterscheidet sich von Fall zu Fall. Es gibt bestimmte Anwendungen, in denen der Arbeitsspeicher einen immensen Einfluss auf die Berechnungsgeschwindigkeit hat. Das Komprimieren und Verschlüsseln eines Archivs mit der Software 7-Zip gehört zu diesen Fällen. Die Bearbeitung eines großen Archivs kann mit DDR3-1600-RAM schon einmal über 30 Prozent länger dauern als mit DDR4-3200 - wohlgemerkt bei gleicher Speichermenge und CPU-Geschwindigkeit.
 
Zuletzt bearbeitet:
Wenn man schon ein S1366 Board hat das noch was taugt, macht es kein Sinn auf Sky/Kabylake umzusteigen wenns nur um Gaming geht.
Natürlich darf man solche schöne Sachen wie SATA 3,M2 SSD und wesentlich weniger Abwärme nicht aus Augen verlieren.
Aber wenn man die Sachen verkauft die man hat ist der Umstieg nicht so teuer.
So1366 Boards gehen immer noch gut weg bei eBay.
Eins EVGA SR2 hat damals ca.360€ gekostet!
Jetzt gehen die für bis zu 600€ weg(6 Jahre alte HW)....
Oder ein Asus P6T WS Pro ist richtig teuer!


Gesendet von iPhone mit Tapatalk
 
[Frage] Umstieg von Nehalem auf Skylake sinnvoll? 1366->1151

Die 1366 gehen alle für ganz schön Geld weg. Ich versteh's nicht. Aber der Umstieg von 1366 aus 1151 wäre Schwachsinn! Wenn dann auf 2011-3 wechseln.


Gesendet von iPhone mit Tapatalk
 
Man kriegt halt 6 Kern CPU für wenig Geld.
Die X5660/70 als pair gehen meist für 120-140€ weg.
Damit kann man für wenig Geld gute WS zusammenstellen!
Hat man 12C/24T für Summe 300€.
Baue mal vergleichbares mit den 2011 auf?
Kostet richtig Asche!
Gut. Die Performance der Hasswell/Broadwall ist nicht zu verachten!


Gesendet von iPhone mit Tapatalk
 
Ich hab ja gesagt die Differenz ist nur im CPU Limit so riesig. Wenn man 4k Downsampled ist der Ram natürlich völlig Wumpe...

Der eigentlich relevante Satz im Artikel ist der hier:
"Es gibt bestimmte Anwendungen, in denen der Arbeitsspeicher einen immensen Einfluss auf die Berechnungsgeschwindigkeit hat."
Nimmt man es genau, ist er nicht ganz richtig... Denn es ist halt nicht die Anwendung ansich das Problem, sondern die Abhängigkeit zur Bandbreite... Software ohne Bandbreitenbedarf GIBT es nicht. Aber der Bedarf an Bandbreite unterscheitet sich exorbitant zwischen den verschiedenen Szenen und Workloads.

Das Problem, was man hier allerdings mal wieder erkennt -> du argumentierst zu einseitig. Nicht Skylake gewinnt durch den höheren Durchsatz mit straffen Timings die Performance, sondern ALLE Anwendungen, die auf Skylake mit Bandbreite und Timings skalieren, tun dies auf anderen Platformen exakt genau so. Vielleicht nicht exakt im selben Maßstab, aber in die gleiche Richtung. So wird auch ein Haswell, Ivy oder Sandy Prozessor mit 3000+ DDR3 Modulen im DC und sehr straffen Timings in genau dieser TW3 Szene ähnlich hoch zulegen. Genau so wie 7Zip in die selbe Richtung streut.
Kurzum, das gilt für ALLES, was sehr hohe Anforderungen an Bandbreite und Latenz hat... Und das gilt vor allem auch Plattformübergreifend.

Unterm Strich:
Die Aussage: "Da liegen Welten dazwischen wenn man zusätzlich noch DDR4 3200er Speicher nutzt." trifft bestenfalls dann zu, wenn man "nur" Skylake Memoryseitig ans Limit fährt... Hast du dem alten Xeon denn auch 3200er Module mit straffen Timings spendiert für einen sinnvollen Vergleich? Warscheinlich nicht ;)
 
Man kriegt halt 6 Kern CPU für wenig Geld.
Die X5660/70 als pair gehen meist für 120-140€ weg.
Damit kann man für wenig Geld gute WS zusammenstellen!
Hat man 12C/24T für Summe 300€.
Baue mal vergleichbares mit den 2011 auf?
Kostet richtig Asche!
Gut. Die Performance der Hasswell/Broadwall ist nicht zu verachten!


Gesendet von iPhone mit Tapatalk

Klar, die Asche ist gut verheizt mit 2011-3, aber die Plattform ist eben auch wesentlich effizienter und moderner als 1366, was idR weder USB3, noch SATA3, PCIe3 noch Features wie AVX über die CPU mitbringt.


Gesendet von iPhone mit Tapatalk
 
@CH4F
All das ist richtig. Ich gebe dir vollkommen recht. Aber nicht jeder ist bereit so viel Geld locker zu machen für So2011.
Ich werde von So1366 erst zu Kabylake High End Plattform umsteigen.
Der I7-7700 ist nix halbes und nix ganzes.
Zumindest "meine persönliche Meinung"!
Mich reizen schon diese bootfähige PCI-E SSD.


Gesendet von iPhone mit Tapatalk
 
na dann hol dir doch einfach eine 950Pro + M.2-Adapter, von der kann man nämlich auch mit einem X58-Board booten ;)
 
@CH4F: wesentlich effizienter ist es nicht. der 5820k frisst @stock unter last deutlich mehr strom als der 5650X, hat dann aber mehr leistung, oder man übertaktet den 5650X, dann steigt der verbrauch aber die leistung passt (bei ~4,3 ghz erreicht er etwa den 5820k @ stock). unterm strich is der 5820k zwar etwas besser und effizienter, aber eben nicht so signifikant, dass es sich lohnt. selbst das upgrade auf einen skylake celeron wäre teurer als ein cpu wechsel auf 5650X und der celeron spielt einige ligen weiter unten als die 12-threater cpus. ;)

darum sind die 1366er systeme zwar gemessen an ihrem alter teuer, aber gemessen an ihrer leistung äußerst günstig. und spätestens seit 2500k sollten wir wissen dass alt nicht automatisch gleich langsam ist.
 
Zuletzt bearbeitet:
unterm strich is der 5820k zwar etwas besser und effizienter, aber eben nicht so signifikant, dass es sich lohnt.

uff.. mich würde nicht wundern wenn der 5820k 50% mehr performance pro watt bietet als der x5650,
leider sehr schwer da entsprechende tests zu zu finden.



edit:
gut geschätzt^^

dczdgnlzeoo6l6jhi.jpg

http://www.pcgameshardware.de/Core-...0X-und-i7-5820K-Test-Haswell-Extreme-1134186/

ja ich weiß.. der x5650 verbraucht weniger als der 990x.
verbraucht aber auch nur deswegen weniger weil das ding eben so niedrig taktet und dadurch dann eben auch entsprechend langsamer ist.
 
Zuletzt bearbeitet:
mal abgesehen davon dass lightroom jetzt nur ein benchmark ist und ich da mal ganz andere ergebnisse mit deutlich mehr benchmarks, aber leider ohne energiemessung hatte, 50 % mehr energieeffiziens (nicht zu verwechseln mit mehrleistung!) gegenüber 1.000 % mehrpreis (im falle des te)... ich bleib mal einfach bei meiner aussage ;)

dass der haswell-e den westmere-e übertrifft ist klar, aber in überschaubarem rahmen. beide bieten 6 kerne und 12 threads und beide brauchen deutlich über 100 watt unter volllast (ok der 5650 nur mit oc, aber setze ich mal wegen der leistung einfach vorraus) aber sicherlich weniger als ein FX9590 ;)

und wenn ich 150 € für nen rechner ausgeben könnte, würde ich ganz sicher den 5650x statt eines celeron oder pentium nehmen.

ich bezog mich ja auf die aussage:
Die 1366 gehen alle für ganz schön Geld weg. Ich versteh's nicht.
also ich verstehs sehr gut. billiges 12 thread-oc-system. für den preis kommt kein aktuelles system leistungsmäßig an das ran, und von der leistung kommt kein aktuelles system auch nur ansatzweise an den preis ran. ich bin mir manchmal gar nicht sicher was der eigentliche preishammer ist: 2500k @ oc oder 56X0 @ oc. (ich hab zum glück beides :d)
 
Zuletzt bearbeitet:
Also wenn ich die ganze Diskussion schon in Trab gebracht habe; was ist und kostet denn ein guter und auch günstiger Stromverbrauchszähler für die Steckdose?

Also dann sekundär "at the wall" gemessen würde mich das schon mal interessieren, was ein 6800k stock samt X99 und GTX1070 frißt. Ich glaube ich lag damals mit dem Sockel 1366 idle so bei über 120Watt locker (i7 920@4GHz samt GTX470 im SLI).

Klar ist die Umrüstung auf ein Broadwell-E teuer (~400€ CPU alleine) aber wer sagt, ein Skylake wäre flott vom Feeling her... bin von Braodwell-C auf 5820k auf Skylake i5 6600 und wieder auf 6800k gewechselt und beide male hat die X99 Platform im Bereich "Schwupsiwupsi" micht positiv überzeugt.
 
Zuletzt bearbeitet:
5820k auf Skylake i5 6600
:confused:
das downgrade muss man aber nicht verstehen, oder? das 12 threads potentiell schneller sein können als 4 sollte imho nachvollziehbar sein ;)
 
Zuletzt bearbeitet:
Reine Neugier was Skylake so zu bieten hat. Wollte halt auch mal wissen, was so daran ist, was man so lesen kann im Inet...also daß beim Daddeln Hyperthreading net wirklich viel was bringt im Vergleich zum i5 und das 4 Kerne noch immer ausreichend sind :p
Also so ganz grober Unfug ist das ja auch net, zumal man dann knapp 160€ Ebaykaufpreis (i5 6600) zu 430€ Geizhals-Neupreis (i7 6800K) mit einberechnen muß in die Kalkulation von Preis/Performance.

Ich habe den Umstieg dann vom i5 6600 auf i7 6800K aber net bereut, wenn auch Schweineteuer. Im ziemlich CPU-Lastigen Fallout4 liefen alle 4 Cores (3.6GHz) dann bei 90%, auf den 6 Cores samt HT (3.4GHz) dann bei gemütlichen 40%; FPS liegt trotzdem in beiden Setups pi-mal-daumen gleichauf. In Crysis war es ähnlich mit der Performance; jeweils gemessen mit einer GTX1070 (die hatte ich mit dem Broadwell-C Setup noch net).

Also solange man net übertaktet, schadet der 4 Kerner auch net wirklich.

Ist alles halt Geld und ein wenig auch e-penis Frage: wenn man das Geld dann auch hat, dann ist so ein X99 Broadwell-E Setup aber auch schon für sich genommen eine recht ordentliche Hausnummer*!


*also ich würde das schon als "oberhammergeil" bezeichnen, wenn ich mal so im Mediamarkt-Chargon bleiben darf :d
 
Zuletzt bearbeitet:
Ich sehe es eher so, dass man mit einem gebrauchten i7-/Xeon E3 (mit HT) - Setup das beste P/L-Verhältnis bekommt. In aktuellen AAA-Titeln wie GTA5, Witcher3 & Co. bringt das HT stabiliere bzw. höhere min.FPS.

Es muss aber kein 6700 sein, ein 2600K bei 4GHz reicht da auch schon dicke. Deswegen sind gebrauchte Setups preislich deutlich von Vorteil - so lange Gebrauchtkauf in Frage kommt. bzw. möglich ist.
 
Es muss aber kein 6700 sein, ein 2600K bei 4GHz reicht da auch schon dicke.
was wenig überraschend ist, da beide ca gleichschnell sind ;) der i7 6700 (ohne k) hat 3,4 ghz ^_^
der 6700k ist dann nochmal ne andere hausnummer, insbesondere mit oc :) aber wenn ne cpu mit i7 6700-leistung nicht mehr reicht, dann weiß ich auch nich :d
 
Ich habe mit Absicht den 6700 ohne K angesprochen - denn der kostet auch schon eine "gute Hausnummer". Gegen den 6700K sieht der 2600K auch mit 4GHz keinen Stich und muss schon die 4.5GHz knacken, um mit den 4GHz des 6700K mitzuhalten.

Unter'm Strich ist das P/L-Verhältnis beim 2600K dennoch deutlich besser, weil die brauchbaren FPS ab 4GHz eh von der GPU abhängen - egal ob 2600K oder 6700(K).
 
wobei 4,5 ghz für sandy auch i.d.r kein problem sind. ich war von meinem schon enttäuscht, dass der keine 5 ghz unter luft macht >_<
 
NP, lass mal den Balkan (aka Balkonien) in frieden!
Sub Zero Wasser Vorlauf Temperatur sind "not bad" ! :teufel:

Du bist echt Lernresistent oder?

Junge, deinen FX kannst du beerdigen!

btw ich habe 2000 KW/h als Jahresprognose in sachen Stromverbrauch.

Zahle 28 Cent pro KW/h

Also Zahl ich danach so 560€ im Jahr.

Mein Rechner läuft jeden Tag locker 12-14h.

Gezockt wird auch jeden Tag mindestens 4h.

Also wenn ich die GTX770 OC mit ihren 240W verbrauch, gegen eine zb GTX1060 oder RX470 Tausche welche ohne OC nur so 80w bei volllast haben, wäre das ja eine ersparniss von gut 2/3 allein bei der GPU.

Meine CPU brauch ohne OC grad mal 90W, das Mainboard und die Platte nochmal 30W zusammen. Komme dadurch mit Verlustleistung durch NT auf gute 360W beim Zocken mit der GTX770 im System.

Wenn ich eine 80W GPU einbauen würde, wären von den 360w mal eben nur noch 200W übrig. Wie viel Spare ich dadurch bei einer Stunde Zocken gegenüber den 360W ?

Ist ein Kilowatt = 1000Watt Stunden = 1000W x 3600 Sekunden Richtig ?

Bin gerade etwas überfordert wie ich das ausrechnen soll :fresse:

1. Sorry aber selbst der günstige Grünstrom ist für unter 28 cent KW/h zu bekommen. Einfach mal vergleichen -> Check24.de

2. Wozu läuft dein Rechner 12-14h am Tag?

3. Musst du dir dein AMD System schön rechnen?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh