i7-4790k - upgrade auf ???

Hab meinen kleinen Bruder auch vom 3770k auf nen 3600 aufgerüstet. Das ganze hat ihn 150€ gekostet. Und das war wirklich ein spürbares Upgrade für ihn.
Würde ich wieder machen. B450 oder wohl eher B550 Board kaufen. Jetzt nen 3600 drauf und wenn mans braucht auf nen Ryzen 4000 aufrüsten.

Anmerkung: Bei den 150€ Kosten ging sich sogar Samsung B-Die aus, der mit 3800-CL16 läuft.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Bullseye13
Das ging aber nur so günstig, weil er für den 3770K noch ordentlich Kohle bekommen hat, oder? Die Dinger werden gemessen an ihrer Leistung ja mit Goldstaub aufgewogen...
 
Genau so ist es. Gerade deswegen lohnt sich das Upgrade jetzt wirklich.
 
  • Danke
Reaktionen: Tzk
Ich verstehe es auch nicht, vor ca 2 Jahren vor meinem AMD System hatte ich das gleiche Problem, gebrauchte Hardware (Intelplattform) Preis = Neue Hardware Amdplattform.

Wie dumm ist es sich gebraucht Ware für den gleichen Wert wie Neuware zu kaufen, wenn bekannt ist das man für gebrauchte Hardware 0 Gewährleistung erhält. Das ist einfach unverständlich dumm. Das ist wie mit den Leuten die für ein 2 Jahre altes gebrauchtest Macbook den Preis von einem Neuen Businessnotebook mit neuerest Generation Hardware bezahlen.

Nachhaltigkeit in allen Ehren, aber eben jene gebrauchten Plattformen bieten ja keinerlei Upgrade Optionen. Auf nachfrage warum er für sein 2 Jahre altes System 1100€ will wenn ich es neu mit Garantie und Gewährleistung für den gleichen Preis in der gleichen Leistungsklasse bekommen könnte wurde ich wüst beschimpft ich hätte keine Ahnung und soll mich verpissen xD
 
FPS Steigerung im CS:GO FPS Benchmark ist bei ihm von 213,85 FPS auf 552,42 FPS.
 
  • Haha
Reaktionen: Tzk
Ohh Mann ... TestingGames ist ein Fake Youtube Kanal. :lol:
Und jetzt nicht fragen "warum denn??" oder "Hähhhhhh. Beweise?".
Seine Videos anschauen, selbst nachdenken ;)

@hipsu
Spielst du viel Anno und ähnliche Strategiespiele, sollte es schon ein Intel Prozessor sein. Am Besten min. 8 Kerne.
Folgernd -> Dein Budget reicht nicht aus.
Mit dem i7-4790k würde ich persönlich noch ein paar Monate "aushalten", bis Zen 3 erscheint.
Schaffst du schon :)
 
Das ist ja einer der Hauptgründe für diese massiven Grabenkriege (in Foren wie diesem). Es klatschen die unterschiedlichsten Gemüter aufeinander. Ich zähle jetzt, in diesem Moment, zu denen die einfach Bock haben auf Hardwarezeug. Sidegrade V56 auf 5700XT in FHD super sinnvoll? Nein. (Aktuelle Macken an meiner Karte mal aussen vor) R5 1600 auf 3700x war sinnvoll und ein unfassbarer Sprung. Kauf ich mir trotzdem (aller Voraussicht nach) einen 4700x/4900x (oder sogar mit der 50 dahinter? Einfach weil ich kann?)? Mit an Sicherheit grenzender Wahrscheinlichkeit. Kommt zum Jahreswechsel eine next gen gpu? Yes Sir.

Und dann gibt es Vernünftige(re) User, völlig sinnbefreite User und das alles verteilt auf ALLE Gehalts- und Bildungsstufen (welches ebenfalls meinungs- und stimmungsbildend ist).
Der 4c8t hat zehn Jahre lang NEU mit nem K dahinter 300-350 Euro gekostet. Wer da heute noch 50% des Preises für haben will hat meiner Meinung nach den Schuss nicht gehört, und es ist mir auch völlig egal wie wenig der gelaufen ist oder ob es ein noch relativ junger 7700K ist. In diesem Preisbereich laufen neue Ryzen rum. Da kauf ich doch keine "tote" Plattform, bestenfalls noch mit DDR3.
Hey, aber dann mag es den usecase geben in dem jemand wirklich 2 Kerne auf 5GHz braucht. Aber der Mensch erstellt hier nicht n Thread und propagiert die guten alten Vierkerner. Der kauft sich das Ding irgendwo und nutzt die Kiste. Das trifft ja aber, und da bin ich mir ganz sicher, auf die ganzen Stimmungsmacher hier in diesem Forum zu die Intel auf die höchsten Emporen heben. Die irgendwelche Argumente von sonstwo herziehen weswegen jede Intel cpu besser ist wegen Dingsbums und irgendwelchen Protokollen und Sachen die sonst auch kein Mensch braucht, nicht mal diese Menschen die es von sich geben).

Naja, leidiges Thema, wenn man sich denn in den Strudel wirft.

@Hyrasch ich hab Anno 1800 bisher nur gekauft aber noch nicht gespielt. Welche Probleme werden mich mit acht AMD Kernen denn treffen? Ist das so ein "ich laufe nur smooth wenn ein Kern 100MHz mehr hat als die aktuell schnellste AMD cpu" Spiel? Ist zwar mit Spitze, aber ne ernst gemeinte Frage.
 
Spiele die Heute oder vor 2-3 Jahren Entwickelt wurden, profitieren immer mehr von Multicore & Multithreading.
Der Massenmarkt der Entwicklungsländer (Südamerika, Afrikanische Länder, Osteuropa teilweise und Asiatischen Länder, sind nicht alle super wohlhabend.
Das halte ich für die absolut falsche Schlussfolgerung...
Sogut wie kein Spiel aktuell profitiert überhaupt nennenswert aus Multithread-Performance. Was einfach daran liegt, dass das so nicht funktionieren kann/wird, wie ihr das immer gern hättet. Es gibt grundverschiedene Probleme bei der Thematik. Ein DrawCall Limit ist mehr oder weniger strikt Single Thread. NV hat ein paar Tricks dran gebastelt, damit ihre Treiber da bisschen von Multithreading profitieren und etwas mehr DrawCalls raushauen können - aber das sind keine Welten. Das ist ne völlig andere Nummer ggü. einem CPU Limit, was entsteht, wenn das Spielebackend nicht schnell genug ist, weil der Entwickler zu viele Berechnungen/zu komplexe Berechnungen da rein gebaut hat. Dieses Spielebackend profitiert teils sehr gut von Multithread, weil es da im Prinzip keine Limits gibt. Das war aber auch schon immer so. Das dumme an der Thematik ist, die Berechnungen, die da stattfinden sind meist Sachen, die haben eine definierte Größe/Komplexität. Bist du zu langsam, skaliert es so lange wie du eben schnell genug bist. Und ab diesem Punkt gibt es keine Skalierung mehr. Denn die KI wird nicht komplexer, wenn du mehr CPU Cores nutzt. Physik wird nicht besser wenn du mehr CPU Cores nutzt usw. Einzige Ausnahme von dieser Regel sind Spiele wie Civilization -> wo die Berechnung der KI und so Kram nicht in Echtzeit, sondern nach Rundenablauf passiert -> da kann schnelle = besser sein.

Leider wird in allen möglichen Diskussionen immer alles, was irgendwie mit der CPU zu tun hat, in einen Topf geworfen. Und dann werden Benchmarks gezeigt, wo das Backend skaliert oder irgendwas über Treiber und sonstwas und dann behauptet, das Spiele durch ihr Entwicklungsdatum auf einmal davon profitieren würden -> was allerdings ziemlicher Käse ist, wenn man sich die Details mal ansieht.
 
Das ist ja einer der Hauptgründe für diese massiven Grabenkriege (in Foren wie diesem). Es klatschen die unterschiedlichsten Gemüter aufeinander. Ich zähle jetzt, in diesem Moment, zu denen die einfach Bock haben auf Hardwarezeug. Sidegrade V56 auf 5700XT in FHD super sinnvoll? Nein. (Aktuelle Macken an meiner Karte mal aussen vor) R5 1600 auf 3700x war sinnvoll und ein unfassbarer Sprung. Kauf ich mir trotzdem (aller Voraussicht nach) einen 4700x/4900x (oder sogar mit der 50 dahinter? Einfach weil ich kann?)? Mit an Sicherheit grenzender Wahrscheinlichkeit. Kommt zum Jahreswechsel eine next gen gpu? Yes Sir.

Und dann gibt es Vernünftige(re) User, völlig sinnbefreite User und das alles verteilt auf ALLE Gehalts- und Bildungsstufen (welches ebenfalls meinungs- und stimmungsbildend ist).
Der 4c8t hat zehn Jahre lang NEU mit nem K dahinter 300-350 Euro gekostet. Wer da heute noch 50% des Preises für haben will hat meiner Meinung nach den Schuss nicht gehört, und es ist mir auch völlig egal wie wenig der gelaufen ist oder ob es ein noch relativ junger 7700K ist. In diesem Preisbereich laufen neue Ryzen rum. Da kauf ich doch keine "tote" Plattform, bestenfalls noch mit DDR3.

Diese von dir benannten "Grabenkriege" kommen viel eher von solchen Aussagen wie deinen... Einerseits ballerst du hier so eine Aussage in den Raum, dass die ja alle dämlich hoch 3 sind, die sich da möglicherweise für teures Geld nen 4C in die Hütte zimmern und andererseits rechtfertigst du für dich ganz allein plötzlich alles mit "du hast einfach gerade Buch auf Hardwarezeug" - warum dürfen denn die anderen kein Bock haben und 150€ für nen Quadcore raus lassen? Wo ist denn da bitte immer das Problem dran?

Es gibt sicher sinnigere Optionen - aber nicht jeder hat eben Bock auf diesen Bastelkram mit allen Vor- und Nachteilen und Umständen. Zumal das Argument auch irgendwo recht komisch ist. Was hat die Verfügbarkeitslänge von 4C CPUs mit dem Preis zu tun? Nichts... Absolut nichts. Der, der für 150€ nen 4C/8T Prozessor kauft, hat doch das Restsystem und kauft dann eben nicht alles neu... Weder hat er ein Ryzen Board noch Speicher, wenn es vorher bspw. DDR3 war. Ansonsten kommt zumindest das Board drauf...

Tote Plattform ist auch ziemlich gaga... "X370+2700" ist auch tote Plattform. AMD hat die 300er Chipsätze abgekündigt. Zumal Haswall als Basis, wie du es für die Freundin da beschrieben hast und dann Ryzen 1st Gen. Board + 2nd Gen. CPU eh einen Plattform Wechsel notwendig macht. Und dann beim nächsten mal wechselt man, nach x-Jahren, wieder die Plattform. "Tot" ist das damit eh, egal wie man es dreht, weil der nächste Wechsel ziemlich sicher erst sonstwann erfolgen wird und ihr damit eh was dann aktuelleres als die heute auch schon "tote" 300er Plattform nutzen werdet.


Ich lese da ehrlich gesagt reichlich viel Widerspruch in deinen Aussagen...
 
Das halte ich für die absolut falsche Schlussfolgerung...
Sogut wie kein Spiel aktuell profitiert überhaupt nennenswert aus Multithread-Performance. Was einfach daran liegt, dass das so nicht funktionieren kann/wird, wie ihr das immer gern hättet. Es gibt grundverschiedene Probleme bei der Thematik. Ein DrawCall Limit ist mehr oder weniger strikt Single Thread. NV hat ein paar Tricks dran gebastelt, damit ihre Treiber da bisschen von Multithreading profitieren und etwas mehr DrawCalls raushauen können - aber das sind keine Welten. Das ist ne völlig andere Nummer ggü. einem CPU Limit, was entsteht, wenn das Spielebackend nicht schnell genug ist, weil der Entwickler zu viele Berechnungen/zu komplexe Berechnungen da rein gebaut hat. Dieses Spielebackend profitiert teils sehr gut von Multithread, weil es da im Prinzip keine Limits gibt. Das war aber auch schon immer so. Das dumme an der Thematik ist, die Berechnungen, die da stattfinden sind meist Sachen, die haben eine definierte Größe/Komplexität. Bist du zu langsam, skaliert es so lange wie du eben schnell genug bist. Und ab diesem Punkt gibt es keine Skalierung mehr. Denn die KI wird nicht komplexer, wenn du mehr CPU Cores nutzt. Physik wird nicht besser wenn du mehr CPU Cores nutzt usw. Einzige Ausnahme von dieser Regel sind Spiele wie Civilization -> wo die Berechnung der KI und so Kram nicht in Echtzeit, sondern nach Rundenablauf passiert -> da kann schnelle = besser sein.

Leider wird in allen möglichen Diskussionen immer alles, was irgendwie mit der CPU zu tun hat, in einen Topf geworfen. Und dann werden Benchmarks gezeigt, wo das Backend skaliert oder irgendwas über Treiber und sonstwas und dann behauptet, das Spiele durch ihr Entwicklungsdatum auf einmal davon profitieren würden -> was allerdings ziemlicher Käse ist, wenn man sich die Details mal ansieht.

Du hast nicht nur die Spiele auf deiner Plattform laufen, sondern du hast im Hintergrund noch andere Software die eben Leistung brauch. Sicherlich mag deine These für Shooter gelten wo irgendwann eine Grenze erreicht wurde. Aber spätesten mit der PS5 wo nicht mehr Segmentiert sondern real Open World (Am Stück)programmiert wird und während der Spieler sich auch nicht dem Bereich befindet im Hintergrund Routinen ablaufen, seien es ständige Simulierte Schlachten/Gefächte z. B ein Angriff auf einem Außenposten. Das kostet Leistung und benötigt Skalierbarkeit.

Es ist natürlich auch einiges möglich aus einem Thread raus zu holen und über Ressourceneinteilung Leistung zu sharen. Macht aber die Entwicklung bei hoher Komplexität nur unnötig umständlich und aufwändig, wo hingegen das Auslagern auf einen anderen Thread eine schnelle und einfache Lösung darstellt.

Es hat auch nie jemand behauptet das durch die Verlagerung auf mehrere Threads automatisch alle zu 100% ausgelastet werden würden.


Der ist ehemaliger Entwickler von der Frost bite Engine, er war daran beteiligt. (Battlefield)

Der hat sehr viele Sachen erklärt die mir vorher nie bewusst waren.

Hier z. B zur neuen PS5

Warum sollte Sony ne 8 Kern CPU einbauen, wenn man das nicht nutzen kann? Zusätzlich gibt es noch spezialisierte Chips die sich um die Kompression von Texturen kümmern etc.

Ich glaube es ist noch ein mächtiger unterschied zwischen einem Buchhaltungsprogramm und einem AAA Modernem Computerspiel.

Neue Spiele wie z. B https://www.playmagiclegends.com/de/news-article/11465393 führen eine Backroundfunktion ein die sie "Direktor" nennen ein, das kannst du mir nicht erzählen das es nicht auf einem eigenen Thread laufen wird.

1593076513104.png


Ich gebe dir ja recht das irgendwo eine Grenze ist, die ist aber noch lange nicht bei einem Quadcore erreicht. Zumindest nicht bei Spielen mit hoch komplexen Welten und Simulierter Realität.

Als Beispiel: https://www.overclock3d.net/reviews/software/the_division_2_pc_performance_review/6

Du darfst auch nicht vergessen, das Anti-Cheatprozesse, Denuvo (Kopierschutz) auch Leistung kosten. Sie werden zwar immer genügsamer optimiert aber das kostet eben auch Leistung und ist teil der Software.

Total Warhammer 2, hat zwar im runden basierten Modus das gleiche wie Civilization den Vorteil das die KI Züge berechnet werden und reduziert die rundendauer, aber in den Echtzeitschlachten mit den vielen Einheiten die gleichzeitig Aktionen betreiben brauchst du auch Masse und Klasse an Kernen/Threads. Sonst wird auch die 2080TI in die Knie gezwungen weil zuviel gewartet werden muss.
 
Der spezielle Fall in dem da jemand brutal von profitiert ("ich brauche den einen Kern der 5GHz schafft für Software XY weil mit 4,5GHz ist das ein Heidenunterschied", dem Beispiel bitte Gewicht geben, das habe ich nicht umsonst angebracht) dem darf das gerne erstmal egal sein was er für gebrauchte Hardware ausgibt.
Der Preis für die alten Schinken ist aber nicht so hoch weil 90% der Vorbesitzer zu dieser Kategorie gehören. Da hänge ich mich natürlich aus dem Fenster, denn ich kann ja nicht auf die Festplatten der Menschen gucken. Aber die Games, welche bei 4,3GHz nur 50 Frames liefern, bei 4,6 jedoch 180 - die kenne ich schlicht und ergreifend nicht.
Ich bleibe aus dem Fenster gelehnt und sage es sind nicht 50% der K Modelle da draussen geköpft und neu verlötet.

Ich habe grundsätzlich Schwierigkeiten mit Mondpreisen und es steht mir zu das auch zu sagen. Egal ob Bose, Apple oder RTX on. Das muss auch niemandem schmecken.

Dämlich hoch drei würde ich nur den nennen, der auf Grundlage von "Intel sind die besseren Gaming cpus und mehr als vier Kerne braucht eh keiner" die Gebrauchtpreise weiter künstlich hoch hält, tatsächlich sogar Geld für irgendeinen 3xxxK ausgibt und den dann Stock nutzt.
x370 mit 2700 ist nicht tot. DDR4 ist aktuell und ein Wechsel auf 3700/3900x wäre auch in zwei Jahren machbar ohne Umstecken (basierend auf den jetzigen Gebrauchtpreisen und dem technischen Fortschritt bin ich mir sehr sicher, dass ein 3700x in zwei Jahren nicht 150 Euro kostet. Ein 4790K vermutlich immer noch ^^). Zu dem Zeitpunkt würde ich auch die Plattform tot nennen. Wie brutal der Graben zwischen DDR5 und DDR4, pcie und der dann anliegenden Leistung der CPUs würde in einem zukünftigen Beratungsthread entscheiden ob ich(!) dann dazu raten würde oder sagen würde schmeiss weg kauf neu.
Viel Geld für den von dir aufgegriffenen Fall mit dem Push auf 4790K würde ich halt heute und auch gestern niemals in die Hand nehmen, weil da einfach Ende ist. Und das Ende reicht für diverse Games ohne irgendwelchen Schnickschnack im Hintergrund auch aus und ist okay - trotzdem sehe ich das Geld besser versenkt in 350 und 2600 wenn die Kohle massiv eng ist, es geht insgesamt mehr.

Natürlich habe ich keine zehn verschiedenen Intels genutzt, zuletzt halt den 2600K, und der hat sogar gegen den wirklich nicht so guten R5 1600 nicht gut ausgesehen. Aber mir ist klar dass die Architektur und Gesamtumgebung auch entsprechend alt ist und das Delta mag mit nem I5/i7 der 4000er Reihe kleiner sein. Aber es wird vorhanden sein, sogar mit billo Upgrade.

Ich kann verstehen dass mein Schrieb leicht als JEAH AMD BABY zu interpretieren ist, isses aber eigentlich nicht. Hoffe ich konnte das etwas näher bringen.
 
Du hast nicht nur die Spiele auf deiner Plattform laufen, sondern du hast im Hintergrund noch andere Software die eben Leistung brauch.
Kein Plan was ihr immer macht -> 245 Prozesse, ~3500 Threads, inkl. verschiedenste Office Tasks, mehrere Browser, ne aktive Video Konferenz via Teams, aktive VPN Verbindung zur Firma, usw. usf.
CPU ist ein 2700U Ryzen 15W "günstig" Prozessor, 4C/8T. CPU Load im Schnitt 5-10% wenn überhaupt. Kommt primär durch den Traffic in der VPN, weil Software...
Ach und nicht zu vergessen, die Cores laufen dabei bei ~ eins Komma GHz im Schnitt

Ehrlich, das ist kein wirkliches Argument... Wenn du sonst was im Hintergrund machst, weil da irgenwelche generischen Last-Tasks im Hintergrund laufen, dann ist das absolut nicht die Regel.

Warum sollte Sony ne 8 Kern CPU einbauen, wenn man das nicht nutzen kann? Zusätzlich gibt es noch spezialisierte Chips die sich um die Kompression von Texturen kümmern etc.

Ich glaube es ist noch ein mächtiger unterschied zwischen einem Buchhaltungsprogramm und einem AAA Modernem Computerspiel.
Glauben <> Wissen ;)
Software ist Software, wo siehst du da nen Unterschied? Machts nicht immer so kompliziert... Btw. das Sony Argument ist nicht wirklich valide. Ne PS4 hat 8C, genau so wie die XBox - und das schon seit 7 Jahren oder wie lange es die Dinger gibt. Es ist einfach ein Märchen, dass sich da nennenswert was ändern wird. Die PS4/XBox hat es zumindest 7 Jahre nicht geschafft.
Wie schon mehrfach erwähnt - schau dir Gamebenches von bspw. nem 1700er Ryzen an und vergleiche das gegen nen 7700k, 6700k, 3300X oder ähnlichem. Du siehst ganz klar, dass die Leistungsskalierung nicht nennenswert vorhanden ist. Auch nicht in aktuellen Titeln. Auch nicht in Konsolenports, die seitens Sony/MS auf ihrer Hardware irgendwo 8C ansatzweise nutzen können sollten.

Btw. sind Konsolen auch meist mit anderen Anforderungen gestaltet. Die PS4/XBox damals war 60 FPS bestenfalls, teils sogar nur 30. Das ist ne komplett andere Nummer als auf nem PC dann 80, 100, 120, 144 FPS und noch mehr bekommen zu wollen. High FPS hängen recht stark ziemlich allein an der pro Thread Performance. Mit MT erreicht man da relativ wenig. Das heist aber lange nicht, dass das Backend nicht skalieren kann (bis zu einem gewissen Punkt). Aber 8 Threads via Konsole für die 30-60 FPS drückt ein 4C Prozessor im PC mit 2x+ so hohem Takt auch auf ner halben Arschbacke ab. Von den Architekturvorteilen von Skylake/Zen/Zen2 ganz zu schweigen.

Am Ende ist es nur entscheidend, was der User erwartet und was der Software Entwickler möchte. Der Spagat geht immer und immer breiter auseinander. Irgendwelche Foren-Schrauber Bubies mit ihren 12, 16, 24C+ Ryzen CPUs sind am Markt ein Bruchteil. Ein Entwickler muss eine skalierbare Software erschaffen um nicht große Marktbereiche auszuschließen. Und hier liegt das Problem begraben. Skalierung über FPS ist primär pro Thread Performance abhängig. Skalierung im Backend kann/wird auch über MT funktionieren. ABER ab einer Basisperformance die erfüllt werden muss, flacht die Skalierung ab, weil parallele Ausführbarkeit nahezu keine Mehrleistung erzeugt. Ein weiteres Problem ist, dass ihr FPS als Leistungsindikator nutzt (oder Frametimes -> kommt aufs gleiche hinaus). Der Anteil der CPU Rechenleistung in der Bilderzeugung ist abseits des reinen CPU Limits relativ gering. FPS/Frametimes sind also ein eher schlechtes Mittel um CPU Leistung in Games zu vergleichen.
 
Kein Plan was ihr immer macht -> 245 Prozesse, ~3500 Threads, inkl. verschiedenste Office Tasks, mehrere Browser, ne aktive Video Konferenz via Teams, aktive VPN Verbindung zur Firma, usw. usf.
CPU ist ein 2700U Ryzen 15W "günstig" Prozessor, 4C/8T. CPU Load im Schnitt 5-10% wenn überhaupt. Kommt primär durch den Traffic in der VPN, weil Software...

Versuch mal alles gleichzeitig in Echtzeit zu betreiben, das schaft dein scheduler irgendwann nicht mehr, Preämtives Multitasking hat auch seine grenzen.

Glauben <> Wissen ;)
Software ist Software, wo siehst du da nen Unterschied? Machts nicht immer so kompliziert...

Ja Hardware ist auch Hardware trotzdem erfüllen GPUs andere Anforderungen als CPUs. Die Grundlage ist die gleiche.

Ich habe 1999 auch Quake3 und damals Untreal tournament auf einem Singlecore gezockt, hat auch funktioniert obwohl die Leistung der IPC damaligen Zeit ein X faches ist, würde 1 Kern / 1 Thread nicht mehr ausreichen um aktuelle Software laufen zu lassen.

Eine berühmte Persönlichkeit soll angeblich mal folgende Aussage getroffen haben
„Mehr als 640 Kilobyte Speicher braucht kein Mensch“
Heute haben wir alleine das 10 Fache als Prozessor Cach Speicher....

Was man vor 20 Jahren gelernt hat ist heute schon längst zum Teil überholt, es gibt Menschen die gehen nicht gerne mit der Zeit.
Ich glaube man wird Mittel und Wege finden, von jungen talentierten und pfiffigen Entwicklern die angeblich nicht nutzbare Rechenleistung zu verwenden.

Sei es auch nur um Künstliche Mitspieler mit Deeplearing zu entwickeln die sich an dem persönlichen Skill anpassen, für primitivere neurale Netze die eben aktiv arbeiten.

Assassins Creed macht mit einem Dualcore mit Sicherheit auch Spaß.


Man kann über drüber streiten wie aussagekräftig solche Benchmark sind, aber gerade in Modernen Games sieht man ganz klar Präferenz zu mehr Kernen.
Ein 9900k der hohe Taktraten hat ist eigentlich ganz vernünftig zum es nicht auf niedrigere Taktraten zu schieben warum dann doch etwas schneller geht.

Mir ist auch bewusst ein echter Core /= vCore (HT oder SMT).

Dennoch sieht man einen Trend, ein echter Hexacore ohne SMT wird durchaus gut ausgelastet das hatte man 2010 noch nicht.
Am Ende ist es nur entscheidend, was der User erwartet und was der Software Entwickler möchte. Der Spagat geht immer und immer breiter auseinander. Irgendwelche Foren-Schrauber Bubies mit ihren 12, 16, 24C+ Ryzen CPUs sind am Markt ein Bruchteil. Ein Entwickler muss eine skalierbare Software erschaffen um nicht große Marktbereiche auszuschließen.

Da gebe ich dir recht, es muss kein 12/16 Kerner sein, man kann noch mit Quadcore zocken! Aber du darfst halt nix nebenbei machen, sonst ist die CPU überfordert.

Gamersnexus hat den 3300x vs 7700k getestet und auch angemerkt ein Quadcore mit SMT geht noch, aber der läuft halt am Limit. Spätestens ab der 2070 Super wird dieser zur bremse. Ich hab noch Zeiten mit erlebt wo Leute mit Dualcores schon in Teamspeak Verzögerung und Latenz hatten, als sie nebenbei was gezockt hatte und die CPU auf 99%/100% auf Anschlag gelaufen ist.

Obwohl das Konsolen OS mit einem genügsamen custom OS läuft und keine bzw kaum Ressourcen benötigt, braucht die PS4 einen Octa Core. Windows alleine brauch schon um vernünftig zu laufen mindestens 2 Threads.
 
, braucht die PS4 einen Octa Core.
Dabei bitte nicht vergessen das die PS4 nur mit 2ghz getaktet ist und außerdem AMDs alte APU Kerne drin sind. Und das ganze Design/Konzept ist bald 10 Jahre alt... Natürlich hat man bei der PS4 Mittel und Wege gefunden die Kerne maximal auszureizen. Man hatte ja auch Jahre Zeit dafür und die Entwicklung der Software ging stetig weiter, während die Hardware (bis zur PS5) stehen geblieben ist.
 
Versuch mal alles gleichzeitig in Echtzeit zu betreiben, das schaft dein scheduler irgendwann nicht mehr, Preämtives Multitasking hat auch seine grenzen.
Das war in Echtzeit!? Knapp 250 aktive Prozesse, da schläft keiner, warum sollte ich Prozesse schlafen legen, dann kann ich sie auch schließen...
Mir erschließt sich dein Festhalten an diesem Punkt nicht... Wenn du sonstwas alles gleichzeitig kannst, mit sieben Armen und fünf Beinen, drei Köpfen und drölfzig Fingern - ist doch kein Ding. Aber bitte nicht immer so tun als würde da ausschließlich generische Volllast-Tasks die Regel sein. Die Regel ist kleine bis relativ geringe Hintergrundbelastung, die sogut wie jeder PC auf ner halben Arschbacke abfrühstückt. Wo ich absolut mit gehe ist bspw. das Streaming - wer streamt und dann den Stream gar noch per CPU encodiert, der hat natürlich Bedarf -> aber mal ehrlich, das ist exakt dieser von mir genannte generische Volllast Task. Je nach Qualitätssetting bekommt man da spielend auch den 12C Ryzen oder 16C Ryzen in die Ecke gefahren. Es ist ne absolute Nische und in der Form absolut nicht die Regel. Sooo viele andere Tasks, die man neben aktivem Spielen wirklich noch hinbekommen sollte und die dann noch hohe Last erzeugen soll, gibt es nicht. Was soll das denn sein? Benenn doch einfach mal ein paar ganz konkrete Beispiele!?

Ja Hardware ist auch Hardware trotzdem erfüllen GPUs andere Anforderungen als CPUs. Die Grundlage ist die gleiche.

Ich habe 1999 auch Quake3 und damals Untreal tournament auf einem Singlecore gezockt, hat auch funktioniert obwohl die Leistung der IPC damaligen Zeit ein X faches ist, würde 1 Kern / 1 Thread nicht mehr ausreichen um aktuelle Software laufen zu lassen.
Zum ersten, ist natürlich Käse - Hardware ist eben nicht gleich Hardware. Du hast es selbst gesagt, ne GPU erfüllt andere Anforderungen als ne CPU. Bei Software schaut das aber anders aus. Multithreading ist keine Neumode-Erscheinung, die es seit AMD Ryzen gibt. Das ist Programmierer-Basics zweite Klasse. Die wohl häufigste Form im Multithreading ist nicht das, was ihr in den Foren immer gern haben wollt - nämlich die Leistungsskalierung. Die häufigst genutzte Form von Multithreading ist einfach nur das Entkoppeln der verschiedenen Tasks von einander. Das heist eben nicht, dass diese zeitgleich laufen müssen, das heißt bestenfalls, dass diese zeitgleich laufen können. Aber der Knackpunkt ist eben, dass ein gleichzeitiges Ausführung in der Kann-Bestimmung bei ausreichend schneller sequenzieller Abarbeitung schlicht nicht notwendig ist.
Zum zweiten - das ist halt der falsche Denkansatz. Natürlich würde das auch mit nem Single Thread Prozessor gehen. Bitte keine Unwahrheiten verbreiten. Ich nutze sehr viele VMs, wo schlicht nur eine einzige vCPU zugewiesen ist. Weil mehr einfach nicht notwendig ist. Das ist nur ne Anforderungsfrage. Ein aktuelles Spiel wird aber meist mehr Anforderungen an einen Prozessor stellen, als du heute mit einem Single Thread erfüllen können wirst.

Man kann über drüber streiten wie aussagekräftig solche Benchmark sind, aber gerade in Modernen Games sieht man ganz klar Präferenz zu mehr Kernen.
Ein 9900k der hohe Taktraten hat ist eigentlich ganz vernünftig zum es nicht auf niedrigere Taktraten zu schieben warum dann doch etwas schneller geht.
Ich verstehe nicht, worauf du hinaus willst!?
Hast du meine Ausführung oben nicht gelesen? Ich habe dir schon versucht zu erklären, dass eine gewisse Basisperformance in einem Spiel notwendig ist - wenn man diese erfüllt, skaliert die FPS/die Frametimes meist nur noch über pro Thread Performance, wenn man sich in einem CPU Limit befindet. Ich sehe in deinem Video absolut keine Preferenzen - Winzige Mehrleistung aus 100% mehr Ressourcen sind schlicht nicht das, was aus meiner Sicht eine Skalierung bedeutet. Natürlich wird es im Detail, je nach Szene, je nach Anforderung schneller. Aber das hat auch erklärbare Gründe. Bspw. skaliert der NV GPU Treiber mit der CPU Breite. Ist der Prozessor "breiter", wird das Treiber Backend bei NV dafür sorgen, dass es eine gewisse CPU Skalierung gibt. Das geht soweit wie man Threads auseinander ziehen kann. Ein Spiel, was hohe Basisanforderungen an den Prozessor stellt -> bspw. wenn du ein Assassins Creed auf Origins oder Odysse auf 2C/4T ausführst, wirst du allein vom Spiel recht hohe CPU Belastung erhalten. Der zweite Thread des Kerns ist "makulatur" - er muss sich unter der Decke die Recheneinheiten mit dem anderen Thread teilen. Kommt dann noch der GPU Treiber OnTop, so wird man ein deutliches Leistungsproblem bekommen.
Es ist nachweisbar, dass NV GPUs mit ihrem Software Scheduling etwas anfälliger für diesen Umstand sind als bspw. AMD mit einem Hardware Scheduler. Hohe CPU Last schmeckt einer NV GPU also weniger als einer AMD GPU. Da gibts so nette Videos der "Fans" zu, die sich dann freuen, dass die AMD GPU schneller bei hoher CPU Last wird ohne zu verstehen, was da passiert.
Ändert im Umkehrschluss aber ncihts daran, dass es andersrum, nämlich nach oben, deswegen lange nicht wirklich gut skaliert. Weil die Basis, wenn sie einmal erfüllt ist, nicht mehr Leistung erzeugen kann. Es bleiben also ein paar Teile übrig, die je nach Spiel etwas mehr, mal etwas weniger stark auf CPU Multithreading anspringen und damit ein paar Prozent hoch oder runter zulegen. Thats it. Das ist keine Magic oder ultra komplex... Man muss es nur einfach auch verstehen wollen ;)

Dennoch sieht man einen Trend, ein echter Hexacore ohne SMT wird durchaus gut ausgelastet das hatte man 2010 noch nicht.
Logischerweise hatte man das noch nicht... Die Anforderungen lagen auch deutlich niedriger... Denk doch mal andersrum - wenn der ganze Markt 6C/12T hätte - es würde nichts mehr darunter geben, dann kann man auch entsprechend damit "arbeiten". Bis das aber der Fall ist, vergehen eben nicht nur 2-3 Jahre. Sondern teils 10 und mehr Jahre. Dazu kommt, dass es häufig obenraus immer breiter wird, unten aber nicht auch nachgezogen wird. Es gibt heute genau so noch beliebte 2C/4T Modelle - im Zweifel muss man diese mit berücksichtigen als Entwickler. Einfach davon aus gehen, dass 12 Threads Volllast in einer Anwendung immer die Regel sein können funktioniert nicht. Weil man damit sogut wie den kompletten Mobile Markt ausklammert. Der eben der viel größere Anteil ggü. Desktops ist - ggf. den großen Schmetten noch viel mehr.


Gamersnexus hat den 3300x vs 7700k getestet und auch angemerkt ein Quadcore mit SMT geht noch, aber der läuft halt am Limit. Spätestens ab der 2070 Super wird dieser zur bremse. Ich hab noch Zeiten mit erlebt wo Leute mit Dualcores schon in Teamspeak Verzögerung und Latenz hatten, als sie nebenbei was gezockt hatte und die CPU auf 99%/100% auf Anschlag gelaufen ist.
Keine Ahnung, dann machst du was falsch - oder deine Leute. Teamspeak ist effektiv ein Witz, was Performance angeht.
Das CPU zu GPU Argument ist auch nicht wirklich haltbar. Wetten dass ich auch ne 2080TI mit nem 3300X ans Limit bekomme? Ist kein Akt - es ist nur eine Frage der Anforderungen an die GPU.

Das wird dann irgendwann mal ein Problem, wo das Spielebackend mehr Anforderungen setzt als ein 4C/8T Prozessor stemmen kann. Bis dahin limitiert normalerweise die GPU - ist diese schnell genug, dann bringt dir pro Thread Performance mehr Punkte als auf diese zu verzichten. Weil wie gesagt, FPS bekommst du durch Takt und IPC oder beides. Bis jetzt hat es schlicht nicht funktioniert, lieber doppelte Anzahl Cores zu kaufen anstatt die Kohle zu sparen und stattdessen 2 Jahre später ein aktuelles Modell zu erstehen. Wer Cores auf Vorat für die Zukauft ersteht, verbrennt Kohle. Kauf dann, wenn der Bedarf real vorhanden ist.
 
Zuletzt bearbeitet:
Keine Ahnung, dann machst du was falsch - oder deine Leute. Teamspeak ist effektiv ein Witz, was Performance angeht.
Das hat 2006/2007 schon Probleme gemacht wenn das System am Limit gelaufen ist. Man darf es nicht mit der IPC von heute vergleichen, die ersten nicht dedizierten Soundkarten haben noch den Prozessoren viel abverlangt.

Natürlich hast du recht das es nicht sinnvoll ist jetzt auf 12/16 Kerne zu wetten man diese nicht brauch. Man sollte schon auf "Sicht" fahren.

Aber ich würde niemandem weniger wie einen Hexacore empfehlen, ich hatte mir vor 2 Jahren auch nur den 2700 non X gegönnt weil es den für 180€ gab und dieser nur 20€ teurer war als der 2600 ;).

Man sollte aber auch nicht wegen 20-30€ Nutzbare Leistung auf der Straße liegen lassen.
Wer Cores auf Vorat für die Zukauft ersteht, verbrennt Kohle. Kauf dann, wenn der Bedarf real vorhanden ist.
Ist grundsätzlich richtig, aber wie auch beim Auto fahren gilt, voraus schauendes fahren schadet allerdings nicht.
Etwas Puffer sollte immer sein.

Das "Backend" ist aber zwangsläufig teil des Spiele Prozesses, dass auch dieses sich verändert und da was optimiert wird ist ja klar.


1593116439085.png


Natürlich hat nicht das Spiel selbst grundsätzlich die Anforderungen, hier ist der Fall den du beschreibst zu 100% Anwendbar, die Grafikkarte hat einfach Hunger, das Spiel auch, also muss man eben größer dimensionieren um beides zu versorgen.
 
bei BF5 hängt mein 4790K@stock schon teilweise am Limit, es werden alle Kerne/Threads im 80er-90er-Bereich ausgelastet, aber für ca. 100-120 FPS in FHD reichts grad noch mit ner R9 Fury :d
hier mal meine Auslastung in FHD low
BF5_1920x1080_100%render_low_Flugplatz2_maxFPS120_2.JPG
 
Ich muss zugeben ich kann mich immer noch nicht entscheiden.
Theoretisch bin ich den Ryzen nicht abgeneigt, vor allem weil es aktuell Horizon Zero Dawn dazu gibt und ich das sowieso haben wollte ^^
Was ich nicht so ganz verstehe ist warum die Ryzen alle so eine schlechte Single-Core Performance haben obwohl man schon das bessere Fertigungsverfahren verwendet. Eigentlich müssten die doch dann deutlich besser sein, aber irgendwie sind die ja noch trotzdem gleich auf bzw. Intel sogar etwas besser wenn man mal den Preis außer Augen lässt.
 
Die 3000er Ryzen CPUs haben keine schlechte Singlecore Performance was die IPC angeht, sie haben nur einen Taktnachteil gegenüber den aktuellen Intel Modellen.
Ein 3700x taktet in Spielen ungefähr zwischen 4,2 und 4,3 GHz, während ein 9900K bei ca. 4,8 GHz liegt.
Hinzu kommt bei den Ryzens die schlechtere RAM-Latenz aufgrund des Chipletaufbaus mit gesondertem iO-Die.
 
bei BF5 hängt mein 4790K@stock schon teilweise am Limit, es werden alle Kerne/Threads im 80er-90er-Bereich ausgelastet, aber für ca. 100-120 FPS in FHD reichts grad noch mit ner R9 Fury :d
hier mal meine Auslastung in FHD low

fdsonne wollte nur darauf aufmerksam machen das eben nicht das Kernprogramm mehr Anforderungen an die Prozessor Leistung fordern sondern das drum Herum, die Grafikkarte brauch mehr, Windows brauch mehr, VOIP extensions die nicht zum Spiel direkt gehören etc. Das wird fälschlicherweise immer den Anforderung vom Spiel selbst zugeschoben, wobei es ja eigentlich ne Anforderung von Nvidia ist und erst mal nix direkt mit dem Spiel zu tun hat.

In dem Beispiel oben ist eben die geforderte Prozessor Leistung für die Verwendungen von RTX notwendig.
Finde ich aber an der Stelle sehr interessant, wo doch Nvidia dafür Werbung macht das es "Hardware unterstütztes RTX" ist.
Wenn ich dafür hohe Prozessorleistung brauche (die sonst nicht notwendig wäre), wo ist das dann Hardware unterstützt?
Aber das ist wieder ein anderes Thema...

Ich muss zugeben ich kann mich immer noch nicht entscheiden.
Theoretisch bin ich den Ryzen nicht abgeneigt, vor allem weil es aktuell Horizon Zero Dawn dazu gibt und ich das sowieso haben wollte ^^
Was ich nicht so ganz verstehe ist warum die Ryzen alle so eine schlechte Single-Core Performance haben obwohl man schon das bessere Fertigungsverfahren verwendet. Eigentlich müssten die doch dann deutlich besser sein, aber irgendwie sind die ja noch trotzdem gleich auf bzw. Intel sogar etwas besser wenn man mal den Preis außer Augen lässt.

Intel ist aktuell auch schneller, aber das ist auch ihr Problem warum die nicht weiter kommen. Sie erreichen ihre Leistung mit der Brechstange und sehr hohem Verbrauch. Die Brechstange können sie auf stark verbesserte Fertigungsverfahren nicht wirklich anwenden, da dort die Fehlerraten etwas höher sind.
Bei AMD werden eben Chiplets mit 8 Kernen produziert wenn einer oder 2 davon nicht mehr taugt (nicht mehr innerhalb der Toleranzen), werden die deaktiviert und als Ryzen 3600 verkauft oder bei 2 als Ryzen 3900 (je nach Nutzbarkeit recycelt) etc.

Intel hat einen Mono Chip auf dem alle Kerne drauf sind. Sobald da gröbere Fehler drin sind, müssen sie den gänzlich verwerfen. Dafür haben die keine Datenbahn zwischen mehreren Modulen, bei AMD ist das anderes da gibt es zwischen den Chiplets eben noch ein "man könnte es als µ Mainboard bezeichnen"(der eigentliche Prozessor chip) bezeichnen, auch wenn dies fachlich womöglich falsch ist, auf dem sind die Chiplets (Kerne) aufgelötet und untereinander mit einer Leitung verbunden. Kann man Googlen gibt einiges dazu, ich glaube sogar auf HWLuxx selbst)

Deshalb zerlegen die aktuellen AMD Highend Produkte die Intel Chips in Szenarien wo Latenz keine rolle spielt.
Bei Spielen ist die Latenz wichtig, das ist eine "Schallmauer" wie viel Bilder / Sekunde durchgejagt werden können. Bei WQHD und 4K spielt das immer weniger eine Rolle, weil an der Stelle die GPUs sowieso nicht mehr ~100-150 FPS schaffen. In 720P oder 1080P macht es schon eher einen Unterschied, dieser ist aber ab spätestens ~144FPS 165FPS obsolet, weil ehrlicherweise mehr FPS als Bildwiederholung nicht wirklich was bringt.

Wenn du nicht vor hast eine 2080 Super oder TI zu verwenden, brauchst du aktuell keinen Intel oder ein 200 Mhz Display.
Mit nächster Ryzen Generation ist zu erwarten das Intel auch im Gaming-High End entthront wird. Zum Jahresende kommt auch RDNA2 da soll AMD zumindest Nvidia wieder im High End Segment wieder konkurrenzfähig werden.

Ich muss persönlich sagen, mir ist es relativ egal ob AMD, INTEL oder NVIDIA, Hauptsache best bang for buck. Hardware ist so schnelllebig, das es sich nicht unbedingt lohnt immer das absolute Highend zu holen.
 
@fdsonne mir ist nicht ganz klar welchen Punkt du vertreten möchtest, oder ob es überhaupt einen gibt, vielleicht magst du einfach nur gerne diskutieren ;)
Ich lese aus deinen Beiträgen nämlich nicht "nach Bedarf kaufen", sondern "kauf weniger Kerne (weil ich sie nicht brauche)". Reib dich daran nicht direkt auf, ich schreib das nämlich mitnichten um zu provozieren!
Zwei Beispiele führe ich gerne auf.
1593157512771.png

Nuc. Das langt vorn und hinten nicht. Ich bin mir sicher dass es besser laufen würde mit mehr Takt, aber das kann ich jetzt gerade nicht testen. Bei diesem Beispiel ist es egal was ich tu, das komplette System hakt. Der Ausschnitt zeigt den Idle Zustand, der Bump ist das Snipping tool. Ich hab einen Browser, ein mini doc, eine 1 sheet mini Exceltabelle und Outlook auf. Starface (Telefonsoftware) und Teams mach ich nach Bedarf an. Ihr könnt euch nicht vorstellen was passiert wenn ich ne pdf mit mehr als 5 Seiten öffnen zu versuche. Oder eine richtige Exceltabelle.
Noch mal, mehr Takt würd da sicher was bringen und ein echter Vierkerner ebenfalls. Aber sowas hier würd ich meiner Mutter nicht hinstellen. Sogar der Browser hakt und ruckelt.

Wenn ich im Homeoffice sitze brauch ich für gewisse Tätigkeiten nen sicheren Zugriff auf eine von zahlreichen VMs. Ein Kern. Das läuft noch schlechter und die beiden Programme die ich ausführen muss laufen unter aller Kanone. Da kann ich jetzt gerade nicht drauf zugreifen, aber ich kann versichern dass ich mir das nicht ausdenke wenn ich sage nein. Ein Kern funktioniert nicht. AUch ohne generische Last.
Das mag gut und gerne im Einzelfall klappen, wie bei dir fdsonne, aber der nächste Einzelfall kommt damit nicht klar.
Darum finde ich es gewagt zu behaupten dass weniger Kerne zu bevorzugen sind wenn man doch mehr Kerne für den gleichen Preis kriegen kann.

Wenn ich für ein paar Monate zwei Kerne "zu viel" rumtrage und nicht nutze tut das überhaupt nicht weh und vielleicht profitier ich sogar davon ohne es vorher genau gewusst zu haben. Und auch hier betone ich sicherheitshalber, dass ich nicht "mehr Kerne = amd" meine. Gäbe es ein bezahlbares, aktuelles(*) Equivalent von Intel, dann würde ich dieses 8/16er Exemplar sofort dem empfehlen, der darüber nachdenkt 150 Euro für einen 4790K auszugeben.

@hipsu
Im Grunde musst du dir ja nur im Klaren darüber werden wo du mit deinen fps wirklich hin willst. Wenn in deinen bevorzugten Games die gpu die Anzahl an Frames packt, die du in deiner gewünschten Auflösung haben möchtest, dann macht es Sinn Informationen zu sammeln ob ein Prozessor XY die Frames auch stemmen kann. Wenn du bei AMD was findest, nice. Sparste n paar Euro. Wenn nicht, dann gibste n paar mehr aus und holst dir nen Intel. Die liefern in bestimmten Spielen halt wirklich mehr fps (wurde direkt über mir ja ausgeführt). Die Frage ist dann individuell zu stellen ob es wichtig ist 260 statt 220 zu haben. Was wichtig ist wenn man nen (sehr geilen) viewsonic mit 240Hz und die entsprechende gpu hat, aber egal wenn man 144Hz nutzt.
Sind nur Beispiele aber ich denke die Vorgehensweise ist soweit okay.
Und wenn dir theoretisch sechs Kerne reichen und du die paar wenigen Euro sparen möchtest dann mach das. Du siehst ja wie hier die Sinnigkeit umherdiskutiert wird. Bilde dir deine Meinung dazu und gut. Ich selber hab lieber ne Mark draufgelegt und zu 8/16 gegriffen, wie weiter oben schon geschrieben weil ich Bock drauf hab und weil ich kann. (und weil es auf meinem 1st gen Board halt einfach plug and play funktionierte ^^)

Ich wollte abschließend noch dem best bang for the buck zustimmen, dann fiel mir aber wieder ein dass ich bei den 4000ern auch wieder zuschlage. Vermutlich. Konsumierender Westeuropäer, hi!

(*) ich will da nicht wieder Leben und Tod einer Plattform definieren, man bekommt gebraucht bestimmt irgendwelche alten business 8 Kerner von Intel auf alten Boards die man irgendwie so günstig bekommt wie b450 und 3600/3700 oder vielleicht sogar 350/2600/2700.
 
Ich wollte abschließend noch dem best bang for the buck zustimmen, dann fiel mir aber wieder ein dass ich bei den 4000ern auch wieder zuschlage. Vermutlich. Konsumierender Westeuropäer, hi!

Logischerweise, werde ich mir die neuen auch anschauen.
Primär war es mein Wunsch erstmal die Grafikkarte zu tauschen.

Sollte meine CPU mit der noch nicht vorhandenen Grafikkarte noch harmonieren, brauch ich kein Upgrade.
 
Die neuen Konsolen kommen als Zen2 mit 8 Kernen und 16 Threads. Die Grafikkarten im Bereich der RTX2080 +/-. Dies ist der Standard für Gamer Anno 2021. Mehr sage ich dazu nicht mehr.

Software zu Parallelisieren für Rendering und Wissenschaft auf Workstations und Serverfarmen, um damit eine fast lineare Skalierung auf den Maschine zu bekommen ist nichts Neues. Funktioniert mit GPU und CPU. Der Sprung von 32 Bit auf 64 Bit hat Wunder bewirkt. Clouddienste bieten eine Reihe von Möglichkeiten sich Umfang und Zeiten zu mieten, um flexibel zu sein.

Das größte Problem ist und war der Datentransfer, Schreibprozesse und im Fall von Big Data die größe des Volumens. Übertragungskapazität ist per se limitiert, schneller Speicher mit großen Volumen kosten ordentlich Asche.

Gestern hatte ich das Vergnügen mein altes Zacate Notebook wieder in Betrieb zu nehmen. Zwei Kerne, zwei Threads mit Youtube und Browser bedient. Als Schreibmaschine noch zu gebrauchen. Performance gefühlt wie vor 15 Jahren. Damit es nicht ganz so tragsich war, habe ich es vorher gesäubert und die Wärmeleitpaste erneuert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh