Wann beginnt denn die CPU Zukunft im Gamer Bereich ?

Status
Für weitere Antworten geschlossen.

Hardwarekenner

Legende
Thread Starter
Mitglied seit
06.01.2005
Beiträge
21.785
Ort
in der schönsten Stadt der welt.
Ich höhre nun seit mehreren Jahren, also eigentlich seit der Intel 8er Serie das mehr als 4 Cores für Gamer Pflicht sind, und sowiso keine Cpus unter 6 Core mit HT gekauft werden sollen, weil sonnst ja keine Zukunftsicherheit da ist? Aber wenn ich nun sehe wie z.B. der Aktuelle i3 12100F Performit in Games, also eigentlich jeder Tietel Super zu Spielen ist, frage ich mich wann denn nun die Zukunft für Gamer beginnt in denen Games mit unter 6C12T nicht meht laufen? Übriegens auch in Multiplayer Games kann heute alles noch mit dem neuen i3 Gespielt werden, und wenn gerüchten getraut werden darf, ist der kommende 13100 einem heutigen 12400 überlegen, und einem 12600 ebenbürtig in Games, also wo ist dann die Zuckunftsicherheit bei diesen CPUs ? Und ja mir ist klar das bei einigen Programmen wie Video Rendering mehr Cores besser sind, aber ich kenne so vile Spieler die eben ausser Internet, Office kaum was ausser Gamen machen.
Zudem rechnet sich der wertverluss wenn ich jede zweite generation in einen i3 mit Brett Investiere wohl besser als wenn ich einen mehrkerner (+6 Core) Kaufe mit Brett und diesen dann ja wieder gegen einen neuen mehrkerner mit Brett ersetzen muss.
Habt ihr da eine meinung zu ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es ist doch ganz einfach, wer jetzt kauft was nötig ist, nimmt einen 6 Kerner, wer etwas in die Zukunft kauft nimmt einen 8 Kerner, denn es gibt ja jezt schon games die mehr als 6 Kerne nutzen, wie das aber weiter geht kann niemand wirklich sagen aber ich gehe davon aus, dass games in Zukunft zumindest auf 8 kerne optimiert werden.
Amd wird ja auch nicht ganz in blaue einen 5800x3d zum gaming Prozessor gewählt haben ;)
 
Bin mir sicher, dass ich einen Test gesehen habe wo der 12100 bei 50Fps im CPU limit war, weiß nur nicht mehr welches Spiel es war.

Auch so gibt es Unterschiede zwischen 4 und 6 Kernen.
z.B. der Aktuelle i3 12100F Performit in Games, also eigentlich jeder Tietel Super zu Spielen ist
Kommt immer drauf an was Du für Games spielst und welche Anforderungen Du hast.
Läuft da auch noch mehr als nur das Spiel, wirst Du mit einem 6, oder 8 Kerner besser bedient sein.

 
Laut dem Fazit auf CB kann ich deine Wahrnehmung nicht verstehen.

Vor allem leichte Alltags-Lasten liegen dem Alder-Lake-Prozessor dank hoher IPC der neuen P-Cores, brutale Mehr-Kern-Lasten lassen ihn wiederum wenig überraschend schnell aus der Puste kommen. Doch das ist ohnehin nicht die Zielgruppe dieser Lösung und auch Gaming muss aus zwei Perspektiven betrachtet werden. Für Casual-Games und selbst hochkarätige Titel, denen vier Kerne und acht Threads genug sind, ist die Leistung durchweg gut. In Titeln, die mit vier Kernen Probleme haben, ist der Core i3 wiederum keine gute Wahl.
 
Hm, als man keine großen Sprünge mit bei der reinen Rechenleistung per Core geschafft hat, wollte man das mit mehr Kernen und noch mehr Kernen wettmachen. Da aber durch diverse Technologien auch die IPC wieder gut steigt, ist die Richtung eingeschlagene Richtung zu stets mehr Kernen wieder ins Stocken geraten.

Seit AMD Zen2 und Intel Gen 10 hängen wir mehr oder weniger auf den gleichen Kernanzahlen fest (jeweil für die passenden Zielgruppe mal 4c, 6c, 8c oder noch mehr) während die IPC Werte ebenfalls gut ansteigen.

Aktuell ist es einfach nicht notwendig, die Kernanzahl weiter zu erhöhen, um entsprechende Leistung zu generieren. Teilweise bringe mehr Kerne auch keine Mehrleistung mehr, eher Takt und Cache.
Wie vermutet reichen zum Spielen oft 4-6 starke reale Rechenkerne aus, während mehr Kerne eher noch Hintergrundprogramme besser abfedern.
Das liegt zum Teil an Spieleengines, ob mehr Kerne gut genutzt werden können, teils aber auch an der Art der Spiele selbst. Manche Rechenroutinen kannst du eben nicht mal einfach auf mehrere Kerne verlegen.

Insoweit ist die Prophezeiung zu noch mehr Kernen aktuell nicht eingetroffen und wird so schnell auch nicht zutreffen.

AMD hat gezeigt, dass mehr und schneller Cache durchaus ein besserer Turbo für Spiele darstellt, zumindest bei Zen3 und vermutet auch bei Zen4.
Intel wird sich eigene Gedanken dazu machen.
 
Ich kenne jetzt kein Fazit, indem von mehr als 8 Kerne gesprochen wird und ganz klar nicht davon, noch mehr haben zu müssen.
Die Wahrnehmung und der Fakt ist aber auch, dass vor allem bei Intel nur die dicksten Prozessoren auch die größte Leistung für Spiele bringen, weil die am höchsten takten und möglicherweise auch noch mehr L3 Cache bieten.
Insofern kann man natürlich zu dem Schluss kommen, es wird ständig gemeint man bräuchte noch mehr Kerne.
 
das sagt doch alles:
 
Habt ihr da eine meinung zu ?
1)
Lies die Dualcore/Multicore Artikel aus der Core2 Zeit, damit du ne Grundidee hast wie Spiele funktionieren. Das erklärt dann das gröbste was Kernanzahl angeht und was Singlecore Performance angeht.
TLDR gibts hier: Beitrag #29 und #31

2)
Wann fangen Entwickler an Spiele zu bauen die mehr Kerne BRAUCHEN?
Wenn die Kunden mehr Kerne haben, weil sonst würden sie künstlich ihre potenzielle Kundschaft einschränken. Wird also davon abhängen wann 6+ Kerne so sehr Mainstream sind, dass weniger Kerne nicht mehr verkauft wird und bis die ganzen 4770 bis 7700 komplett aus dem Markt verschwunden sind.
Aber auch dann hast du wieder das Single-Core Thema, also sind wahrscheinlich bis dahin auch alle 1600x verschwunden und wurden durch 5600er ersetzt. Wird also noch einige Jahre dauern.

PS:
Arbeite mal bitte an deiner Rechtschreibung. Das sind keine Tipper mehr, das sind konsistente Schreibfehler. Das macht Augenschmerzen.

PPS:
Bitte mehr zweifelhafte Youtube-Quellen statt bekannter renomierter Quellen. :love:
Und bitte noch mehr komplett banale Aussagen wie "Das sagt doch alles".
Bitte beschäftige dich mit den Basics.
 
Zuletzt bearbeitet:
Seit AMD Zen2 und Intel Gen 10 hängen wir mehr oder weniger auf den gleichen Kernanzahlen fest
Naja, bei AMD stimmt dies, aber bei Intel kamen mit Alder Lake die e-Kerne hinzu und mit Raptor Lake werden die Nachfolger meist noch mehr e-Kerne als ihre Alder Lake Vorgänger bekommen, in der Spitze 8 zusätzliche e-Kerne.
Teilweise bringe mehr Kerne auch keine Mehrleistung mehr, eher Takt und Cache.
Wie Du ja selbst schreibst:
Manche Rechenroutinen kannst du eben nicht mal einfach auf mehrere Kerne verlegen.
Parallelisierung ist eben nicht unendlich möglich und je nach der Aufgabe eben ihre Grenzen. Es gibt Dinge die sich sehr gut parallel bearbeiten lassen, andere kann man gar nicht parallelisieren.
 
das sagt doch alles:
schau dir das video nochmal genau an ;)

das video zeigt was seine gpu drauf hat, nicht die cpu, denn er ist im absoluten GPU limit.

da die cpu mit der auflösung praktisch nichts am hut hat, ist das video total sinnfrei. die antwort hätte ich ihm auch ohne "test" geben können denn cpus sind in unterschiedlichen auflösungen identisch schnell. eine cpu, die in 720p 120fps bringt, bringt sie auch in 4k.

ob man in 4k 120fps hat, hängt natürlich davon ab ob A die cpu die 120fps bringt und B ob die GPU 120fps bringt. wenn man natürlich so ne gurken gpu und ultra settings nutzt sodass die FPS der GPU unter das CPU limit fallen > kommt genau das video dabei raus

wenn du wissen willst was ne gpu leisten könnte schau dir tests in low res an. auflösung ist zu 99,9% gpu workload. entlaste die gpu sodass Sie mehr fps als ne cpu bringt und du siehst was ne cpu kann.

du wirst mir jetzt sagen dass in 4k aber ne theoretisch schnellere cpu nichts bringt laut dem video? wenn man genau diese Spiele mit genau diesen Settings nutzt und jetzt ganz wichtig > DIESER GPU nutzt hast du sogar recht, korrekt!

Es gibt aber leute die können Regler bedienen und dann sieht das bild ganz schnell anders aus und es kommen ja neue gpus die mehr leistung haben könnten als die cpu

Allerdings kann man dennoch sagen dass ein 12100 in den meisten games noch mehr als genug fps bringt. genaue Zahlen weis ich aber jetzt auch nicht. aber dafür sind ja die richtigen CPU tests da :)
 
Zuletzt bearbeitet:
Dieser Thread erinnert irgendwie an folgendes.
Fragen die die Welt nicht braucht.
Insofern meine Frage.
Kann eine Taube hören?
 
er hat sich halt dieses video und vermutlich noch andere solcher komischen videos angeschaut und daraus die frage gestellt.

das problem ist, er geht davon aus dass in 4k in jedem spiel die gpu langsamer ist als die cpu und er geht davon aus dass jeder jeden regler auf anschlag stellt und zieht daraus dann die schlussfolgerung dass alles über nem i3 bzw 4c8t generell nichts bringt.
 
  • Danke
Reaktionen: Tzk
er hat sich halt dieses video und vermutlich noch andere solcher komischen videos angeschaut und daraus die frage gestellt.
Dass du dir überhaupt das Video anschaust...
Ich hab nur geschaut ob es aus einer bekannten Quelle kommt und mich konsequent nicht mal ansatzweise mit dem Video beschäftigt. Wäre verschwendete Lebenszeit :shot:
 
Zuletzt bearbeitet:
ich nehme solche videos wo ein overlay eingeblendet wird tatsächlich auch her. :fresse: aber nicht 1 sondern ich suche mehrere und schaue ob die werte und differenzen mit denen vom luxx, cb usw.. test in etwas übereinstimmen. :d

wenn ich natürlich 4k im titel lese und cpu dann weis ich direkt was sache ist. gut irgendwann wird 4k schon als testauflösung für cpus genommen aber das dauert noch ein paar jährchen :fresse:
Beitrag automatisch zusammengeführt:

@Hardwarekenner
Nehmen wir mal als beispiel die cyberpunk szene aus deinem verlinkten video

ultra settings / Wunschsettings und sagenhafte 40fps.

damit zockt ja eigentlich niemand wirklich also unser ziel sagen wir mal 60fps?
damit ich weiß ob meine CPU bei meinen Wunschsettings die 60fps könnte, muss ich die grafikkarte erstmal aus dem spiel nehmen. das geht indem man lediglich die auflösung und Antialiasing runterstellt und die grafikkarte eben so weit entlastet, bis diese mehr als die angepeilten 60fps liefert. hast du danach die 60fps, dann ist die cpu richtig für deine wunschsettings (CPU betreffende settings)

und genau dafür werden cpus in low res getestet.

danach stellst du wieder auf 4k und spielst mit den Schiebereglern rum und entlastet die graka damit um die 60fps zu erreichen. e voila, ziel erreicht

das von dir verlinkte video hat keinerlei aussagekraft auf die verwendeten CPU´s. du weist nicht welche fps diese beiden cpus erreichen würden wäre die graka schnell genug.
und 60fps sind eher das untere der fahnenstange. 120-165 sind regionen in denen wir uns bewegen wollen und dann werden auch größere cpus relevant, sofern die engine damit umgehen kann.
spiele die nicht auf mehr als 4 kerne skalieren werden auch dementsprechend nicht viel mehr fps aus nem 16 kerner holen als aus nem 12100 :)
 
Zuletzt bearbeitet:
@Hardwarekenner : diese zukunft hat doch schon lange begonnen. nennt sich multitasking. da kannste zocken, dabei über discord mit den anderen quatschen, musik im hintergrund laufen lassen und dein pc kann trotzdem nach viren scannen, emails abrufen, etc.

darum gehts ja bei multicore: mehrere aufgaben parallel abzuarbeiten. das müssen nicht zwingend alles aufgaben einer einzigen anwendung (z. b. spiel) sein, sondern abseits von sterilen benchumgebungen eben auch deine sonstigen anwendungen, die du vllt nebenher rennen lässt und die ab und an mal systemresourcen nutzen. natürlich kannst du auch ne singelcore-cpu nehmen mit entsprechend hoher leistung, dass du es nicht merkst, wenn threads in der schlange warten bis sie abgearbeitet werden. dann musste aber als gamer immer mit microrucklern rechnen. selbst cod lässt sich theoretisch auf der singelcore-cpu zocken.
wenn dir die leistung reicht, sprichst nichts gegen einen quadcore. auch nicht gegen einen singelcore. aber wer highend will, der sollte schon ein paar kerne mehr haben um "threadstaus" zu verhindern.

stells dir wie eine autobahn vor: dein spiel ist ein porsche und du ballerst volles hörnchen über die bahn. wenn ein lkw vor dir fährt, bremst er deinen porsche aus. wenn es eine zweite spur gibt, kannst du dagegen ungebremst an ihm vorbeifahren. jetzt gibts aber ein elefantenrennen und beide spuren sind mit lkw belegt. mit ner dritten spur ist auch das kein problem. jetzt gibts ein elfantenrennen und ein anderer pkw schiebt sich im schneckentempo an den beiden lkw vorbei. jetzt brauchst du ne vierte spur. mit jeder spur/jedem kern sinkt die wahrscheinlichkeit, dass es zu so einem ausbremsen kommt, daurm ist singelcore ganz schlecht, dualcore besser, quadcore noch besser... da die zahl der berechnungen und aktiven anwendungen auf dem pc stetig steigt, steigt auch der nutzen von mehr kernen wenn du die leistung der kerne ausreizen willst. wenn du nicht porsche sondern lkw fahren willst, reicht dir auch ein celeron mit singelcore. wenn du aber so richtig auf die kacke hauen willst, dann machen viele spuren schon sinn, damit du möglichst selten ins stocken gerätst. ums mal bildlich auszudrücken. ;)
btw.: ich bin nicht so der gamer. ich bin meistens noch mit dualcore unterwegs. quadcore ist für meinen usecase nicht notwendig.

edit: kerne sind auch nicht der einzige leistungsfaktor, ein raptorlake singelcore @ 5 ghz macht jeden core 2 quad nass, aber threadzahl ist wie takt und anderes auch: ein maßgeblicher leistungsfaktor. klar kann mans anders kompensieren und dann sagen kernzahl ist unnötig. mann kann auch ipc für unnötig erklären, wenn man den takt dafür entsprechend durch die decke treibt. beim pentium 4 hat intel versucht alles durch takt zu lösen und die ipc ist sogar leicht gegenüber dem pentium III gesunken. hat sich aber auch nicht als der weisheit letzter schluss erwiesen. ;)

wie viele kerne man wirklich braucht, hängt vom eigenen nutzerprofil ab. wer nebenher noch viel anderes laufen lässt, der braucht auch bei weniger anspruchsvollen spielen mehr kerne. wer nichts außer dem spiel laufen lässt, kommt mit weniger threads klar. dann ist die frage mit wie vielen kernen das spiel selbst skalieren kann. alles was sich parallelisieren lässt, wird weniger durch takt und ipc-grenzbereich eingebremst. und so weiter... da gibts nicht den einen klaren schnitt, ab wann man x kerne braucht. irgendwann steigt einfach der nutzen weiterer kerne immer öfter, sodass es sich anfängt zu lohnen.
 
Zuletzt bearbeitet:
stells dir wie eine autobahn vor: dein spiel ist ein porsche und du ballerst volles hörnchen über die bahn.

Jetzt kommt aber noch der Umstand hinzu, dass die TDP die CPU Einbremst und je mehr Kerne und mehr Abwärme, so steigt das Risiko, dass die Kerne im Takt eingebremst werden durch die TDP.
Autobahnbeispiel: 2 Spuren unbegrenzt oder 4 Spuren alle max 120 km/h. Die LKWs juckt es weniger, aber ballern mit dem Porsche bei max 120 ist dann auch nicht.

Es sei denn einzelnen Kernen wird dann je nach Last (Wuschgeschwindigekt Porsche) noch mehr Spielraum eingeräumt und dann könnte man 3 Spuren max 80km/h und eine Spur max 200km/h realisieren, ohne dass das TDP Limit der CPU winkt.

Insoweit ist es für die Hersteller auch immer schwierig die Beste CPU fürs Gaming zu bauen. Manchmal hilft nicht nur Takt oder viele Kerne oder ein ordentlicher Cache, es ist die Kombination aus allem ein bischen.
Mehr als 8 Kerne sind selten hilfreich, dann lieber mehr Takt auf 8 Kernen als 12 Kerne mit weniger Takt und/oder mehr Cache ...
 
Manchmal hilft nicht nur Takt oder viele Kerne oder ein ordentlicher Cache, es ist die Kombination aus allem ein bischen.
Mehr als 8 Kerne sind selten hilfreich, dann lieber mehr Takt auf 8 Kernen als 12 Kerne mit weniger Takt und/oder mehr Cache ...
alles eine frage der verkehrsdichte beim verwender ;) gaming + streaming + viele nebenanwendungen und schon ist die achtspurige autobahn wieder dicht. biste alleine unterwegs (css ohne nebenanwendungen) reicht eine spur, aber die dann bitte ohne tempolimit ;)

wie gesagt, es gibt nicht das pauschal richtige. und du hast vollkommen recht: das gesamtpaket ist entscheidend. kernzahl, takt, ipc, cache... wenn nur eins davon limitiert, limitiert die ganze cpu. sieht man ja am eigentlich vergleichsweise lahmen 5800x3d vs. 12900KS. immer wenn der speicherdurchsatz limitiert lässt der x3d den KS im regen bzw stau stehen und fährt winkend dran vorbei. takt hin, kernzahl her. ;)
 
Zudem rechnet sich der wertverluss wenn ich jede zweite generation in einen i3 mit Brett Investiere wohl besser als wenn ich einen mehrkerner (+6 Core) Kaufe mit Brett und diesen dann ja wieder gegen einen neuen mehrkerner mit Brett ersetzen muss.
Habt ihr da eine meinung zu ?
das möchte ich nochmal aufgreifen!

Entweder günstig jede Generation nen z.B. i3, der aktuell fürs Gaming reicht und dann jede/jede 2. Generation wieder nen i3, der für aktuellen kram reicht
oder
ne CPU mit 2-4 Kernen mehr (i5/i7), die dann aber halt 3-4 Generationen durchhalten muss, bis sie ersetzt wird.

Heute wird nen i7 Skylake mit OC auch von nem kleinen i3 übertrumpft, aber ich denke, der Skylake war gut 5 Generationen also mehr als 7 Jahre mit 4c/8t recht stark unterwegs.
WIe jeder sein Geld ausgibt, dass ist jedem selbst überlassen.

der Sweet Spot zwischen recht neue Hardware und Preis/LeistungsKauf wird irgendwo zwischen 2-4 Generationen liegen, je nachdem wie gut man alten kram noch gebraucht verkaufen kann, oderwie hoch die eigenen Ansprüche an die Hardware sind.
Nen Q8xx0 aus LGA775 kann man sicherlich nicht mit aktuellen 4c/8t vergleichen und die Anzahl der Kerne als alleiniges Merkmahl herzunehmen wäre eindeutig falsch, aber ...

moderne Anwendungen (immer), Gaming so ca bis max 8 Kerne)
Je mehr Kerne du verbaut hast, desto wahrscheinlicher wirst du die CPU recht lange nutzen können.

Im Gaming zählt oft mehr als nur CPU Kerne und Takt ...
Einige Spiele begnügen sich auch mit 4 Kernen aus älteren Generationen (je nach Engine). Da lohnt es fast immer die GPU beim Kauf zu priorisieren.
 
  • Danke
Reaktionen: Tzk
alles eine frage der verkehrsdichte beim verwender ;) gaming + streaming + viele nebenanwendungen und schon ist die achtspurige autobahn wieder dicht.
Das vergessen viele leider gern. Hab ich YouTube, Discord, Spotify und Ähnliches nebenbei laufen, dann schnauft ein kleiner Quadcore schon übel. Da empfiehlt sich eine CPU mit 6 oder 8 Kernen.
 
the future is NOW!
 
Glaub 2005/2006 hatte ich mir da mal einen Kopf gemacht, ob irgendwann mal CPU Core oder aber Rechenleistung nicht ausreicht.
Da war ich mir 1 Core P-M unterwegs und scheiterte letztlich an nicht vorhandenen 64Bit Support und weniger am Core.
Trotz aller Vorhersagen kommt man auch heute mit weniger aus, als der Durchschnitt suggeriert.
In den letzten 25 Jahren war es bei mir nahezu immer GPU Limit (subjektiv)

Die eine Sache ist, was in Reviews festgestellt wird.....welche CPU bei welcher (geringen?) Auflösung "die Schnellste" ist.
Eine andere Sache, was brauche ich schlussendlich bei meiner Auflösung, vorhandene GraKa und BQ.
Aber haben ist besser als brauchen und den zweitbesten Fisch gibt's für die Frau^^
 
Die "zukunft" beginnt laut der Marketing Abteilung immer wieder neu :)

Man braucht eigentlich nur auf die Server/Workstation CPU's gucken, die gibs meist immer so im 5 Jahres Takt - da sieht man meist am besten größere Generationssprünge/Änderungen/"Zukunft" - letzter Großer Wurf war so 2015/2016, seitdem hat sich eigentlich nicht viel getan, außer viel Werbung/Blingbling

Eigentlich sollten ja neue Epyc und Xeons schon seit bald über 2 Jahren auf dem Markt sein, aber Corona/Chipmangel und sonstwatt Verzögern schon lange den nächsten großen Wurf - bald ham wir es ja vollständig, DDR5/PCI-E 5.0/5nm auf Xeon 4677 & Epyc - dann gibs endlich neue Server/Workstations auf dem Weltmarkt für jeden und hofffentlich auch wieder mehr Planungssicherheit für größere Projekte - Server/Workstations halten meist immer so 5 Jahre, da kauft man nicht im 2 Jahres-Takt für Millionen von Euro gleich n komplett neuen Serverraum, nur weil es eine neue CPU/Sockel/CHipsatz mit 15% mehr Leistung gibt.

Sobald es dann erstmal z.b. ein Xeon 4677 oder AMD SP5 gibt, wird sich da wohl auch wieder 5 Jahre nichts mehr ändern, DDR6, oder neuer Sockel, weder neue PCI-E Standard wird dann so schnell nicht kommen, sich weder ändern und erstmal etwas bleiben, das wäre dann "Zukunftssicher" - Rest ist dann wieder immer nur Marketing, Werbung, leute verrückt machen ..."oh my god hast du den neuen COre i9 9900k/10900k/11900k/12900k/13900k/ 6700k gesehn" - immer nur 15% besser als der vorige, aber an sich alles DDR4, PCI-E 3.0, aber immer schön neuen Sockel um Leute abzukassieren^^ +In Aller munde bleiben und die Leute heiß machen auf "neuneuneubesser/kauf jetz"

Ryzen 7000 ist ja auch bald da, mit AMD "Am5" Sockel, der wird wohl auch erstmal ne Weile bleiben, so was sieht Zukunftssicher aus, etwas wo man auch noch in 4 Jahren einfach ne neue CPU drauf drücken kann, ohne gleich wieder n halben oder ganzen neuen Rechner zu kaufen..

Naja, viel Glück - war schon immer ne Kunst für sich oder andere den richtigen Kaufzeitpunkt zu finden :)
 
Der TE fragt nach Gaming, und die Antwort ist:
"Ja AbEr SeRvEr UnD wORkStAtIoN".

In der Schule/Uni/Arbeitswelt wäre das ne glatte 6, Thema verfehlt.

"Wir brauchen 20 gaming Rechner, hier sind 50.000€!"
"Hey Leute, ich kann euch 2 tolle Videoworkstations anbieten!"
 
Das vergessen viele leider gern. Hab ich YouTube, Discord, Spotify und Ähnliches nebenbei laufen, dann schnauft ein kleiner Quadcore schon übel. Da empfiehlt sich eine CPU mit 6 oder 8 Kernen.
liegt das jetzt an deiner überproportionalen Aufmerksamkeitsspanne? Ich kann Excel bearbeiten und nebenbei Bier trinken und Atmen.
Aber Discord+Youtube ggf noch Gaming und dann noch mehr nebenbei? Respekt, ich werde wohl alt und will mich immer nur auf eine Sache konzentrieren .....
 
Aber Discord+Youtube ggf noch Gaming und dann noch mehr nebenbei? Respekt, ich werde wohl alt und will mich immer nur auf eine Sache konzentrieren .....
Discord "brauch" ich je nach game, vor allem halt wenn man nicht allein spielt, z.b. mmo. Youtube, Twitch, Spotify und sowas dient doch eher der Berieselung und man "konzentriert" sich da ja nicht... Natürlich hat man immernoch nur 1 Augenpaar
 
solche sachen konnte man mit einem 3570k schon nebenher laufen lassen :d
 
Die gleiche Diskussion gab's zu Dual Core Zeiten wo ein 4 Kerner nicht wesentlich mehr kostete aber Dual Core Systeme einbrachen.
 
ich frage mich gerade noch, ob ne asiatische taube schlechter sehen kann
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh