HEDT-Comeback? Intel plant für Q2 2022 mit Sapphire Rapids

Ja bin verrutscht Alder Lake S ist gar nicht hedt, dann hab ich nichts gesagt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ehrlich gesagt wüsste ich nicht, wozu man heutzutage HEDT brauchen würde. Mit echten Server-CPUs kriegt man für (oft) weniger Geld mindestens die gleiche Leistung, auch wenn beim Zocken wahrscheinlich mit etwas weniger Leistung rechnen muss. Früher gab es halt das Argument von OC und non-ECC-RAM, aber was will man bei heutigen CPUs großartig übertakten und 128+ GB auf über 4 Kanälen/Riegeln ohne ECC?
 
Würde ich wieder kaufen nur um dieses leidige Lane Problem aus der Welt zu schaffen.

Momentan hab ich die Wahl, ob meine Graka nur mit 8x versorgt wird oder ob 2 meiner 4 nvme SSDs nicht nutzen kann (ASUS Trägerkarte).
Im Sockel 2066 System habe ich dieses Problem nicht.
 
Ehrlich gesagt wüsste ich nicht, wozu man heutzutage HEDT brauchen würde. Mit echten Server-CPUs kriegt man für (oft) weniger Geld mindestens die gleiche Leistung, auch wenn beim Zocken wahrscheinlich mit etwas weniger Leistung rechnen muss. Früher gab es halt das Argument von OC und non-ECC-RAM, aber was will man bei heutigen CPUs großartig übertakten und 128+ GB auf über 4 Kanälen/Riegeln ohne ECC?
HEDT ist für den Workstation-Bereich, wo der massive Takt am Ende gebraucht wird. Sonst hätten Threadripper und 10980XE gar keine Daseinsberechtigung. Da geht es nicht um maximale Kernanzahl, auch wenn AMD diesen Bereich öffnet.
 
Also ich weiß, wofür ich meine Threadripper gekauft habe ;)
 
SMT 'cores' ist/waren/werden niemals echte Kerne sein. Und das war auch schon immer so gedacht. Das ist btw unabhängig von Intel, AMD, IBM, VIA,...
Beitrag automatisch zusammengeführt:


Nein. Das Big.LITTLE Konzept ist mit SMT überhaupt nicht vergleichbar. Das sind unterschiedliche Baustellen.
So so also ich habe ja gelesn das SMT von AMD ist bei 30 % eines Kernes angekommen bei einem Flächenverbrauch von 5 % an Transistoren. Also durchaus nicht schlecht.

Also schlecht sind die SMT Einheiten ja nicht weil ich vergleiche schon 16 +SMT mit 32 Kerne ohne SMT. Klar können da SMT mit echten nicht mithalten aber der Abstand dank smt sank durch sowas auf nur noch 15 % also durchaus echt nicht mehr viel. Vermutlich wären es ohne SMT dann ein Abstand von 45 %. Weil ja nicht 1 zu 1 durch die Anzahl an Kernen die Leistung linear steigt.
Und habe gesehen die Little Kerne haben ne Leistung von 50 % also wird gewiss ein kleiner Kern SMT wohl schlagen. Es macht schon was aus ob es nur 30 % sind oder 50 % eines Kernes. Ich werde sehen ob ich mit 2 x Umwandlungs Software hier die 8 kerne mit SMT und die 8 kleinen Kerne zu 100 % auslasten kann oder nicht. Und ob ich dann am ende nicht sogar schneller unterwegs bin. Wenn es raus kommt werde ich dieses Verhalten bei wem testen. Mich interessiert sehr ob ich alle vorhandenen Kerne voll auslasten kann oder nicht. Hier wird sich wohl zeigen wie gut es sein wird. Mein Fazit wird also erst nach dem Testen ausfallen. Genügend Kerne sind es ja schon mal.
Klar wird ein 5950x noch immer ne bessere Leistung haben und es gibt ja noch immer ein RIesen unterschied ob es nun 32 Threads sind oder nur 24 Threads.Wenn ich schon 32 schon das System zur überforderung bringe wird ein 24 Threader nicht besser. Mir geht es aber darum ob ein 12 Kerner mit SMT gegen ein 8 Kerner mit smt +Kleine Kerne auf gleichstand kommen wird oder nicht.
Würde ich nun aber sowas extremes wie 2x VIdeoumwandeln mit Zocken gleichzeitig ausführen ,dürften wohl beide sehr stark zurück fallen weil keiner der Anwendung mehr genügend Threads zum abarbeiten hätte.
So extrem werde ich mit so kleinen CPUS nicht umgehen,weil das wäre wohl zu viel des guten. Bei den Workstation wird es wohl schon durch noch mehr Kerner aber wieder Interessanter. Ich lasse mich bei so vielen Kernen also überraschen. Ich warte nur da drauf das irgendwann ne neue CPU die auch weniger Kostet nen Threadripper 3970x in der gesammt Leistung schlägt. Dabei auch noch weniger Strom verbraucht und auch bei der Kühlung besser zu kühlen sein wird. Und nein nur nen 3960x zu schlagen reicht mir eben nicht aus.
 
ich gehe sowieso davon aus, dass zumindest die BIG kerne auch SMT erhalten werden.
also i.e. 8C16T an performanten kernen und dazu dann noch 8C8T stromsparende.
 
Das die großen Kerne SMT bekommen stand doch schon fest? Und was die IPC angeht, da erinnere ich mich grob an die Aussage dass die little Cores eine IPC auf Niveau von Skylake bekommen sollen. Also grob 75% IPC der großen Kerne, dafür aber deutlich weniger Transistoren und damit Fläche auf dem Die - und das ist der Punkt. Intel kann sich fette Chips nicht leisten, wenn man extrem viele Kerne unterbringen will.
 
Das die großen Kerne SMT bekommen stand doch schon fest?
Fest ist wohl noch nichts, aber siehe auch #28, wo ich schon mal über Gerüchte über 16C und 24T Alder Lake Samples zitiert und kommentiert hatte, aber Alder Lake ist nicht das Thema hier, sondern Sapphire Rapids! Und bisher habe ich nirgends gelesen, dass auch Sapphire Rapids eine little.Big Architektur bekommen soll.
 
@Tzk
Wie kommst du denn da drauf das die little cores 75 % der grosen cores mit ipc erreichen würden. Steht das denn irgendwo so drinnen?
Das das die so wenig transsitoren brauchen ist ja unglaublich.Achja amt bzw Ht braucht auch wenig transistoren von der anzahl. HT braucht nur 5 % der fläche an transistoren insgesammt. Bin gespannt wie viel platz die kleinen cores an transistoren fläche brauchen werden.
Achja der intel mit 2x15 tiles core wird interessant werden. Den werde ich mal bei wen testen lassen. Wie der sich wohl gegen nen threadripper 3970x sich schlagen wird,bleibt spannend. Denn ich musste selbst beim 24 kerner smt abschalten weil es leistung gekostet hat. Wenn hier intel so dermasen gut die cpu optimiert hat,villelicht muss ich ja dann ht bei intel nicht ausschalten weil dann ht in zukunft nicht mehr bei der anwendung bremst.Ich dachte das wäre nur bei spielen so nur gewesen.Das es bei anwendung es da genauso passieren könnte wusste ich ja noch nicht. Nun ich habe kapiert das der abstand ein völlig normaler ist. Es gibt halt noch immer ein grosen unterschied zwisschen 16 kerner mit smt und 32 kerner ohne smt. Threads scheinen zwar die selbe menge sein aber ist klar das smt gegen normale threads die nicht hypertrading sind niemals schlagen könnte.Smt bzw ht wird man auch nie mehr weiter optimieren können. Und wenn es doch möglich wäre, dann würde der aufwand zum optimieren es wohl wirtschaftlich und zeitlich sprengen. Darum sehe ich es weder bei amd noch bei intel etwas in dieser Richtung. Und ich weder auch nicht mehr hoffen das ein 16 kerner mit smt jemals nen 32 kerner ohne smt schlagen wird können. Vielleicht ja doch irgendwann mal wenn da noch bei der optimierung so richtig fahrt aufgenommen wurde. Vielleicht schafft es ja einer der beiden. So nen nachfolger vom 5950x mit 30 % mehr leistung bei archtektur usw das wäre es doch was. Oder intel schafft es weil sie ja mehr schaffen müdsen bei 50 % mehr leistung aufgehend vom aktuellen highend cpu wie nen 10980xe . Dann werde auch ich mehr leistung zu spüren bekommen. Ich freue mich schon mal auf die richtigen leistungssprünge. Mit nur 20 % brauche ich hier ganricht mehr anfangen weil zu wenig mehr leistung. Dann haut mal amd und intel mal ordendlich auf die kake. Die leistung was es bisher zu kaufen gibt ist mir zu wenig.
 
Wie kommst du denn da drauf das die little cores 75 % der grosen cores mit ipc erreichen würden. Steht das denn irgendwo so drinnen?
Auf die schnelle keine bessere quelle gefunden:

For the Gracemont Atom cores, the performance is suggested to be similar or slightly better than Skylake cores but with a much lower power draw. An overall IPC gain for the complete Alder Lake chip is expected around 16-18%.

So, wie ich jetzt auf die 75% komme:
Skylake zu Icelake waren 18% IPC Gewinn. Icelake zu Tigerlake war zu vernachlässigen, soweit ich weiß. Alderlake soll nochmal 18% auf Tigerlake legen. Also: 1,18*1,18 = 1,36 -> 36% von Skylake zu Aderlake. 1/1,36 = 0,735 -> 73,5% ist Skylake langsamer als Alderlake. Und wenn die neuen Gracemont Atom Kerne so schnell sind wie Skylake, dann erreichen die halt 75% der IPC von den neuen großen Kernen.

habe ich nirgends gelesen, dass auch Sapphire Rapids eine little.Big Architektur bekommen soll.
Korrekt. Würde mich auch stark wundern... Im Server und HEDT baut Intel lieber riesige Chips mit großen Kernen.
 
Zuletzt bearbeitet:
Hm mist nur skylake level, da wird meine anwendung ja dann drauf schlechter laufen als bei der ryzen cpu. Dann lieber auf den hybrid verzichten. Hoffen das die cpu mit den slice als highend cpu besser laufen wird. Denn zum schluss bin ich ja entäuscht weil ich weit mehr erwatet hatte als abgeliefert wurde.
 
Korrekt. Würde mich auch stark wundern... Im Server und HEDT baut Intel lieber riesige Chips mit großen Kernen.
Das mag auf den ersten Blick sinnig ausschauen - ergibt aber mittel- bis langfristig keinen Sinn (mehr)
Denn die CPUs sind so langsam aber sicher nicht mehr limitiert in der Fertigung (Waferfläche) oder in der Leistung pro Kern/Thread, sondern Powerlimitiert. Mit steigender Kernanzahl wird das ein immer wichtigerer Faktor.

Nimm dir als Beispiel mal den 3990er TR von AMD. Der kommt mit 64C und 280W. Das macht nach Abzug der Fabric von 75-100W irgendwo 200-225W für die Kerne zusammen. Also bei Last 3,1-3,5W pro Kern. Damit das funktioniert und überhaupt ins Powerbudget passt, taktet das Teil nur noch in niedrigen 3GHz Regionen. Das Silizium der Chiplets kann aber 4,5GHz und mehr spielend. Wie max. Boost und auch die anderen CPUs mit gleichen Chiplets erreichen.
Jetzt die Preisfrage - wozu sollte es wirtschaftlich sinnvoll sein, unnötig große CPU Kerne und unnötig viele Ressourcen in solche breite CPUs zu verschwenden, wenn man die Ressourcen eh nicht ausfahren kann? Ich mein, von 3GHz auf 4,5GHz sind 50%, die das Teil schneller könnte, als es am Ende gefahren wird.

Lass mal ins blaue überlegen. Nimm "einfach" Kerne, die nur 2/3tel der Leistung erzielen und das aber bei 50% des Verbrauchs -> ist halt ungeeignet im Desktop bzw. normalen Betrieb, weil dort die Peak Power genau so wichtig ist, wenn nicht sogar wichtiger. Aber ergibt bei breiten CPUs sehr wohl eine Menge Sinn. Denn es spart Strom und auch Waferfläche, die man dann mit mehr von diesen Kernen belegen könnte. Genau so das Thema mit SMT - fetter Kern, der dann mit SMT auf gute Auslastung kommt -> oder vielleicht lieber zwei kleine einzelne Kerne, die so schon relativ gut ausgelastet werden? Gemessen an der Basis von 1 wären besagt fiktive 2/3tel der Leistung mit zwei Kernen in Summe bei MT Load auch nicht langsamer als ein großer fetter Kern mit 20-30% SMT Skalierung.

Im Endeffekt ist dabei sehr witzig, dass das AMD in ähnlicher Form mit dem CMT Ansatz schon versucht hat. Und dabei gescheitert ist. Aber primär daran, dass man für Last eben damals quasi keine Leistung/Takt verlieren musste mit den fetten Kernen. Heute ist das aber bisschen anders. Weder die Intel noch die AMD CPUs halten ihre hohen Taktraten unter Last, zumindest wenn OC nicht drauf ist oder die Powerlimits ausgehebelt werden.


Aber mal gucken wohin die Reise geht. Big/Little hat schon eine Menge Sinn, wenn man sich von der Allcore Boost = Maxboost - Verbrauch egal Thematik löst. Selbst sowas wie der 5960X verliert viel Takt um das Powerbudget nicht zu sprengen unter Volllast. Schmeckt den Schrauberbubies und OCern logisch nicht, weil die verlieren dabei halt am Meisten. Der Rest da draußen aber wird wahrscheinlich eher gewinnen...
 
Nein 18%.

 
@fdsonne Ah ok interessante ausführung. Ja stimmt aber nicht ganz habe dem 3970x auf 4 ghz geschafft und nicht auf 3 ghz wie du es ausführst. Ich denke mal das jeder kern auch theroetisch 4,5 ghz schaffen könnte.Jedoch die ernomerne hitzeentwicklung und der stromverbauch austronomisch ist.Da braucht nen 3970x bei 4 ghz mehr als 280 watt an strom. Die cpu kerne waren bei rund 85 grad gewesen. Ich finde schon es war ganz schön eng gewesen. Ich dachte nämlich fast schon die leistung würde langsam einbrechen weil die anzeige der leistung geschwankt hatte. Und zwar mehr als bei allen anderen cpus die ich so zuvor also weniger kerner es erlebt hatte. Ich denke mal mit einem montolischen cpu wäre das Verhalten schlechter gewesen. Da wäre wohl dann noch weniger unter dem strich an leistung amgekommen.

Und den rest dir sind also 2 kleine kerne lieber als 1 großen kern mit Ht/Smt. Bei smt sind es fall 30 % leistung eines grosen kernes. Also würde intel mit ihren 2 kleinen kernen um rund 10 % unterlegen sein. Na da muss sich aber intel in zukunft noch mehr mühe geben. Sind aber schon auf dem richtigen Weg. Besser als nix ist es jedenfalls ja schon wie ich finde.
 
@Latiose
Er hat doch nicht ohne Grund den 3990 als Beispiel genommen. Und wie du selbst sagst (und so war es von ihm auch gemeint):
280W, 64 Kerne und 4ghz sind einfach nicht unter einen Hut zu bringen. Entweder müssen Kerne weg, die tdp rauf oder der Takt runter.

@fdsonne
Den Ansatz den du ansprichst hat man ja mit diesen riesigen ARM CPUs mit 128 Kernen ja schon gewählt. Ich kann mir gut vorstellen, das man einen breiten Atom mit Skylake IPC auflegt, im Server ist das sicher nicht blöd. Am Desktop/HEDT dagegen will man zumindest auf wenigen Kernen richtig Dampf haben.
Und da sind wir dann bei Alderlake.
 
Ja gut da hast du völlig recht. Was beim 32 kerner beim takt noch geht kann man wirklich nicht auf dem 64 kerner übertragen.Das ist mir schon klar.Wollte ja nur damit sagen das es schon beim 32 kerner knapp ist und da mehr dann schon nicht mehr möglich ist.Selbst beim 48 kerner gillt das selbe wie beim 64 kerner.
Und ja ich finde es schon hart. Taktet man also den 3970x auf 4 ghz, dann sind wir dann wohl bei 320 watt oder mehr beim realverbrauch. Ich finde es schon heftig wie sich bei solchen cpus 500 mhz mehr takt sich ganz schön auswirken können bei thema stromverbrauc, temperatur und auch lautstärke. Der wo ich es testen durfte war das system 3970x ganz schön laut gewesen also bei 4 ghz. Ich sehe es als sehr bedenklich an. Und besser wird es wohl auch in zukunft nicht mehr werden. Das nützt also wirklich nix das immer noch viel mehr vielkerner. Da hat man aufgrund des geringen taktes immer nen nachteil sowohl bei games als auch bei Anwendung. Da nützen mir halt weder 48 noch 64 oder noch viel mehr kerner null was. Und auch bei den meisten andere wohl so 80 % der Nutzer ebenso wenig was. Nun. Verstehe ich auch warum diese systeme generell immer so teuer sind. Da man eben nie davon so viele absetzen kann muss man es eben durch den höheren Preis ausgleichen. Sonst zahlt der hersteller am ende noch drauf. Das will echt niemand das man das macht. Denn was hätten die davon,auser minus geschäffr zu machen, na nix.
 
Lass mal ins blaue überlegen. Nimm "einfach" Kerne, die nur 2/3tel der Leistung erzielen und das aber bei 50% des Verbrauchs -> ist halt ungeeignet im Desktop bzw. normalen Betrieb, weil dort die Peak Power genau so wichtig ist, wenn nicht sogar wichtiger. Aber ergibt bei breiten CPUs sehr wohl eine Menge Sinn. Denn es spart Strom und auch Waferfläche, die man dann mit mehr von diesen Kernen belegen könnte. Genau so das Thema mit SMT - fetter Kern, der dann mit SMT auf gute Auslastung kommt -> oder vielleicht lieber zwei kleine einzelne Kerne, die so schon relativ gut ausgelastet werden? Gemessen an der Basis von 1 wären besagt fiktive 2/3tel der Leistung mit zwei Kernen in Summe bei MT Load auch nicht langsamer als ein großer fetter Kern mit 20-30% SMT Skalierung.
SMT verliert bei den Server CPUs ohnehin drastisch an Bedeutung. Aus dem HPC Bereich weiß man, dass SMT nichts mehr bringt, wenn man Thread Pinning macht, d.h. den Thread fest an einen Core bindet und die Caches immer den gleichen Context enthalten. SMT ergab Sinn, solange es wenige Cores gab, und man die teueren Resourcen zwischenzeitlich anderweitig nutzen konnte. Intel hat nun 40 Cores, AMD 64 Cores und Ampere (Altra ARM CPU) 128 bzw. 80 Cores.
 
Im HPC Bereich mag das stimmen. Im normalen Brot und Butter Geschäft würde ich das so noch nicht als gesetzt sehen.
Sagen wir ein 0815 Hypervisor - der wird idR eh nicht mit voller Last gefahren. Oder mit hoher Teilllast. Sondern die CPU Last ist eher im unteren drittel, dafür sind aber die CPU Cores deutlich überbucht. Faktoren von 1:4-1:8 sind keine Seltenheit. Also 8x vCPU zu 1x CPU Core. Die kommen idR nicht alle gleichzeitig mit ihren Lastspitzen - für die Zuweisung ist es aber essentiell wichtig, dass der Prozessor das entsprechend gleichzeitig abfackeln kann. Hier hilft SMT seeehr viel. Oder halt physische Cores. Aber mal sehen, physische Cores sind eine Lizenzfrage, SMT atm nicht.

Bin aber eh gespannt, wo der Bruch passieren wird. Das Sapphire Rapids Design mit seinen 4x Slices ist ja eher für HPC als für 0815 Server hin ausgerichtet. Das Zeug wird immer fetter und breiter, sodass für die einfacheren Aufgaben vieles unötig teuer und groß ausfällt. Gerade HEDT (um das geht es hierbei ja) hat da halt noch den wenigsten Vorteil abseits der reinen CPU Core MT Leistung. Und die kleinen Server halt auch nur bedingt. Könnte mir vorstellen, dass man hier vielleicht wieder eine einzelne Server Linie einführt, wo dann die großen HPC Monster ihren Teil bekommen und ggf. auch große Cloud Provider das Zeug nutzen und die Basis aber dann eine Stufe kleiner ansetzt.
 
Aus dem HPC Bereich weiß man, dass SMT nichts mehr bringt, wenn man Thread Pinning macht, d.h. den Thread fest an einen Core bindet und die Caches immer den gleichen Context enthalten.
Hast Du Belege für diese Aussage? Dies wäre mir nämlich neu und die Frage ob SMT Sinn macht, hängt vor allem von der Nutzung, bei HPC also dem Algorithmus ab. Es mag sein, dass SMT wenig bringt, wenn der RAM Durchsatz der Flaschenhals ist, die Threads also immer wieder auf Daten aus dem RAM warten müssen und damit die Chance auf dem zweiten Thread des Kerns etwas berechnen zu können während der andere auf seine Daten wartet, eben gegen Null geht weil der andere ja ebenso warten muss. Dann wäre die Auslastung des RAM Controller bei 100% und dann bringen weder mehr Kerne noch SMT etwas, aber solange der RAM Controller immer mal wieder Idle ist, dürfte SMT immer noch einen Leistungsgewinn bringen, sofern es nicht dazu führt, dass die Cache Inhalte für den einen Thread immer wieder die Inhalte für den anderen verdrängen.
 
Habe ja auch gelesen bei mehr programmen gleixhzeitig wird die grose des l2 cache wichtiger denn je weil das entscheidet dann ob flaschenhals oder nicht.
 
Hast Du Belege für diese Aussage? Dies wäre mir nämlich neu und die Frage ob SMT Sinn macht, hängt vor allem von der Nutzung, bei HPC also dem Algorithmus ab.
Wenn die Einheiten der CPU ausgelastet sind, bringt ein Umschaltung auf einen anderen Threads nichts, das bremst im Gegenteil den Thread aus. D.h. SMT kann nur dann etwas bringen, wenn man mehr als einen Thread hat, der jeweils den Core nicht komplett auslastet und z.B. auf IO wartet. Dabei dürfen die Threads aber nicht IO-limitiert sein, denn dann würden sie sich ausbremsen. HPC-Algorithmen werden üblicherweise auf Cache Hits optimiert.

Es gibt reichlich Material im Netz zu diesem Thema, und man kann es als Allgemeinwissen in der HPC-Community betrachten. Eines der Dokumente die man auf die Schnelle finden kann: Thread Pinning Benches.
 
Ah interessant. IO limitiert also und verstehe vollständig ausgelastet bringt smt bzw ht also null. Na wenn das stimmen würde,dann hätte ich ja doch am ende keine mehrleistung durch ht damals gehabt. Ich habe damals es getestet gehabt und da habe ich schon mit smt 100 % auslastung gehabt. Schaltete aus neugier smt aus und die leistung sank massiv nach unten. War damals ein core i7 3770k gewesen.Wenn das 100 stimmen würde was du da so schreibst,dürfte es doch keinenunterschied machen ob an oder aus. Oder sich bei aktuellen cpus bezüglich smt bze ht etwas verändert. So das dieses Verhalten nicht mehr reproduzierbar ist mit aktuellen cpus?
 
Na wenn das stimmen würde,dann hätte ich ja doch am ende keine mehrleistung durch ht damals gehabt. Ich habe damals es getestet gehabt und da habe ich schon mit smt 100 % auslastung gehabt. Schaltete aus neugier smt aus und die leistung sank massiv nach unten. War damals ein core i7 3770k gewesen.Wenn das 100 stimmen würde was du da so schreibst,dürfte es doch keinenunterschied machen ob an oder aus. Oder sich bei aktuellen cpus bezüglich smt bze ht etwas verändert. So das dieses Verhalten nicht mehr reproduzierbar ist mit aktuellen cpus?
Ich habe nicht ohne Grund einen längere Artikel verlinkt, den sollte man sich schon durchlesen, wenn man bisher noch nicht wusste was Thread Pinning ist bzw. was man da macht. Thread Pinning nutzt man, weil üblicherweise der Scheduler des OS Probleme macht und Threads von Cores verlagert und somit Caches mit falschen Daten gefüllt sind. D.h. man muss hierbei die Performance mit Thread Pinning ohne SMT und Thread Pinning mit SMT vergleichen, und dann sieht man, dass SMT nichts bringt sondern meist Performance kostet.
 
Ja ich habe auch bested Beispiel wo ich praktisch schon erfahrung sammeln musste aber auf die negative art.
Ryzen 9 5950x ohne selbst festgelgt 2 Anwendung im hintergrung nehmen sich alles und die dritte Anwendung bekommt garnix mehr. Klar das dann der threadripper ohne smt da so seine vorteile auspielen konntr ohne ne extra Anwendung nutzrn zu müssen. Die leistung hat sich aber kaum geändert weil smt scheinbar durchaus so seine arbeit gut leistet weil es relativ gut ausgelaster wird. Bei 100 % bringt jedoch smt bzw ht nicht mehr so viel weil es da kaum noch was verschieben kann weil 0 luft noch vorhanden ist. Man kann dann halt nix mehr mehr ausgleichen und so. Habe ja auch nicht behauptet das smt bzw ht immer in jeder situation was bringen würde. Sagt ja auch keiner.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh