[Sammelthread] Intel Sandy Bridge - E / Ivy Bridge - E / Haswell - E (Sockel 2011) OC-Laberthread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schwachsinn, das Tool arbeitet mit den originalen Intel Linpacks und stresst eben fast alle Bereiche einer CPU.

Wenn du damit Probleme hast, stell deine (OC)-Takt runter !!!

@Stullen Andi

Schick mir ne eMail und sende dir das aktuelle LinX Tool
 
Zuletzt bearbeitet:
Bei 8 oder 10 Kernen müsste ich das nicht unbedingt stundenlang über die CPU bügeln lassen mit gut Saft aufm Core, aber mein 4 bzw 4.2G Setting will ich mal probieren. Das sind max 1.2V.
 
gönn dir die temps bei linx mit moderatem OC auf einer viel-kern-cpu... das hat nichts mit oc runter zu tun, das ding stundenlang laufen lassen ist für mich in meinem privaten anwendungsgebiet einfach sinnloses backen meiner cpu. -> kein bedarf unnötig den grill anzuwerfen

und das ist meine meinung, die in deinen augen schwachsinn sein kann
 
Zuletzt bearbeitet:
Ich render ja auch ab und an größere Videos Files, da erreichen die Temps auch Spitzen die ich niemals beim zocken erreiche. Von daher ist das Risiko da für mich schon absehbar. Mit 4.5G und 1.35V würde ich LinX nicht laufen lassen wollen, da gebe ich dir vollkommen recht. Und was die Meinungen angeht müsstest Du doch mittlerweile wissen das ich meist eh aus der Reihe tanze ;)

Also, alles gut :wink:
 
ich meinte ihn, nicht dich.

ich verstehe btw nicht was ihr da für projekte rendert. wenn ich 2-3h gameplay 1440p/60hz auf ein 10min video schneide und es für yt exportiere stand mein 4.5ghz 5960x für den 3-4GB großen export evtl 5-10 min unter load, noch nicht mal zu 100%.

was für video files renderst du da ? ^^

streame ich hingegen direkt (und über die CPU codiert) stand der 5960x für die zeit des steamings (2-3h) unter voller load (sidenote: obwohl ich diese CPU nie länger als 30 min mit p95-27.9 oder gar mit linx geteste habe, lief das teil immer stabil)
 
Zuletzt bearbeitet:
Ahhso, verwechselt. Ich nehme im RAW Format mit Fraps auf, das gibt unendliche Datenmengen auf der Platte xD (ich weis, nicht optimal aber noch nix mit besserer bildqualität gefunden) Encodiert wird mit TMPGEnc. Das Programm gibt 100% Last auf der CPU, Prime ähnlich.
 
etwas suboptimal mit RAW zu frapsen, solltest du es für YT exportieren, die zerhacken dir die BQ eh

ich recorde mit DXtory (codec fällt mir grad nicht ein), was in überschaubaren datenmengen endet, mit relativansehnlicher BQ, sehr gute BQ eigentlich. selbst nach dem export immer noch relativ gut. sobald YT es online hat ist es nur noch brei... ich schneide btw mit dem moviemaker, der ist free und reicht mir für die 2-3 exporte :fresse:

warum ich nur etwa 80-90% cpu load beim export habe, ka, nie verfolgt, mir egal weils eh nicht lange dauert. streaming hingegen, je nach qualität, geht brutalst auf die cpu.
 
Zuletzt bearbeitet:
Youtube war am besten den RAW File hochzuladen, dafür reicht meine Leitung aber nicht. Meinst wohl DXtory mit dem Lagarith Lossless Codec?! Nutzte ich auch eine Zeit, aber irgendwas gefiel nicht und ich bin wieder zurück gerudert. Naja bei mir kommt es auch nur alle paar Monate mal vor was zu rendern, aber wenn ist die belastung eben fast wie bei Prime, darauf wollte ich nur hinaus.
 
ich habe die screens von godfather also von einem deiner systeme geshen
Hab mir die gerade auch hier im Forum (1. Seite zuvor) die Screens angeschaut und da steht (warum auch immer) der Cache auf AUTO.

Ich stelle die Cache (Uncore) Spannung immer ein und bin mir fast sicher, dass ich das bei dem User auch gemacht habe. Vielleicht hat der User mal ein BIOS Update gemacht und vergessen die Spannung einzustellen ?!? Ansonsten lag die damals bei 1.180V :)

Ich sehe das wie beim Auto Tuning... dicke PS-Schleudern, aber nur auf der Landstraße fahren und protzen. Auf der Autobahn wird es zu heiß und könnte ja kaputt gehen :d
 
Zuletzt bearbeitet:
darauf wollte ich nur hinaus

ich verstehe schon, es gibt szenarien im 24/7 usecase, die sehr sehr gute load erzeugen, ähnlich diversen synth-benches. das man da was stabiles unterm arsch will, ist klar. hatte diesbezüglich aber nie probleme, beispiel streaming, hab das eine zeit lang sehr regelmäßig gemacht.

es gibt auch light load szenarien, in denen du ein 100%ig stabiles system willst. so ist das nicht. wenn du etwas anspruchsvoller spielst, wow myth raid oder ESL match, dann kannst du da auf keinen fall einen crash gebrauchen. wie man sein system stabil bekommt und was jeder als stabil bezeichnet bestimmt dabei jeder selbst. ich bin nur kein freund von stundenlanger quälerei, schon gar nicht wenns der CPU evtl schaden könnte, möchte aber auch nicht das mir der esel abkackt bei der nutzung.

Ich stelle die Cache (Uncore) Spannung immer ein und bin mir fast sicher, dass ich das bei dem User auch gemacht habe. Vielleicht hat der User mal ein BIOS Update gemacht und vergessen die Spannung einzustellen ?!? Ansonsten lag die damals bei 1.180V :)

Ich sehe das wie beim Auto Tuning... dicke PS-Schleudern, aber nur auf der Landstraße fahren und protzen. Auf der Autobahn wird es zu heiß und könnte ja kaputt gehen

ich bin etwas müde was das thema angeht. will dabei weder dir noch deinen usern was schlechtes. für mich ist das thema durch. meine meinung habe ich gesagt.

ich liebe mein auto in dieser metapher zu sehr, alsdass ich stundenlang im drehzahlmaximum sinnlos gas geben müsste um irgendwem etwas zu beweisen.

eine frage hätte ich noch, kühlst du die BW-E´s mit luft wenn du linx oder prime testest?
 
Zuletzt bearbeitet:
Leider funktioniert die Adaptive Geschichte unter BW-E auf Asus bzw. dem R5E10 atm noch nicht so wie man das gerne hätte bzw. von HW-E kennt.

Adaptive capped nicht, die Cores nehmen sich trotzdem mehr bzw was sie wollen.

Unter HW-E konnte man noch schön mit Adaptive die Vcore angeben, an die sich die CPU dann auch gehalten hat und dann noch einen negativen Offset für weniger vcore im Idle konfigurieren. War schön Energieeffizient. ATM muss ich mit Override arbeiten, sodass ständig fixe 1.2 anliegen. Ist atm die einzige Möglichkeit wie ich die vcore selbst cappen kann. Mit Offset oder Adaptive nimmt sich die CPU mehr als ich es will bzw angebe...

Ja, dass nervt mich auch. Für meine 1,2V muss ich -0,070 im Offset einstellen, was dann aber 0,690V im Idle sind. Im Idle hätte ich aber gern ähnlich viel, wie @stock (ca. 0,75V). Das würde aber nur funktionieren, wenn ich auf ca. 1,25V Last-VCore gehen würde, was mir aber zu viel ist für 24/7. Mit Adaptive komme ich auf das selbe Verhältnis 0,690/1,2V wie mit Offset. Allerdings läuft meiner auch mit den 0,690V im Idle, aber ich hätte halt gerne noch einen kleinen Puffer. Beim Sandy-E konnte ich mit der Load-Line die VCore so anpassen, dass sie im Idle und unter Last gepasst hat.
 
noch mal, da es vorhin in dem fight mit JZ evtl untergegangen ist. diese turbo boost 3.0 geschichte mit einer core 100mhz höher als andere, ist irgendwie zwar ganz nett, aber in der praxis funktioniert das mit der single thread load bei mir irgendwie nicht so gut.

habs gestern bissl getestet, diverse anwendungen laufen lassen, core takt und load von #5 (meiner guten) beobachtet. valley z.b., gerade da erwarte ich, dass genau diese gute und höher getaktete core genutzt wird. leider nicht der fall, wie bei anderen anwendungen auch. entweder ich mache was falsch oder der mist funktioniert nicht so wie man sich das vorstellt.

wie ist das bei euch? könnt ihr da was anderes beobachten?
 
Zuletzt bearbeitet:
hmm, super pi könnte ich mal testen, die anwendung eignet sich besonders gut dafür, da man am score schon sehen kann was er macht.

ich hatte halt auch HWinfo sowie meinen monitor mit takt und load der einzelnen cores in der ac-suite offen. #5 habe ich mir dort extra rot eingefärbt, sodass ich diese core sofort erkenne. load und takt stieg aber auf #0 bei valley.

die korrekte zuordnung der core nummerierung kann ich anhand des taktes (44x vs. 43x) erkennen. #5 taktet mit 4.400, der rest mit 4.300, belastet wird aber #5 nicht so wirklich besonders gut bei valley z.b.

irgendwas mache ich offenbar falsch :hmm:
 
Stell mal so um. Vielleicht musst mit der Last noch etwas spielen um den passenden Punkt zu finden.

 
hmm, ok, danke

werd damit noch mal etwas spielen

€: ich glaube ich weiß warum das nicht so wollte.

the Advance Settings dialogue, where “Utilisation Threshold %” defaults to 90%, and tells the application to affinitise your selected executable to the higher frequency cores when CPU utilisation reaches 90%. Set this as necessary.

valley lastet zwar weitestgehend nur eine core aus, diese aber niemals über 90%

€2: noch was

Note 2: Once the driver is installed, the customer can use other standard methods to assign the core affinity per application. Whether the customer uses the Intel® TBMT application OR other standard Windows methods to assign core affinity, the last method invoked to assign affinity is what the process scheduler will use to control that applica- tion/core relationship.

jetzt wäre es interessant zu verstehen wie genau windows das regelt und ob man das windows verhalten z.b. via regedit oder im treiber selbst beinflussen kann, sodass man sich diese TBMT app sparen könnte
 
Zuletzt bearbeitet:
Muss eignetlich dieses Intel Turbo Boost Max Tool im Hintergrund laufen, damit Anwendungen entsprechend dem "Besten" Core zugewiesen werden?
Weil wie webmi kann ich nicht wirklich feststellen, dass Single-Thread Applications diesem verlässlich zugeteilt werden.

Edit: Hat sich erledigt.
 
Zuletzt bearbeitet:
Bei mir gehts jetzt, hab den Usage Threshold auf 50% sowie Affinitize to cores with diversity gestellt , Valley nutzt jetzt die bessere Core.
 
Gibt es eig. eine Möglichkeit die TBMT Anwendung von der Taskleiste wegzubekommen? Wenn die im Hintergrund läuft, ist sie trotzdem immer
auf der Taskleiste zu sehen. Nur System Tray wäre praktischer
 
Also ich habs jetzt so gemacht:

- Turbo Boost samt APP installiert
- App geöffnet
- Settings geändert (50% & Affinität)
- Valley getestet (funktioniert)
- APP über Programme deinstallieren deinstalliert
- nicht neugestartet
- Gerätemanager geöffnet
- Rechtsklick auf das unbekannte Gerät
- Treiber installieren (via Pfad Angabe)
- Turbo Boost APP Install Pfad (drivers) angegeben
- Treiber installiert
- PC restart
- Valley getestet (funktioniert noch)
- Cinebench Single Core funktioniert auch



- - - Updated - - -

43x allcore, 44x best, 37x cache, 3200/14/14/14/34/1 ram


Mich würde mal interessieren was ein 45er HW-E Single Core im R15 drückt, wenn wer so nett ist und mal laufen lassen würde
 
Zuletzt bearbeitet:
Single Core Leistung bei nem 10 Core ist ne interessante Metrik :shot:
 
Ich habe gestern etwas weiter getestet. Wenn ich die SA auf 1.125 stelle und die CPU auf 4,3 GHz geht der Takt beim Speicher auf 2666 bei 15-15-15-37( erstmal auf Sicherheit getestet) aber die CPU braucht 1,390 v um stabil zu laufen. Denke, dass ist einfach zu viel. Besorge mir vom Kumpel mal einen andern Speicher um diesen auszuschließen aber denke, dass ich bei 4,2 GHz wohl am besten fahre. Ist wohl eine etwas schlechtere CPU. Heute Abend kann ich mal nen hwinfo screen psten damit ihr euch mal die restlichen Spannungen anschaut ob die soweit ok sind.
 
es gibt schlechtere, im OCN brauch einer für seinen 6800k - einen 6-kerner wohlgemerkt - bei 4.2ghz schon 1.377v um realbench 1h laufen lassen zu können :eek:

über 1.3v würde ich pers 24/7 noch nicht gehen und nahezu 1.4v gehen schon mal gar nicht
finde ein stabiles 4.2ghz setting mit für dich zufriedenstellendem speicher takt und gut

ich hab gestern noch 1T am speicher 200% HCI hingekommen, endstation ist dann noch das ausloten des caches (je nachdem wie gut bzw schlecht das mit vcache skaliert)
liebäugle auch schon mit 32GB 3600/C16 riegeln, aber das versuche ich mir noch zu verkneifen
 
Zuletzt bearbeitet:
Mich würde mal interessieren was ein 45er HW-E Single Core im R15 drückt, wenn wer so nett ist und mal laufen lassen würde

Kein perfekter Vergleich da der Cache auf 3.0 GHz und der RAM auf 2666 MHz läuft und Cinebench beides berücksichtigt:
Singlecore R15: 176 Punkte
 
Ja das stimmt. Nur ich dache ich könnte wenigstens die 4,3 erreichen. Aber die 100 MHz sind mir dann auch nicht mehr so wichtig. Was ich mich noch frage: viele nutzen vier Speicherriegel. Optisch finde ich 8 cooler! Haben vollbestückte Rambänke Einfluss auf die übertaktbarkeit?
 
ja, haben sie! zumindest unter HW-E war eine vollbestückung deutlich empfindlicher. BW-E wird liebe zu 8-riegeln nachgesagt, hab da noch keine erfahrung.
 
Was macht ihr für ein Geschiss um die Spannungen?
Sa 1,25V, Cache 1,3V sind kein Problem, die werden eh dynamisch geregelt und liegen nicht dauerhaft an.
Mein 6800K braucht für 4,3 GHz auch 1,38V, wird dabei in 2 Std Realbench maximal 80° warm. So what ?
Mag sein, dass er dadurch nur 15 statt 20 Jahre lebt, aber das werde ich nie erfahren, solange habe ich den nicht :).
Ein Grund die Vcore nicht so hoch zu ziehen, ist halt der unverhältnismässig ansteigende Stromverbrauch.

Was glaubt Ihr wieviele die implementierten OC Profile nutzen ? Klar sind die Spannungen zu hoch, aber die Cpus sterben dadurch nicht reihenweise.
Bei den Amis geht man viel entspannter mit den Spannungen um, als hier. Da werden Werte gefahren, bei denen sich hier keiner mehr trauen würde den Einschaltknopf zu betätigen.

Nicht falsch verstehen, für 24/7 sind 4,2 GHz/1,29 V natürlich effizienter und sinnvoller als 4,3GHz /1,38V.
 
es geht (mir) nicht ums killen der cpu, eine cpu stirbt nicht so schnell, mir gehts um degradation und die kommt schnell! sowohl der 3930k als auch mein 5960x liefen zuletzt nicht mehr so, wie sie es noch zu beginn getan haben. beide cpu´s habe ich irgendwann mit füßen getreten und für dämliche 3dmarks mit spannung gequält.

stock lief mein 6950x mit

1.08v core
0.84v sa

wenn man da 24/7

1.38v core
1.25v sa

ballert, ist das eine ganz beträchtliche spanne zwischen den stock voltages.

mal davon ab, dass es nicht die spannung ist, die schlecht für die CPUs sind, sondern die current die durch den chip fließen bei last, weshalb ich von stundenlangen und brennenden stresstests abstand halte so gut ich kann. der strom ist mit hohen spannungen höher und das will ich pers. ebenfalls so gut es geht vermeiden damit das dämliche 1700€ geschoss evtl im september 2017 die 4.3ghz immer noch mit 1.26v durch RB schafft.

könnte den 6950x schon längst mir 4.5ghz oder mehr durch timespy schicken und dank ohnehin schon sehr guten gpu scores noch ein paar plätze gut machen. diesmal nicht, diesmal tue ich meiner cpu das nicht an.

hinzu kommt, dass ich mir für den preis des 6950x bis september 2017 4x 6800k kaufen könnte, quasi alle 3 monate einen neuen, soll heißen, bei einem 6800k hätte ich auch weniger skrupel
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh