[Sammelthread] F@H Quatschthre(a)d

Dennis50300

Banned
Thread Starter
Mitglied seit
11.03.2012
Beiträge
3.701
Ort
Braunschweig
Ich Falte auch dann und wann mal, als ich es regelmäßig gemacht habe so 1 bis 2 Aufgaben die Woche mal.
Also gestartet und denn auf "finish" gestellt
Meine voll durchoptimierte Kiste bei last zieht so 280 watt
2700x,4ghz,nb SoC 0,84v, llc6 1,1750v
Rtx 2060 msi ventus xs oc, bissle curve Editor und ram auf +500 (100mhz im maximum weniger als normal dafür dann 0,8/9v oder so
32gb 3000er lpx@2800 geschärfte Settings dank Dram Calc (1,22v anstelle 1,35)



IMG_20220705_145722.jpg
IMG_20220705_145735.jpg
Gruss Dennis
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Dennis50300: sehr schön, jeder Beitrag hilft :bigok:
Als kleiner Tipp noch: mir wurde geraten die CPU nicht mit falten zu lassen, da sie dann die GPU ausbremst


Den Stromverbrauch wollte ich auch mal messen, aber aktuell läuft er durchweg.
Wenn ich's nicht vergesse kann ich ihn ja am WE mal an die FRITZ-Steckdose hängen, die protokolliert das auch ganz hübsch :p

Die Sache mit dem GPU BIOS hab ich immernoch im Hinterkopf, so richtig gefällt es mir noch nicht, aber leistungstechnisch ist sie wieder auf gutem Niveau.
 
Meine 3x GPU Kiste aus "System" braucht gerade 640 Watt (incl. Monitor) und macht damit theoretische 15,4 Mio PPD.
Lasse aber nur so ca. 16h laufen (heute wieder geeignete Temperaturen), werden heute also voraussichtlich endlich mal wieder etwa 10 Mio Pünktchen damit schaffen.

1657030573621.jpeg

@Neo52
Wow, Dein 24h Schnitt ist ja gerade wirklich sehr schick. Hast Du die beiden 3070er im Cluster-Maschinchen etwa wieder mit auf Tour genommen?
Ich könnte mir vorstellen, dass bei so einer nicht ganz so starken GPU (wie bei Dennis) der Bremseffekt der mitfaltenden CPU gar nicht so groß ist. Ist aber nur ne Theorie :hmm:

@Dennis50300
Super, dass Du Deine Kiste ab & zu auch falten lässt!
Wie viel PPD schafft die 2060 denn bei dem Alzheimer 18202 Projekt mit UV, wie da aktuell läuft? So etwa 1,8 Mio PPD oder weniger/mehr?
 
Als kleiner Tipp noch: mir wurde geraten die CPU nicht mit falten zu lassen, da sie dann die GPU ausbremst
Gut dafür könnte man die Threads die von der CPU nutzbar sind minimieren.
Ich hab so Graka und CPU Auslastung von 95 bis 100% auf "Medium"

Gruss Denni
Beitrag automatisch zusammengeführt:

@Ickewars
"Alter Falter, Verwalter" 640 Watt :asthanos:

Ich hab keine Ahnung, aber mal echt so garkeine, wenn du auf irgendwas verweisen kannst oder kurz erklären kannst wie ich das rausfinde.

Gruss Dennis
 
Gut dafür könnte man die Threads die von der CPU nutzbar sind minimieren.
so hatte ich es auch anfangs getan.
Mal sehen, vielleicht mach ich das im Cluster auch noch, aber gerade sind mir die Umgebungstemperaturen dafür etwas zu heikel
 
so hatte ich es auch anfangs getan.
Mal sehen, vielleicht mach ich das im Cluster auch noch, aber gerade sind mir die Umgebungstemperaturen dafür etwas zu heikel
Joa das geht schon, komplett deaktivieren wäre ja eher schade, wenn du was auf deiner Kiste machen möchtest sind die Prioritäten mit der Last eh auf ganz niedrig zum einen und es stört nicht.
Was das angeht da musste ich aber auch erstmal wieder bei meiner Graka, Ghettomod mit FanControl machen, keine Ahnung was die sich bei MSI bei der Lüfterkurve gedacht haben, hatte die vorhin ausversehen kurz abgeschalten bei Volllast, von knapp 3000RPM dann auf 1600 roundabout runter... "Bildschirm Blackscreen" (bei 72°C :poop: )
Das sollte einem wohl besser nicht zu oft passieren sonst ist die Graka sicherlich "fritten" , an sich hab ich so nun aber noch Luft bis zur Obergrenze sodass die Karte schön durchgehend voll durchtaktet.
Gehäuselüfter, Grakalüfter stehen mit eigenen Kurven so auf "Dreiviertel", sprich solange mir da kein Dummstuss passiert mit manueller Lüfterkurve aus/an, reicht meine komplette Luftkühlung bei weitem aus.

83°C ist ja Temp.Limit, da bin ich schön drunter, ohne eigener Lüfterkurve bist du da auch flott sonst bei Control Zocken mit etwas Raytracing bei 79°C, Karte läuft gedrosselt, also der Kühler ist echt nicht so dolle plus die viel zu aggresive Lüfterkurve, voll auf leise getrimmt.
Wenn ne Graka richtig Dunst macht, ist in der Regel eh ne Anlage an mit Pegel oder Kopfhörer drauf...naja...

Gruss Dennis
Beitrag automatisch zusammengeführt:

Unbenannt.jpg
rödelt gerade nur die Graka, also 1 Kern für die CPU Aufgabe weg samt SMT sollte reichen, wenn man nicht im Programm was machen will, dann eben unkompliziert mit THG oder Process Lasso , fertig ist die Laube :-)
 
Zuletzt bearbeitet:
Ich hab keine Ahnung, aber mal echt so garkeine, wenn du auf irgendwas verweisen kannst oder kurz erklären kannst wie ich das rausfinde.
Ganz easy, wenn Du vorhin den unteren Screenshot ganz gezeigt hättest, hätte ich es sehen können.
Also im mittleren Bereich die GPU markieren (unten im Beispiel die eine 3070) , dann ist es ist im rechten Bereich der "Estimated PPD Wert" ... steht für "geschätzte Punkte pro Tag".

1657038409443.png
 
Als kleiner Tipp noch: mir wurde geraten die CPU nicht mit falten zu lassen, da sie dann die GPU ausbremst
Das halt ich für ein Gerücht.
Ich konnte keine Unterschiede zwischen nur-CPU, nur-GPU und beides gleichzeitig erkennen. Also die GPU-WU-Zeit ging nicht hoch, nur weil die CPU auch gerechnet hat. Auch die CPU-Last war quasi komplett Idle während die GPU rechnet.
Aber selbst wenn, lässt sich das regeln. Die CPU ist im Gegensatz zu einer GPU sehr gut durch FAH regelbar.
Du kannst dem CPU-Slot z.B. nur 22 von deinen 24 Threads geben, dann bleibt ein ganzer Kern + Thread frei um die GPU zu versorgen. Das sollte dicke reichen.
Du kannst ausserdem oder zusätzlich die CPU-Auslastung begrenzen. Setzt diese z.B. auf 80%, dann rechnen die (zugewiesenen) Kerne auch nur jeweils mit 80%.

Gerade wenn man eh so eine dicke CPU im Cluster stecken hat, sehe ich eigentlich keinen Grund, die nicht (zumindest eingeschränkt) mitrechnen zu lassen. Ausser man will genau die x-100W, die die CPU mit der jeweiligen Last dann auch noch verbrät, einsparen.

Bei mir rechnet gelegentlich die CPU im Powersave-Mode. Läuft also sowieso nur mit Powersafe-Takt (2,1Ghz), wird dabei auch nur 2-3°C wärmer als wenn sie idlet und braucht nichtmal ersichtlich mehr Strom als wenn sie komplett idlet.
Die GPU lass ich gar nicht (mehr) rechnen, weil deren Auslastung kaum steuerbar ist, die GPU viel heißer wird und dann auch hörbar.
 
Unbenannt.jpg
Ich gehe aber mal davon aus das die "Automation" das schon gut regeln wird, man könnte ansonsten natürlich mit 2 Threads weniger konfigurieren als die CPU hat die man dafür einsetzt, hoffen das des Scheduling das dann schon regelt spätestens dann.
Man könnte es natürlich auch ganz speziell regeln, die Threads mit THG/Process Lasso anpassen zum einen, zum anderen die Anzahl der Threads halt im Programm konfigurieren, dann wäre ma auf der sicheren Seite.
Bietet sich ja an Kern 1 also CPU0 dafür zu deaktivieren und Beispielsweise bei mir dann mit 8/16, also 16 Threads einfach 14 zu konfigurieren.

Gruss Dennis
Beitrag automatisch zusammengeführt:

@Ickewars
Achso ^^
2141217 zeigt er mir da aktuell an

Gruss Dennis
Beitrag automatisch zusammengeführt:

Wurde aber grad nochmal weniger, 213xxxx
Schwankt wohl etwas ?
Beitrag automatisch zusammengeführt:

Naja ist ja nicht standalone dafür meine Kiste, ich bin grad währenddessen hier mit Firefox, das wird halt was an Grafikkartenleistung brauchen und abzwacken, mal mehr mal weniger nech
 
Also ich hab mal spaßeshalber die CPU wieder hinzugefügt. Er hat sie automatisch auf 22 Kerne gesetzt. Mal schauen was passiert
 
Gerade wenn man eh so eine dicke CPU im Cluster stecken hat, sehe ich eigentlich keinen Grund, die nicht (zumindest eingeschränkt) mitrechnen zu lassen. Ausser man will genau die x-100W, die die CPU mit der jeweiligen Last dann auch noch verbrät, einsparen.
Genau das ist für mich der Hauptgrund sie nicht zu nutzen: die CPU ist hinsichtlich Stromverbrauch einfach zu ineffizient. Da kann ich ja fast ne 3070er mit UV für laufen lassen.
Bei @Neo52 kamen wir auf den Ansatz, weil die 3080er in seinem Lappi im Verhältnis zu wenig PPD machte. Nachdem die CPU nicht mehr mitlief, hatte die mobile 3080er bessere Werte. Und gerade in nem Lappi ist die thermische Drossel, wenn beide laufen, evtl. dann doch auch schon ein mögliches Problemchen, oder?

Bei mir rechnet gelegentlich die CPU im Powersave-Mode. Läuft also sowieso nur mit Powersafe-Takt (2,1Ghz), wird dabei auch nur 2-3°C wärmer als wenn sie idlet und braucht nichtmal ersichtlich mehr Strom als wenn sie komplett idlet.
Das ist dann ja ne supi Konstellation - kaum mehr Stromverbrauch, aber Teil der medizinischen Weltrettung :bigok:
Die GPU lass ich gar nicht (mehr) rechnen, weil deren Auslastung kaum steuerbar ist, die GPU viel heißer wird und dann auch hörbar.
Ne GPU nicht Vollgas (also mit UV = Teilvollgas) falten zu lassen, wäre doch auch Frevel.
Klar, die Abwärme ist "unschön" (im kommenden Winter ohne Gas aber vielleicht auch supi :hmm:) ... aber mit ner Wakü & 2x Mo-Ra bleibt bei mir auch die 3fach GPU Kiste beinahe lautlos. Aber irgendwas ist eben immer :d
 
Interessant ist natürlich auch zu sehen wo nun hauptsächlich die Graka mit Undervolting auf Volldampf läuft, zieh die Kiste knapp 200 Watt aus der Buchse.
Beides zusammen ja 280, IDLE hab ich so 53~60, wenn ich nun bedenke das CPU Volllast only mit Cinebench so rund 170 Watt waren.
280 weniger 200 sind 80
Hmm..., 80 weniger 60 sind 20

Ist die Auslese im IDLE wohl garnicht so schlecht mit rund 20 Watt, Package waren glaub ich so 12~13 im IDLE, also knapp 30 Watt für 4 Gehäuselüfter, Board, BluRay Toaster, SB 1500 (Sound Blaster Z) und noch ne RIAAI Capture, 2 hdds, eine ssd und eine nvme.
Ob das hinkommt,hm... Irgendwie ist ja noch Wirkungsgrad vom netzteil mit bei, die 200 sind ja auch nicht nur Graka sondern auch etwas CPU-Last, oder soll der Wirkungsgrad vom Netzteil wirklich so krass gut sein?
20 Watt Verlust in Wärme durch das Netzteil wären wohl relativ wenig.

Der Maximale Verbrauch der bei Nvidia ja recht pingelig genau ist, ist von 160 Watt maximal durch das Undervolting so auf maximal 135 geschrumpft, unter absolut Vollast, das sieht im Gaming zum Glück deutlich besser aus im Vergleich da hab ich anstelle 160 nämlich gut 80 im Overlay wenn ich ein jüngeres Game gut konfiguriert habe halt. (SOTTR beispielsweise)

Garnich so einfach

Gruss Dennis
Beitrag automatisch zusammengeführt:

Genau das ist für mich der Hauptgrund sie nicht zu nutzen: die CPU ist hinsichtlich Stromverbrauch einfach zu ineffizient. Da kann ich ja fast ne 3070er mit UV für laufen lassen.
Bei @Neo52 kamen wir auf den Ansatz, weil die 3080er in seinem Lappi im Verhältnis zu wenig PPD machte. Nachdem die CPU nicht mehr mitlief, hatte die mobile 3080er bessere Werte. Und gerade in nem Lappi ist die thermische Drossel, wenn beide laufen, evtl. dann doch auch schon ein mögliches Problemchen, oder?
ja gut Kühlung in Notebooks ist ja meistens so das die eher etwas Unterdimensioniert ist, wehe die haben auch nur etwas zuviel Staub gefressen und oder Wärmeleitpaste ist nicht mehr sooo gut, da wird dann ja gedrosselt des Todes :d
Beitrag automatisch zusammengeführt:

Klar, die Abwärme ist "unschön" (im kommenden Winter ohne Gas aber vielleicht auch supi :hmm:)
Das Stromproblem an sich wird aber wohl auch noch davor stehen :d

Gruss Dennis
 
ich vermute fast eher dass die iGPU eher das Problem waren als die eigentlichen CPU-Kerne 🤔.

Kühlung ist bei heutigen Notebooks immer das Problem 🤦‍♂️
 
Achso ^^
2141217 zeigt er mir da aktuell an
Über 2 Mio PPD ist mit UV bei der Karte richtig prima 👍
Ja, schwankt fortlaufend etwas - nicht mal wegen Browsernutzung, schwankt einfach auch dann, wenn kein Browser zeitgleich offen ist.
 
Genau das ist für mich der Hauptgrund sie nicht zu nutzen: die CPU ist hinsichtlich Stromverbrauch einfach zu ineffizient. Da kann ich ja fast ne 3070er mit UV für laufen lassen.
Ja, ineffizenter ist sie natürlich, aber du hast sie eh und sie tut nix. Dann setz sie in den Powersafe und lass sie trotzdem rechnen. Ein paar Pünktchen mehr sinds immernoch. ;)

Bei @Neo52 kamen wir auf den Ansatz, weil die 3080er in seinem Lappi im Verhältnis zu wenig PPD machte. Nachdem die CPU nicht mehr mitlief, hatte die mobile 3080er bessere Werte. Und gerade in nem Lappi ist die thermische Drossel, wenn beide laufen, evtl. dann doch auch schon ein mögliches Problemchen, oder?
Laptop? Ich dachte es geht um das Cluster oben?
Und die macht zu wenig PPD im Vergleich zu was? Ne 3080 in nem Laptop ist ne kastrierte Mobilversion. Soviel wie eine Desktop-3080 schafft die eh nicht.
Und ja, in den meisten Laptops kannst du davon ausgehen, das selbst die 3080 alleine schon Thermodrosselt. :d

Klar, die Abwärme ist "unschön" (im kommenden Winter ohne Gas aber vielleicht auch supi :hmm:) ... :d
Jap, das ist der Plan. Wenns Gas leer ist, wird mit FAH geheizt. :ROFLMAO:
 
Dann setz sie in den Powersafe und lass sie trotzdem rechnen.
Ok, schau mir mal an wie das geht. Hab ich noch nie genutzt/gemacht. Mache ich das wahrscheinlixh im Bios, oder? Und wenn ich sie dann wieder normal ungedrosselt brauche auch wieder? Dann wär das aber nix für meinen Alltagsbetrieb ...
Laptop? Ich dachte es geht um das Cluster oben?
Beim Lappi kam das Thema Drosselung auf ... die geringere CPU-Effizienz ganz allgemein, aber auch das Cluster betreffend.
Und die macht zu wenig PPD im Vergleich zu was?
Zur durchschnittlichen Angabe für die mobile 3080er auf folding.lar.systems ... kennste doch :bigok:
Jap, das ist der Plan. Wenns Gas leer ist, wird mit FAH geheizt. :ROFLMAO:
Funktioniert bei mir seit 2 Wintern wirklich prima. Mit beiden Kisten bekomme ich ca. 35qm Büroräume und den OG-Flur komfortabel warm 😅
 
Ok, schau mir mal an wie das geht. Hab ich noch nie genutzt/gemacht. Mache ich das wahrscheinlixh im Bios, oder? Und wenn ich sie dann wieder normal ungedrosselt brauche auch wieder? Dann wär das aber nix für meinen Alltagsbetrieb ...
Ne, nix Bios. Bin mir auswendig nichtmehr sicher wie das unter Windows geht. Ausm Kopf: Mit Ryzen Master sollte man das on-the-fly umstellen können. Weiß nicht ob das Windows-Energie-Profil das auch tut, wenn man es auf Stromsparmodus setzt. Bei meinem Firmenlaptop tuts das Energiesparprofil. Auf Low gesetzt, taktet die CPU dann nichtmehr hoch. Da geht das ganz einfach über das Akkusymbol im Systemtray. Das hat man aber am Desktop glaub ich nicht, zumindest nicht per Default.

Unter Linux tut das der CPU-Gouverneur (also das was unter Windows die Energieprofile sind). Ich stell das mit CoreCtrl um (ist so ein bisschen wie AMD Adrenalin unter Windows, ist eigentlich für die GPU, kann aber auch ein bisschen CPU-Zeug). Mach eigentlich immer Powersave, wenn ich eh nix besonderes laufen habe. Braucht halt noch ein paar Watt weniger als Ondemand + Idle. Wenn ich dann was zocken will, fix auf Ondemand umgestellt und danach wieder zurück. :d

Ich benutz ja auch nicht dieses antiquierte FAHControl, sondern die FAHClient-CLI oder direkt in die config.xml geschrieben. :ROFLMAO: So kann man das dann als Nebeneffekt auch gleich schön automatisieren, statt in irgendeiner GUI rumzuklicken. ;)

Funktioniert bei mir seit 2 Wintern wirklich prima. Mit beiden Kisten bekomme ich ca. 35qm Büroräume und den OG-Flur komfortabel warm 😅
Jup, ich weiß. Hab temperaturgesteuerte Heizungsventile und es macht sich im Winter durchaus bemerkbar, wenn der PC läuft und auch was rechnet (also wenn ich Zocke). Je nach Spiel gehen dann da halt bis zu 450W durch.
 
Um den Cluster-Thread nicht zu themenfern ausarten zu lassen nur schon mal ein kurzes: Danke für den Input :bigok:
Kein Problem, und ich denke das ist ja auch für Neo interessant, deswegen hab ich den Linux-Teil erwähnt.... seins läuft ja auf Linux, wenn ich das richtig im Kopf habe... oder war das weizenleiche? ... also nicht so wirklich derailed. ;)
 
weizenleiche = PCGH Falt Linux, aber Neo52 hatte auch schon mal kurz darüber nachgedacht 😁
 
weizenleiche = PCGH Falt Linux, aber Neo52 hatte auch schon mal kurz darüber nachgedacht 😁
Na dann los, es kann damit nur besser werden. Wie du ja selbst schonmal angemerkt hast ;)

Wenns sowieso ein dediziertes System für FAH ist, gibts ja nichtmal Kollateralschaden, falls man Desktop-mäßig nicht damit zurecht käme. Ich stehe gerne beratend zur Seite, hab das Thema auf meinem Pi und Desktop jetzt auch schon weitgehend durchgearbeitet. :d

Was ich allerdings nicht weiß ist, wie das mit Undervolting der GPU unter Linux funktioniert. Da KANN es sein, das das nicht, oder nur eingeschränkt geht.
 
Zuletzt bearbeitet:
Über 2 Mio PPD ist mit UV bei der Karte richtig prima 👍
Ja, schwankt fortlaufend etwas - nicht mal wegen Browsernutzung, schwankt einfach auch dann, wenn kein Browser zeitgleich offen ist.
Na denn, is die Karte wohl doch besser als gedacht.

Gruss Dennis
 
da es sich hier alles ums Falten dreht finde ich das alles interessant und auch nicht off-topic.
Da einige solche Dinge schon länger praktizieren oder es sogar beruflich ausüben kann ja vielleicht auch der eine oder andere noch etwas dazu lernen (ich, zum Beispiel :hust: ). Ich falte erst seit Februar und bin damit ja noch Rookie 👶

Linux ist für mich tatsächlich seit 20 Jahren kein wirkliches Thema, da ich beruflich einiges von Windoof benötige, aber beim Cluster könnte man es sich sogar überlegen, schon aufgrund der Windoof-Lizenz-Kosten. Aktuell läuft Win10Pro drauf
 
Was ich allerdings nicht weiß ist, wie das mit Undervolting der GPU unter Linux funktioniert. Da KANN es sein, das das nicht, oder nur eingeschränkt geht.
"Greenwithenvy" arbeitet mit meiner RTX 2060 beispielsweise schonmal garnicht, auch nachdem ich die "Coolbits" da eingesetzt hatte.

Gruss Dennis
 
Zuletzt bearbeitet:
Was ich allerdings nicht weiß ist, wie das mit Undervolting der GPU unter Linux funktioniert. Da KANN es sein, das das nicht, oder nur eingeschränkt geht.
@weizenleiche hat bei sich letzte Woche das PCGH Faltimage installiert. UV funktioniert definitiv nicht - hatten wir beide vorher nochmal ausgiebig zu recherchiert.
Allerdings hat er das Powerlimit auf glaub 75% (?) setzen können, was den Stromverbrauch wohl auch ähnlich erträglich macht.
Wobei noch nicht klar ist, wie es sich auf die PPD auswirkt, da er nach dem Systemwechsel erst wieder die 10 initialen WUs für die Bonuspunkte braucht, um vergleichen zu können.

Na dann los, es kann damit nur besser werden. Wie du ja selbst schonmal angemerkt hast ;)
Nachdem mir das Thema schon gut ein Jahr im Kopf rumspukt, wird es nun immer greifbarer :d
Das 3x GPU System nutze ich nur zum falten - da möchte ich es auf jeden Fall angehen.
Aber jetzt erstmal abwarten was bei dem Powerlimit Testlauf raus kommt, dann Urlaub, danach wie immer Nachurlaubs-Arbeitschaos und dann mal schauen :hmm:
Werde es aber auf jeden Fall noch gerne vor Herbst angehen wollen, da dann die Falt- & Heizsaison wieder richtig losgeht :d

Klar, Dein Angebot zur Hilfe und psychologischer Betreuung (ob Du willst oder nicht ;)) nehme ich als absoluter Linux Newbie natürlich dann gerne an :bigok:
 
Die 10 WUs hab ich aber mittlerweile, ich glaube aber die Bonuspunkte noch nicht. Mal sehen ob die heute kommen.

Das mit Linux bekommen wir schon hin. Interessant wäre aber der Aufbau der aktuellen LTS Version von Ubuntu. Vielleicht klemme ich mich mal hinter.
 
Oh, Ubuntu wäre als Basis natürlich ganz supi für mich.
Hatte gestern dazu recherchiert - meine wichtigste Crawler-Software läuft auch unter Ubuntu. Müsste ich auf der großen Kiste zwar nicht zwingend nutzen, wäre aber als Fallback ganz nice to have.
 
Naja, die "PCGH Version" ist auch Ubuntu, allerdings 18.04 LTS. für die gibts nur noch bis April 2023 Updates.
Daher wäre es sinnvoll, auf 22.04 LTS zu upgraden, das wird dann wieder 5 Jahre mit Updates gefüttert.
 
Na siehste mal, da hat meine fachliche Linux-Überqualifikation wieder zugeschlagen. Wieder was gelernt :hust:
 
Ganz easy, wenn Du vorhin den unteren Screenshot ganz gezeigt hättest, hätte ich es sehen können.
Also im mittleren Bereich die GPU markieren (unten im Beispiel die eine 3070) , dann ist es ist im rechten Bereich der "Estimated PPD Wert" ... steht für "geschätzte Punkte pro Tag".

Anhang anzeigen 773897
Jetz raff ich das erst, wie zur Hölle schafft es meine 2060 obwohl ich der ja eigentlich sogar etwas Leistung klaue mit dem Curve Editor mehr Punkte pro Tag zu erreichen o_O
Die sollte ja normalerweise im Vergleich kein Land sehen zu einer 3070

Gruss Dennis
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh