Folding@Home - Hardwareluxx Team

@snoopyx
Ich meine im offiziellen FoldingForum gelsesen zu haben, dass da etwas an der Registry auf dem "Host-PC" verändert wird.
Sowas wäre aber ein no-go für mich.
Das Folding sollte spurenlos vonstatten gehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hab nun endlich nach 5 wochen die 4850 ati radon zurück erhalten
das war von der firma versuch nummer 4 mir eine funkzionirende karte zu shicken

jetzt falte ich also mit 2 4850 ati karten

(Oo meine stromrechnung ^^)
 
Folde zZ mit dem FahCore_14 auf meiner GTX ... hab grade vergessen den Clienten auszuschalten, als ich Warhammer gezockt hab. Hab allerdings beim zocken nichts davon gemerkt, erst danach gesehen, dass das folden noch von statten geht. Klar ist die leistung fürs folden eingebrochen, aber ist schön zu wissen, dass mans nebenbei laufen lassen kann ohne mit einbußen wie mein FahCore_11 oder den CPU-Cores rechnen zu müssen.
 
Ich rechne jetzt auch bei euch mit.

Folde mit meiner 4870 1gb wann immer mein Rechner an ist und ich nicht zocke oder die Graka für was anderes brauche.
 
Folde zZ mit dem FahCore_14 auf meiner GTX ... hab grade vergessen den Clienten auszuschalten, als ich Warhammer gezockt hab. Hab allerdings beim zocken nichts davon gemerkt, erst danach gesehen, dass das folden noch von statten geht. Klar ist die leistung fürs folden eingebrochen, aber ist schön zu wissen, dass mans nebenbei laufen lassen kann ohne mit einbußen wie mein FahCore_11 oder den CPU-Cores rechnen zu müssen.
Das kommt aufs Spiel an. Bei Grid z. B. schalte ich den GPU-Client aus, da es sonst ab und zu zuckelt ... und wenn das bei Grid an der falschen Stelle kommt is das ganze Rennen hin.. ;)
CPU-Client hingegen kann ich laufen lassen...
 
kann mir jemand nen tip geben ?

hab die msi ati 4850 mit nur minimalen problehmen am laufen und am falten

nun habe ich eine powercolor im pc2 und da kann mann warten bis die gpu clienten
abstürtzen

ich habe den normalen und den consolen clieneten getestet
der consolen geht sofort aus und beim normalen clienten geht vpu recover andauern an
dh bild ist weg und nach nen paar sec komt dann die frage ob mann senden will

treiber hatte ich bis jetzt den 9.2 , 9.3 und 9.4 probiert

hat wer ne idee obs vileicht mit einem älteren besser klapt ?

os ist win xp sp 3 mit actuellen updates und .NET Framework 3.5 sp1


ich hoffe ich bekomm das einigermassen stabil ans laufen
 
70.556 PPD pro Desktop PC

Gerade im Netz gefunden: Ein Desktop System - 70.556 PPD... (News bei ixbt.com: eng/ de bzw. Original Forumpost in x-memory.ru hier: eng - de)
Das wärs doch mal.. :drool:
  • 4x Point Of View GeForce GTX 295 @ 637-1577-999-100 (core-shader-mem-lüfter%)
  • 1x Intel CORE i7 940 @ 3.5 Ghz
  • Power Supply Enermax ERV1250EGT
  • Power Supply Thermaltake W0157RE ToughPower 450W
  • 3x A-Data AD31600G002GU3K Gaming Series 2GB
  • Case Antec Skeleton, ATX, open air case, 250mm +92 mm fans
 
Aber ja auch speziell fürs folden gebaut. "4x Point Of View GeForce GTX 295" - laufen ja niemals im SLI ... als im Prinzip nicht wirklich ein "Desktop System"
 
Servus Leute,

gibt es einen Trick wie bei der GTX285 oder ähnliche das Spulenfiepen während dem Folding verhindert werden kann? Das ist schon sehr nervig!

MFG ritter-sebo
 
Bei mir trat in den letzten Tagen ein absolutes worst-case-scenario ein. Habe beim Wakü-Umbau meine Grafikkarte geschrotet, keine Ahnung was passiert ist, aber die Grafikfehler lassen sich auch durch die Backofen Methode nicht wegbekommen, fah@gpu fängt erst gar nicht mit dem Folden an.

Da ich momentan meinen Sommerurlaub plane, ist erstmal kein Geld für eine neue Grafikkarte drin, werde aber ab und an nochmal per SMP Client folden.
 
ritter-sebo, ich kann dir leider vermutlich nicht weiterhelfen, aber wenn du schon dabei bist: ^^So einen Wunder-Trick such ich für meine 4870 auch. ;)
Bei meiner Graka hab ich jedenfalls einfach mal mit den Taktraten gespielt: Bei Standardtakt trat das Fiepen am häufigsten auf. Bei sehr hohem Takt wird es nur lauter (und der Ton wird höher). Bei Untertaktung - blöd natürlich fürs Folden - verschwindet es jedoch völlig. Wenn du Glück hast - vielleicht findest du ja einen Takt, bei dem sie nicht fiept und der trotzdem schnell genug fürs Folden ist (best-case wär natürlich eine leichte Übertaktung ;)).
Wenn ich mich recht erinnere, hab ich beim Googlen nach Antifiepmitteln etwas von Fixierung der Spule gelesen. :bigok: Weiß aber nicht, ob das umsetzbar ist. Ansonsten hab ich nur von warten und hoffen, dass es weggeht gelesen. ><
Hörst du die Spule auch bei geschlossenem Case raus? Bei mir ist es dann nämlich nicht mehr wahrnehmbar, bzw. man gewöhnt sich dran.

Mein Beileid, BeamWalker..:( Und du weißt echt nicht, wie das passiert ist?
 
mal schauen ob andere Taktraten helfen, werd's testen... thx für den Tipp
nö beim Zocken bekommt man nix mit, da sind die Frameraten zu niedrig nur bei Games im Menü wenn kein VSync geht oder beim Ladebildschirm von 3DMark06 ist es schon krass, sonst sie sie schön ruhig...

MFG ritter-sebo
 
So ich fang dann auch mal mit zu machen.
 
Wenn ich mich recht erinnere, hab ich beim Googlen nach Antifiepmitteln etwas von Fixierung der Spule gelesen. :bigok: Weiß aber nicht, ob das umsetzbar ist.
Hmm, also ich kenn das von alten Netzteilen. Da half es einen oder zwei Klötze außen anzulegen und diese kräftig mit Klebeband an das Netzteil zu pressen. Das hatte wunderbar funktioniert.
Ich hatte den physikalischen Hintergrund damals nicht hinterfragt, könnte mir jetzt so spontan aber denken, dass das Fiepen durch kurzfrequente Mikro-Vibrationen entstehen die dann durch entsprechend starken Druck nicht mehr möglich sind (man musste schon recht stark drücken).

Vielleicht war dein Google-Fund vom Prinzip her das Gleiche. Ich stelle es mir jetzt gerade bei Grakas aber recht kompliziert vor an die Spulen überhaupt ranzukommen, geschweige denn dort noch irgendeine Art der Fixierung anzubringen..
 
wenn mann sich überlegt was die gpu alles kann
dan frag ich mich langsam wann es ein OS gibt das generell die
gpu im 2d modus als zusatz cpu nutzt

also ohne das jedes einzelne programm extra programteile braucht um das zu nutzen
aleine wenn mann mal dran denkt wie schnell mann videos mit der rechenpower
der gpu umrechnen kann löhnt sich das ja eigentlich schon

alles einzelnd an die gpu anzupassen damits läuft ist doch eigentlich zu aufwendig oder ?
ein OS das direkt per treiber die gpu dazunimt wäre doch ein risiger vorteil denke ich
 
So ich fang dann auch mal mit zu machen.

lol lustiger satzbau, aber :bigok:

Ich hatte den physikalischen Hintergrund damals nicht hinterfragt
mh ... das sind doch einfach Schwingungen und wenn die Spule mit der Eigenfrequenz schwingt, dann ist die amplitude gleich doppelt so stark, schwingt also entsprechend stärker^^

wann es ein OS gibt das generell die
gpu im 2d modus als zusatz cpu nutzt
Naja, die Programme müssen speziell angepasst sein. Das problem liegt glaub ich auch in der Parallelisierung: Der Vorteil bei den Grafikkarten ist nämlich, dass sie aus sehr vielen Prozessoren aufgebaut sind und dementsprechend viele Prozesse gleichzeitig bearbeiten können. Eine einzelne Recheneinheit in der Grafikkarte ist nicht stark, nur zusammen ergeben sie diesen grandiosen Vorteil gegenüber CPUs (z.B. bei Folding@Home).
Programme müssten für die Grafikkarte so angepasst sein, dass einzelne Aufgaben an mehrere GPU Einheiten gleichzeitig verteilt werden können: Wenn z.B. das Programm nur fordert, dass jede "Einheit" zu einer "Zahl eins drauf zählen muss", dann wär die Parallelisierung einfach: Jede Einheit addiert unabhängig von den anderen eins drauf, so lang das halt gemacht werden soll. Wenn die Aufgabe allerdings ist, zuerst diese Rechnung anzustellen, mit dem Ergebnis dann eine andere Rechnung zu tätigen und schließlich das ganze durch zwei zu teilen, dann wird das zu einem Problem, weil die erste Recheneinheit der Grafikkarte erst mal ein Ergebnis fertigstellen muss, bevor eine (andere) Recheneinheit der Graka dann weiterrechnet - bei dieser Aufgabenstellung wäre eine Verteilung auf mehrere Recheneinheiten also unmöglich, weil man zuerst das Ergebnis der einen Aufgabe braucht, bevor man weiter machen kann und man diese Einzelaufgabe nicht aufteilen kann.

Bei Folding@Home funktioniert das ja scheinbar ganz gut mit der Parallelisierung: Ich denke mal, man berechnet die elektrischen Anziehungskräfte verschiedener Atome zueinander, um herauszufinden, wie sie sich falten werden. Man kann also schon mal parallel die einen Kräfte hier und die anderen Kräfte da berechnen (eine sehr naive, vereinfachende Vorstellung vermutlich :) ), die Parallelisierung ist möglich.
Dagegen können andere Aufgabenstellungen einfach so sein, dass zuerst ein Ergebnis gefordert ist, mit dem man weiter rechnen könnte, bevor man den nächsten Schritt machen kann. Die Grafikkarte kann also nicht ihre volle Leistung ausspielen.

Da helfen wohl "geniale Treiber" nichts, wenn einfach die Aufgabenstellung der jeweiligen Programme eine Parallelisierung unmöglich macht...

PS: Am Rausch ist nicht der Wein schuld, sondern der Trinker (Konfuzius)...
 
wenn mann sich überlegt was die gpu alles kann
dan frag ich mich langsam wann es ein OS gibt das generell die
gpu im 2d modus als zusatz cpu nutzt [..]
Wie Cyril schon erklärt, gibt es da prinzipielle Unterschiede.

Eine GPU wird niemals eine CPU sein bzw. sein können, denn eine CPU ist eine GPPU (General Purpose Processing Unit ... äääh ich glaub zumindest dass das so hieß) und die GPU wie Cyril schon im Detail ausgeführt genau das nicht, sondern diese ist spezialisiert auf die Parallelisierung immer gleichartiger Tasks => die CPU bekommt aber ständig unterschiedlichen Kram zu berechnen.

Aber du hast recht, dass die GPU für Videoprocessing generell gut geeignet ist, denn da hat sie ja wieder ihren immer gleichartigen Einheitsbrei zum Durchkauen. Ich glaube das geht auch irgendwie...
 
wann es ein OS gibt das generell die
gpu im 2d modus als zusatz cpu nutzt

ich meinte ja auch das si dann wenn es sinnvoll ist da zugenommen wird

anstelle zu versuchen jedes programm einzeln anzupassen um die gpu mitzunutzen
dachte ich das es sinvoll wäre das os die auswahl zu überlassen was nur mit cpu
und was mit cpu und gpu gerechnet werden soll

möglich muss das ja sein ansonsten würden alle superechner zimlich nutzlos sein
da sind es ja spezielle os die die aufgaben auf die prozesoren verteilen und
um es paaralel abzuarbeiten

einen kleinen teil dieser aufteilung ihast du ja im windows schon realisiert den
ohne würden die spiele ja nicht laufen
den auch bei den spielen muss die aufgabe von der cpu auf die prozesoren der gpu verteilt werden oder ?
 
Zuletzt bearbeitet:
ich meinte ja auch das si dann wenn es sinnvoll ist da zugenommen wird

anstelle zu versuchen jedes programm einzeln anzupassen um die gpu mitzunutzen
dachte ich das es sinvoll wäre das os die auswahl zu überlassen was nur mit cpu
und was mit cpu und gpu gerechnet werden soll
Alter Schwede, dein Deutsch ist ganz schön schwer zu lesen.

möglich muss das ja sein ansonsten würden alle superechner zimlich nutzlos sein
da sind es ja spezielle os die die aufgaben auf die prozesoren verteilen und
um es paaralel abzuarbeiten
Bei den Supercomputern werden die Programme speziell für die Supercomputer-Struktur (für das System) geschrieben. Das muss also in den Programmen realisiert werden. Ich weiß jetzt nicht, wie so ein System genau aufgebaut ist (wo genau welche Schnittstellen verwendet werden und wie sie die Aufgaben auf die einzelnen Rechner verteilen). Aber das ändert nichts daran, dass die Programme speziell angepasst sein müssen (s.o.).


einen kleinen teil dieser aufteilung ihast du ja im windows schon realisiert den
ohne würden die spiele ja nicht laufen
den auch bei den spielen muss die aufgabe von der cpu auf die prozesoren der gpu verteilt werden oder ?
Keine Ahnung, wie genau das funktioniert, ich denke mal das Spiel, also die Spiele-Engine, kommuniziert mit der Schnittstelle DirectX und diese gibt einen Teil der Aufgaben an die Grafikkarte und einen Teil an die CPU weiter (je nach dem, was die Engine ihr "gesagt" hat). Das Betriebssystem selbst ist dann nur wieder die Schnittstelle zwischen DirectX und Hardware (stell ich mir so vor). D.h., das OS muss nicht die Aufgaben verteilen, sondern nur weiterleiten. Der eigentlich "intelligente Teil", der die Aufgaben verteilt, ist wohl die Spiele Engine. Und diese ist ein speziell auf Parallelisierung angepasstes Programm. Einerseits für die Grafikkarten-Rechen-Einheiten und andererseits für die CPU (je nach Engine gibt's Anpassungen für ein bis ~vier CPU Kerne).
 
Gerade im Netz gefunden: Ein Desktop System - 70.556 PPD... (News bei ixbt.com: eng/ de bzw. Original Forumpost in x-memory.ru hier: eng - de)
Das wärs doch mal.. :drool:
  • 4x Point Of View GeForce GTX 295 @ 637-1577-999-100 (core-shader-mem-lüfter%)
  • 1x Intel CORE i7 940 @ 3.5 Ghz
  • Power Supply Enermax ERV1250EGT
  • Power Supply Thermaltake W0157RE ToughPower 450W
  • 3x A-Data AD31600G002GU3K Gaming Series 2GB
  • Case Antec Skeleton, ATX, open air case, 250mm +92 mm fans





http://preisvergleich.hardwareluxx.de/deutschland/a394222.html 4 x 442 Euro
http://preisvergleich.hardwareluxx.de/deutschland/a366184.html 1 x 494 Euro
http://preisvergleich.hardwareluxx.de/deutschland/a382767.html 1 x 258 Euro
http://preisvergleich.hardwareluxx.de/deutschland/a203818.html 1 x 94 Euro (Netzteil nicht gefunden)
http://preisvergleich.hardwareluxx.de/deutschland/a215158.html 3 x 23 Euro (Ram nicht gefunden)
http://preisvergleich.hardwareluxx.de/deutschland/a364151.html 1 x 100 Euro
http://geizhals.at/deutschland/a383922.html 1 x 238 euro

Gesammt kosten: 3021 Euro
Stromverbrauch, geschätzt: 1300 WATT
Kosten im Monat bei 24/7: 188 Euro

Bleibt nur noch eine Frage offen: WER KAUFT MIR DAS SYSTEM ? :haha:
 
Zuletzt bearbeitet:
Also 200€ Stromkosten im Monat ist echt übel, des System ist ja vom Preis noch ok für Freaks finde ich...
 
Jo, find auch lediglich die ein mal Kosten halten sich einigermaßen im Rahmen.
Zu king1401 nochmal:
Du willst, dass das OS die Aufgabenverteilung übernimmt. Das Problem dabei ist: Woher soll das OS wissen können, welche der Daten, die von der Engine über DirectX ans OS gegeben wurden, sich zur parallelen Abarbeitung in vielen Recheneinheiten eignen? Denn nur die Spiele Engine allein kann wissen können, bei welchen Daten eine Abarbeitung parallel erfolgen könnte, so dass diese zeitgleich wieder zur Verfügung stehen, um mit den Rechenergebnissen weiterarbeiten zu können. Ist ein logisches Problem. Es kann sich da nichts dran ändern.
 
genau wie windows weiss das spiele daten an die grafickarte im 3d modus geschickt werden

es gibt genügend programme die für gpu compiutering angepast sind oder grade werden.
diese programme müssen diese ,wie du ja sagst völig unlösbare, aufgabe auch lösen
ausserdem ist es ja auch machbar dualcore und quadcore prozesoren aufgaben zuzuweisen

die armen leute von amd denken nun es sei ne tolle idee 12 kern server cpus rauszubringen

was für ein bldsinn ne ^^

ps.
Windows Server 2008 HPC das wäre die lösung wenn mann es für die gpu prozesoren umschreiben könte
 
Zuletzt bearbeitet:
Wahnsinn, endlich hab ich meine Kühler/Lüfterkonfiguration fertig - Was tut man nicht alles fürs Folden :fresse::

Das Problem war am Anfang die Graka Core Temp des Standardkühlers. Die ging nämlich auf 90°C und so musste der Kühler ab und zu unangenehm hoch aufdrehen, weshalb ein Thermalright T-RAD² Kühler her musste. Zuerst hab ichs mit einem Noctua NF-P12 versucht. So war der Graka Core unter Folding Last schon mal auf ~60°C runtergekühlt und der PC war fast so leise wie zu X800@passiv Zeiten. Jedoch machten die SpaWas mir zu schaffen: Bei Standardtakt der Graka gingen sie sehr schnell auf 125°C+ (Dann stoppte ich den GPU-Client..). Also besorgte ich mir wie auf manchen Websites empfohlen die Enzotech BCC9, mit denen die SpaWa Hitze besser abgeführt wurde und ich den Graka Takt immerhin wieder etwas anheben konnte (Core Takt von 500 auf 600 MHz oder so).
Jedoch sieht das ganze jetzt endlich so aus:

Die SpaWas so runterzukühlen war mir nur mit dem Powerlüfter Scythe Slip Stream120 SY1225SL12H möglich (33dbA - 88.11CFM/149.6m³/h - @1600rpm). Den kann ich auch für die Performance-Lüftersektion nur empfehlen! :cool:
Einzig und allein den Scythe 800rpm Lüfter kann ich nicht über meine Zalman MFC1 Plus, sondern nur übers Mainboard steuern, da fehlt mir einfach ein Anschluss.. :heul:

---------- Beitrag hinzugefügt um 17:54 ---------- Vorheriger Beitrag war um 16:59 ----------

diese programme müssen diese ,wie du ja sagst völig unlösbare, aufgabe auch lösen
lol? ich sagte, dass das OS nicht die Aufgabenverteilung übernehmen kann, wenn es die Programme nicht tun.

ausserdem ist es ja auch machbar dualcore und quadcore prozesoren aufgaben zuzuweisen
Lies dir noch mal das durch, was ich bereits alles geschrieben hab...

ps.
Windows Server 2008 HPC das wäre die lösung wenn mann es für die gpu prozesoren umschreiben könte
Warum sollte es? Auf welche Quellen/Informationen stützt du deine Aussage?
 
Holla Leutz!
Kann ja zur Zeit garnicht folden, da der PC abgebaut in der alten Wohnung auf den Umzug wartet und ich nicht @home bin. :(

@Beam
Das ist natürlich mega-shizzle!
Mein Beileid! Möge die Graka in Frieden ruhen.

@all
Das Spulenfiepen soll man durch kleine Moosgummi-Stückchen oder Heißkleber in Griff bekommen. Wenn es nicht vollverkleidete Spulen sind, dann einfach ein kleines Stück bzw. Tropfen an der Spule anbringen. Somit kann die Spule nicht mehr so in Schwingung geraten und fiepen.
 
http://de.wikipedia.org/wiki/Computercluster

dadrauf stütze ich die ausage
den die server 2008 version ist fürs clusterechnen gedacht
macht also das im netzwerk was wir mit fl@h grade mit den clienten machen

den im endefect ist ja eine grafickarte eine multicpu die eigenen speicher schon hat
fast ein eigener pc)

das mann Windows Server 2008 HPC nicht einfach mal eben so umschreiben kann
damit es auf der gpu klapt ist klar

nur tatsache ist das multi prozesor systehme nunmal schon unter win laufen
und es mich deswegen gewundert hat das mann einzelne programme umschreibt anstatt per treiber
das os dazu zu bringen die gpu mit zu nutzen

ist ja nicht so das ich erwarte das es morgen klapt
ist ja so das ich mich frage warum es nicht gemacht wird ?

bis auf das fastra und einen bastelversuch habe ich nichts in der richtung gesehen

hab auch zu meinem wunder noch nichts vom gpu rechnen unter linux gefunden (will damit nicht sagen das es das unter linux nicht gibt)
 
Alter Schwede, dein Deutsch ist ganz schön schwer zu lesen.
lol yo, mir is der getInterpretedGrammatics()-Thread abgestürzt bei dem Beitrag.. :d


Keine Ahnung, wie genau das funktioniert, ich denke mal das Spiel, also die Spiele-Engine, kommuniziert mit der Schnittstelle DirectX und diese gibt einen Teil der Aufgaben an die Grafikkarte und einen Teil an die CPU weiter (je nach dem, was die Engine ihr "gesagt" hat). Das Betriebssystem selbst ist dann nur wieder die Schnittstelle zwischen DirectX und Hardware (stell ich mir so vor). D.h., das OS muss nicht die Aufgaben verteilen, sondern nur weiterleiten. Der eigentlich "intelligente Teil", der die Aufgaben verteilt, ist wohl die Spiele Engine. Und diese ist ein speziell auf Parallelisierung angepasstes Programm. Einerseits für die Grafikkarten-Rechen-Einheiten und andererseits für die CPU (je nach Engine gibt's Anpassungen für ein bis ~vier CPU Kerne).
Ja ich glaube genau so ist das. In DirectX gibt es Funktionen die von der Spiele-Engine aufgerufen werden. Z. B. "ÜberzieheMeineTolleLandschaftsPolygonStrukturMitTextur(PointerZurTollenPolygonStruktur, PointerZurTextur)". Aus den Level-Daten aber diese Polygon-Struktur zu erstellen muss glaube ich die CPU koordinieren oder zumindest beginnen. Es gibt glaube ich Funktionen, die die Graka grobe Polygonstrukturen verfeinern lassen, aber die Interpretation der Koordinaten und das initiale Erstellen der Struktur kann die GPU glaub ned..


genau wie windows weiss das spiele daten an die grafickarte im 3d modus geschickt werden
Das weiß Windows nicht. Die Spiele-Engine ruft wie oben beschrieben bestimmte Funktionen in DX auf. Wenns die nicht gibt, dann gibts den Effekt halt nicht und dann bleibt dem Spiele-Entwickler die Wahl: Effekt weglassen, oder per Software-Rendering (macht dann die CPU) errechnen lassen.


die armen leute von amd denken nun es sei ne tolle idee 12 kern server cpus rauszubringen

was für ein bldsinn ne ^^
ne (kein Blödsinn)


Windows Server 2008 HPC das wäre die lösung wenn mann es für die gpu prozesoren umschreiben könte
Kann man nicht und wird nie gehen. Es sei denn, die GPUs bauen in Zukunft GPPU-Transistoren ein und nähern sich somit architektonisch der CPU an.


http://de.wikipedia.org/wiki/Computercluster

dadrauf stütze ich die ausage
den die server 2008 version ist fürs clusterechnen gedacht
macht also das im netzwerk was wir mit fl@h grade mit den clienten machen
Das ist richtig. Für die meisten Jobs die ein Cluster rechnen soll gibt es aber keine spezialisierte Software für GPUs. Daher müssen die CPUs wieder ran.
Man kann diese Software natürlich entwickeln. Das ist derzeit aber noch aufwändiger bzw. braucht länger als die CPUs zu nutzen.
So ein Cluster wird ein paar Stunden von dieser wissenschaftlichen Einrichtung gemietet, dann von einer anderen .. wie auch immer, abgesehen von Wetterberechnungen die man wirklich immer braucht, sind die anderen Aufgaben vergänglich und daher lohnt sich spezialisierte GPU-Software dort nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh