[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe gerade mal Grid getestet zum Vergleich mit der GX2 schon im Menü ab und zu Ruckler, und im Spiel nach ein paar Runden immer diese extremen Microruckler und in

Vorletzter Multisampling Auflösung normal spielbar + Microruckler. Jetzt mit der 280 GTX letzte Multisampling Auflösung 16XQCASS und allen Details (total flüssig) nicht ein Ruckler.

Jetzt kann ich das Spiel in vollen zügen geniessen, wer Rennspiele mag den kann ich dieses Mörder Spiel nur empfehlen.

Jepp, unterstütze ich. Bei mir genau das gleiche. LeMans Nachts war bald unspielbar. Da fehlts wohl auch am VRAM bei der GX2. Und bei mir wie üblich in 2560. So macht Grid richtig Spass.
Hinzugefügter Post:
denkt mal bitte drann wenn einer umbaut auf WAKÜ mal Bilder von beiden Seiten der Karte zu machen und event.mal die temps ohne Plastikhaube zu testen.

Sobald mein AC-Kühler ankommt. Müsste eigentlich die Woche sein.
 
Zuletzt bearbeitet:
So ich hab jetzt nochmal den Stromverbrauch vom Gesamtsystem ohne Monitor genau ermittelt.

System:

QX9650 mit OC und ohne getestet
Gigabyte P35-DS4 Rev1.1
8GB G.E.I.L BlackDragon 427MHz (5-4-4-12)
BeQuiet Straight Power 700W

Getestet mit FurMark, windowed 1280x1024, NOxAA, Stability Test, 660 sec.
4xPrime95 (FFT 448, FFTs in-place, 15min)

Code:
608W = Zotac GTX280 AMP Edition @ 715/1430/1300         /-/ QX9650 @ 4.1GHz @ 1.344V       
570W = Original GTX280 Simuliert @ 602/1204/1107        /-/ QX9650 @ 4.1GHz @ 1.344V       
506W = 8800GTX PalitXpert @ default                     /-/ QX9650 @ 4.1GHz @ 1.344V       
+
480W = Zotac GTX280 AMD Edition @ default 700/1400/1150 /-/ QX9650 @ default 3.0GHz @ 1.2V
 

Anhänge

  • 1 Systemstromverbrauch GTX280 AMP OC .jpg
    1 Systemstromverbrauch GTX280 AMP OC .jpg
    178,5 KB · Aufrufe: 71
  • 2 Systemstromverbrauch GTX280 default.jpg
    2 Systemstromverbrauch GTX280 default.jpg
    171,4 KB · Aufrufe: 58
  • 3 Systemstromverbrauch 8800GTX default.jpg
    3 Systemstromverbrauch 8800GTX default.jpg
    172 KB · Aufrufe: 53
  • 4 Systemstromverbrauch GTX280 AMP default_CPU default.jpg
    4 Systemstromverbrauch GTX280 AMP default_CPU default.jpg
    186,7 KB · Aufrufe: 60
OMG, deine CPU zieht beim OC 120 Watt mehr als default!
Womit hast du gemessen?
 
Zuletzt bearbeitet:
So ich hab jetzt nochmal den Stromverbrauch vom Gesamtsystem ohne Monitor genau ermittelt.

System:

QX9650 mit OC und ohne getestet
Gigabyte P35-DS4 Rev1.1
8GB G.E.I.L BlackDragon 427MHz (5-4-4-12)
BeQuiet Straight Power 700W

Getestet mit FurMark, windowed 1280x1024, NOxAA, Stability Test, 660 sec.
4xPrime95 (FFT 448, FFTs in-place, 15min)

Code:
608W = Zotac GTX280 AMP Edition @ 715/1430/1300         /-/ QX9650 @ 4.1GHz @ 1.344V       
570W = Original GTX280 Simuliert @ 602/1204/1107        /-/ QX9650 @ 4.1GHz @ 1.344V       
506W = 8800GTX PalitXpert @ default                     /-/ QX9650 @ 4.1GHz @ 1.344V       
+
480W = Zotac GTX280 AMD Edition @ default 700/1400/1150 /-/ QX9650 @ default 3.0GHz @ 1.2V


Ui, .. da zieht dein OC beim QX fast 130W mehr als @default :fresse:

Geht beim Shadertakt noch etwas mehr?
 
Gut zu wissen mich würde mal interessieren wieviel weniger es mit einem ~4GHZ Wolfdale wäre.
 
Ich weiß nicht ob beim Shadertakt noch mehr geht. Müsste ich mal entkoppeln und testen.

und ja der Quad zieht ganz schön viel aus der Dose, obwohl ich eine recht humane Spannung gewählt habe. Aber wenn ich dann an Leute mit Q6600 denke... Naja die dürften einiges mehr verbrauchen, da die Dinger noch auf 65nm basieren und wenn dann noch Spannungen von 1.4V hinzu kommen, ja dann gute Nacht.
nut.gif


Gemessen habe ich mit dem Teil.:

Energiemesser_EKM265.jpg
 
Ich weiß nicht ob beim Shadertakt noch mehr geht. Müsste ich mal entkoppeln und testen.

und ja der Quad zieht ganz schön viel aus der Dose, obwohl ich eine recht humane Spannung gewählt habe. Aber wenn ich dann an Leute mit Q6600 denke... Naja die dürften einiges mehr verbrauchen, da die Dinger noch auf 65nm basieren und wenn dann noch Spannungen von 1.4V hinzu kommen, ja dann gute Nacht.
nut.gif


Gemessen habe ich mit dem Teil.:


Ja, probier mal bitte noch mit dem Shader!

Jaja, kenn ich, ... Q6600@ 4GHz bei 1.488v, .. uiui ....
 
moin Berliner alles frisch im Schritt :d

bis auf die tatsache, das die gx2 mir in jeden zweiten spiel nach fünf minuten mit einem nvlddmkm error den dienst versagt und ich absolut ratlos bin, alles bestens hier :wink:
wenn ich keinen rat finde glaube ich, das die wieder rausfliegt nächste woche,,, :kotz:
 
Also bei 1540MHz Shader kommen im FurMark Grafikfehler mit 700MHz Kerntakt.

Und dann schaltete plötzlich die Karte in den 2D-Modus um. Nach aktivieren des zweiten Bildschirmes war der Modus immer noch aktiv, was sonst ja nicht geht, da sag ich nur cool.

In welches Game lässt sich der Shadertakt gut benchen? Crysis reagiert darauf überhaupt nicht, selbst bei 600MHz Shader.
 
bis auf die tatsache, das die gx2 mir in jeden zweiten spiel nach fünf minuten mit einem nvlddmkm error den dienst versagt und ich absolut ratlos bin, alles bestens hier :wink:
wenn ich keinen rat finde glaube ich, das die wieder rausfliegt nächste woche,,, :kotz:

Welcher Treiber?

Hatte ich bei den gemoddeten 174.er Betas bei der 8800GTX auch!
 
Habe gerade Furmark auch laufen lassen.

660sek 1280x1024 windowed ohne AA

Lief mit dem OC Takt Stabil und die Temperaturen sind rauf auf 88 GRAD und FAN 100%.

Geht auf wie eine Rakete das Fell Vieh.
 
@OC-Burner
Danke für die Strom-Werte. Ich musste inzwischen auch feststellen das 4,0Ghz bei QX9650 und über 700Mhz Graka (Shader-Linked) mein Netzteil überfordern :-(
So ne Kacke ... Das sind dann auch mal 500 Euro die Karte, 100 Euro der Wasserkühler und 100 Euro für ein neues Netzteil + der beknackte Totalumbau den das Netzteil mit sich bringt :-(
 
bis auf die tatsache, das die gx2 mir in jeden zweiten spiel nach fünf minuten mit einem nvlddmkm error den dienst versagt und ich absolut ratlos bin, alles bestens hier :wink:
wenn ich keinen rat finde glaube ich, das die wieder rausfliegt nächste woche,,, :kotz:

hast Du Vista?
Hinzugefügter Post:
Zitat:
Zitat von zuppi Beitrag anzeigen
denkt mal bitte drann wenn einer umbaut auf WAKÜ mal Bilder von beiden Seiten der Karte zu machen und event.mal die temps ohne Plastikhaube zu testen.
Sobald mein AC-Kühler ankommt. Müsste eigentlich die Woche sein

Das wäre super und wenn du die Zeit hast mal ohne Haube bei geschlossenem Gehäuse die Temps anschauen.
 
Zuletzt bearbeitet:
Welcher Treiber?

Hatte ich bei den gemoddeten 174.er Betas bei der 8800GTX auch!

175.16 und vista x32. ist eben nicht bei jedem spiel; assassinscreed und alle opengl spiele sowie crysis laufen ohne probs, lostplanet und company of heros sowie vantage hängen sich nach 5 minuten auf; vantage läuft dann aber beim zweiten run durch.

hab mal hier gelesen und das scheint ziemlich vermehrt bei den sli systemen aufzutreten: http://www.evga.com/forums/tm.asp?m=373761&mpage=1&key=

hoffe nv bekommt das noch hin, denn bei der 9800 und 8800gtx hatte ich diesen fehler nur bei zu hohem overclock; bei der gx2 ist es standardtakt und system@default (memtest keine ramfehler gefunden) :kotz:
 
Zuletzt bearbeitet:
Hat hier jemand Anno 1701? Würde mich mal interessieren wie das mit extremen Einstellungen und 1920 x 1200 läuft, ich muss ja noch auf meinen Rechner warten. ;(
 
Man könnte glauben NVIDIA will den Verkauf von Hochleistungsnetzteilen anschieben.
 
175.16 und vista x32. ist eben nicht bei jedem spiel; assassinscreed und alle opengl spiele sowie crysis laufen ohne probs, lostplanet und company of heros sowie vantage hängen sich nach 5 minuten auf; vantage läuft dann aber beim zweiten run durch.

hab mal hier gelesen und das scheint ziemlich vermehrt bei den sli systemen aufzutreten: http://www.evga.com/forums/tm.asp?m=373761&mpage=1&key=

hoffe nv bekommt das noch hin, denn bei der 9800 und 8800gtx hatte ich diesen fehler nur bei zu hohem overclock; bei der gx2 ist es standardtakt und system@default (memtest keine ramfehler gefunden) :kotz:

Ultimate und DreamScene inst.? Wenn ja deinst.
 
Glaubt ihr das Enermax Pro82+ 525W wird wirklich für mein System reichen? CPU (Q9450) werd ich auf 3,2 GHZ takten, zudem hab ich dann 8GB RAM drin und falls ich die Graka mit dem normalen Kühler ohne Probleme ein bisschen hochtakten kann würde ich das auch machen.

Sonst würde ich morgen gleich noch anrufen und sagen ich hätte gern ein 625W NT von Enermax. ;)
 
Der Treiber ist aber drauf und läuft,bei mir wars dann weg,diesen NV Dienst hab ich auch immer deakt.
Hinzugefügter Post:
Glaubt ihr das Enermax Pro82+ 525W wird wirklich für mein System reichen? CPU (Q9450) werd ich auf 3,2 GHZ takten, zudem hab ich dann 8GB RAM drin und falls ich die Graka mit dem normalen Kühler ohne Probleme ein bisschen hochtakten kann würde ich das auch machen.

Sonst würde ich morgen gleich noch anrufen und sagen ich hätte gern ein 625W NT von Enermax. ;)

Vor dem Enermax hätt ich Schiß bei dem Wetter,da sind die Elkos nur bis 85 Grad ausgelegt.
 
Zuletzt bearbeitet:
Vor dem Enermax hätt ich Schiß bei dem Wetter,da sind die Elkos nur bis 85 Grad ausgelegt.

Redest du jetzt vom 525w, 625w oder von beiden? Naja in meinem Zimmer habens die bisherigen NTs auch immer ausgehalten und ich sage mal das Enermax ist von der Quali her um eingies besser. :fresse: Ach ich lass das 525w mal drin, falls ich es zu knapp mit dem Strom werden würde lass ich halt das übertakten bei der GTX. ;)
 
Also bei mir reicht es habe aber auch nur nen 4GHZ Dual Core mit der Oc'ten GTX 280 und 8GB etc.

Bei einem Quad könnte man vielleicht eher zum 625w greifen aber wenn es geht dann würde ich nicht tauschen.
 
ach ich denke mal das sind dann auch alles nur scheinheilungen und da ich bis dato sowieso nicht soviel zocke und die spiele, die nicht laufen, mir eh schnuppe sind ist das alles erstmal egal; nur was wenn morgen mein neuestes lieblingsspiel nicht laufen sollte :eek:

ruf morgen mal im laden an und frage, ob ich die umtauschen kann gegen ne,,,gtx und so was mit 280 ;)
 
Zuletzt bearbeitet:
@ Zuppi:
Mach mir keine Angst. :fresse:
Das NT hat doch so gute Bewertungen gekriegt, glaub auch nicht dass ich das NT so ''fordern'' werde wenn ich bemerke das es knapp wird. Aber mal abwarten, da ich den Rechner für 1-2 Wochen zum Kollegen mitnehmen werde ist das ein guter Ausdauer Test. *g*

@ Nascher:
KK, denkst du mein CPU zieht viel mehr Strom @ 3,2 Ghz als dein C2D @ 4 Ghz?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh