Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 3)

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 3)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580


Technische Daten der GTX 580 <<<<<<<

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 530mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung


Erste Tests der Karte <<<<<<<

Preisvergleich <<<<<<<

Treiber <<<<<<<

Tools <<<<<<<

GPU Spannung auslesen
Mit dem Tool Nvidia Inspector könnt ihr die GPU Spannung von der Karte auslesen



NVIDIA Inspector Tool


DX11 Benchmarks <<<<<<<


Messungen zur Laustärke, Temperatur & Stromverbrauch <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana: <<<<<<<

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580


Wasserkühler Sammelthread hier <<<<<<< (Danke an Guapa5000)


Übertaktete Versionen


Karten mit Wasserkühler ab Werk <<<<<<<
Hardwareluxx - Preisvergleich

EVGA GeForce GTX 580 FTW Hydro Copper 2
o5j8w6wu.jpg

kw3ocj3d.jpg

q2ar6ddn.jpg

fmvh3ckb.jpg

pvmtab87.jpg

x9rfwuki.jpg


Karten mit Accelero Xtreme Luftkühler ab Werk <<<<<<<
Sparkle GTX 580 mit Dreifach-Lüfter
8mvykufr.jpg

va2hs6nh.jpg

l7ytl8tr.jpg

lf3rz9io.jpg

OC Ergebnisse


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37023 | 1000 GPU | 2000 Shader | 2525 Speicher | 1,15v | VID 1.000 | PNY | Wakü | Dancop

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35241 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | [URL="http://www.abload.de/img/34996vantage960_1920_28rfq.png"]Hardy Hardcore
[/URL]
- 34895 | 1000 GPU | 2000 Shader | 2100 Speicher | 1.150v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 31458 | 951 GPU | 1902 Shader | 2303 Speicher | 1.150v | VID 1.013v | EVGA | LuKü | Duplex

- 30926 | 940 GPU | 1879 Shader | 2300 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 31028 | 970 GPU | 1940 Shader | 2350 Speicher | 1,15v | VID 1.0 | PNY | AIR | Dancop

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak


3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

3DMark11 (PhysX On)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 7657 | 1000 GPU | 2000 Shader | 2350 Speicher | 1.150v | VID 1.000v | PNY | WaKü | Dancop

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

3DMark11 (PhysX Off)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge

Furmark


GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge



Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Na hier gehts ja Ab .
Ich hab zwar nur die GTX 570 aber wenn man einfach wie in der guten alten Zeit die Finger von der Voltschraube lässt bleibt auch alles easy .
Wer unbedingt mit seiner Karte Dragsterrennen spielen will der soll es doch tun solange er hinterher nicht jammert scheiß Nvidia schon wieder einfach kaputt gegangen .
Und zu die Mehrheit sagt und hat recht kann ich nur sagen bis jetzt war es eigentlich immer so das nur eine kleine wissende Minderheit recht hatte und in der Menge leider unterging .
So jetzt auf mich mit Gebrüll !
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na hier gehts ja Ab .
Ich hab zwar nur die GTX 570 aber wenn man einfach wie in der guten alten Zeit die Finger von der Voltschraube lässt bleibt auch alles easy .
Wer unbedingt mit seiner Karte Dragsterrennen spielen will der soll es doch tun solange er hinterher nicht jammert scheiß Nvidia schon wieder einfach kaputt gegangen .
Und zu die Mehrheit sagt und hat recht kann ich nur sagen bis jetzt war es eigentlich immer so das nur eine kleine wissende Minderheit recht hatte und in der Menge leider unterging .
So jetzt auf mich mit Gebrüll !

Naja prozessoren taktet ja auch kaum wer ohne vcore erhöhung, is wie alles im leben ,solange man es nicht übetreibt, temps im auge behält usw spricht nix gegen.

und mit der minderheit wiesersprichste dir ja grad, hört sich so an aös hälste selbst nix von die graka unrealistisch zu belasten und überhitzen aka furmark und co..
 
Zuletzt bearbeitet:
Wollte mal fragen welche version des accelero denn auf die gtx580 passt? Ich hab im internet gefunden, dass dieser eben passt, aber nicht genau welche version. Außerdem interessiert mich, ob da ein passender vrm kühlkörper dabei ist wie bei der sparcle calibre im bild zu sehen ist.

Danke euch schonmal, werde mir die karte wahrscheinlich heute bestellen für rund 460 euro, denkt ihr das passt soweit? ^^
 
AC Accelero Extreme Plus soll mit einer kleinen Modifikation super passen! Werd ich mir auch noch überlegen.
 
OK, hab mich jetzt mal noch schlauer gemacht und mal gegoogelt was ich so auf der offiziellen seite herausfiltern konnte. Anscheinend passt der Extreme Plus ohne modifikationen auf die 580, ich weiß jetzt nicht, ob es da eine neue revision gibt denn leider finde ich dazu nichts genaueres, man sollte aber auf jeden fall ein VR heatsink pack dazukaufen, in diesem fall das vr004.

Hier mal ein caseking-link:
Caseking.de » Silent PC » Silent VGA-Kühler » Arctic Cooling VR Heatsink 4 für NVIDIA GTX 480 / 570 / 580
 
Jo , einfach Xtreme Plus und vr004 dazukaufen :wink:
Hab hier auch einen liegen , der auf meine 570 kommt , aber um den Originalkühler abzubekommen brauch ich nen t6 torx und ich hab keinen kleineren als t7 :fire:

Sobald ich einen hab , mach ich mich dran , dann gibts Bilder und Erfahrungen ;)
 
Du glaubst auch alles, was man dir sagt, oder? Nvidia behauptet! das Furmark ihre Karten killt. Wem hat FM aber tatsächlich die GeForce gegrillt? Niemandem, weils lächerlich ist.


Woher willst du wissen, wie ne Graka durch Furmark kaputt geht? Ich habe ne tote (Pink Screen) 280 GTX auf der früher auch Furmark lief, woher will ich wissen ob nicht Furmark damals und zwischendurch der Karte zugesetzt hat und nach insgesamt 2 Jahren war sie tot? ;) Son Fachmann bin ich ned, aber weil du einer bist, darfst gerne den EVGA OC Scanner oder Furmark 2 Tage am Stück druchlaufen lassen, mal schauen wieviele Wochen sie dann noch hält. :hail:

>belegt aber ,dass die Karte Strom schluckt wie ein echtes Luder und die TDP und PCIe Specks locker knackt. Macht sich schlecht in der Werbung, also wirds geblockt

Wo hat Nvidia irgendwas verschleiert? In den ganzen Reviews wird doch geschrieben, dass Nvidia den Strom begrenzt und warum.
 
Zuletzt bearbeitet:
Bescheidene Frage wenn ihr die Finger von der Voltschraube lasst , dann knackt die Karte doch auch keine TDP oder .
Übertakten ist wirklich ne Feine Sache wenn es dazu dient die karte zu Optimieren und das rauszuholen was sie mehr kann als den minimum Wert den Nvidia als absolut unkompliziert und für die Massenfertigung wohl auch als Zeitsparend angelegt hat .
Aber für einen regelmäßigen Spielbetrieb ist es leicht unklug an der Voltschraube zu drehen und die Karte auch noch die letzten 50 Mhz hochzujagen selbst wenn der Verbrauch dabei 50 Watt in die schießt .
Ich habe extra eine Strommessgerät zwischen Tower und Steckerleiste um den Verbrauch zu sehen und auch um sowas zu überwachen , bzw. zu sehen das zum Beispiel meine 570 im idle 15 watt weniger nimmt als meine 5850 Toxic davor .
Einfach nur zu schauen wieviel kann ich aus meinem Rechner Rauskitzeln ist ein sehr simples vorgehen und es wird wohl nur einen geben der damit wirklich zufrieden ist .
Der welcher das beste sample erwischt hat oder wie auch immer einfach alle anderen hinter sich lässt .
Warum nicht einfach sein System optimieren und alles soweit hochtakten bis es keinen Sinn mehr macht und die Schere aus Leistung und Hitze+Verbrauch aufgeht .
Bei der 280 haben das noch viele gemacht und auch zum Schluß das Bios in die Richtung geflasht .
Jetzt hat Nvidia genau das mit dem GF110 ermöglicht und alle fangen an das Ding aufzureisen als gäbe es kein Morgen mehr .
Wenn ich bei uns drüben im 570 Thread schaue was die an Spannung auf die arme Karte jagen und sehe bei mir wie der Verbrauch bei solchen Aktionen hochgeht .
Die meisten sehen ja nur das die Karte ein wenig heißer wird (der Kühler ist wirklich sehr gut) und nicht wie der Verbrauch steigt und was das mit den Spawas macht können wir auch nicht sehen .

Frohen Feiertag
 
Zuletzt bearbeitet:
Moin megamaniac,
hast ja mit allem recht, aber wenn die Karte neu ist, testet man was geht.
Danach findet man ein Setting, was weniger Vcore brauch und man trotzdem ein kleiner Leistungsschub spürt.
Ganz normal...
Wird sich wieder einpendeln.
 
Bescheidene Frage wenn ihr die Finger von der Voltschraube lasst , dann knackt die Karte doch auch keine TDP oder .
Übertakten ist wirklich ne Feine Sache wenn es dazu dient die karte zu Optimieren und das rauszuholen was sie mehr kann als den minimum Wert den Nvidia als absolut unkompliziert und für die Massenfertigung wohl auch als Zeitsparend angelegt hat .
Aber für einen regelmäßigen Spielbetrieb ist es leicht unklug an der Voltschraube zu drehen und die Karte auch noch die letzten 50 Mhz hochzujagen selbst wenn der Verbrauch dabei 50 Watt in die schießt .
Ich habe extra eine Strommessgerät zwischen Tower und Steckerleiste um den Verbrauch zu sehen und auch um sowas zu überwachen , bzw. zu sehen das zum Beispiel meine 570 im idle 15 watt weniger nimmt als meine 5850 Toxic davor .
Einfach nur zu schauen wieviel kann ich aus meinem Rechner Rauskitzeln ist ein sehr simples vorgehen und es wird wohl nur einen geben der damit wirklich zufrieden ist .
Der welcher das beste sample erwischt hat oder wie auch immer einfach alle anderen hinter sich lässt .
Warum nicht einfach sein System optimieren und alles soweit hochtakten bis es keinen Sinn mehr macht und die Schere aus Leistung und Hitze+Verbrauch aufgeht .
Bei der 280 haben das noch viele gemacht und auch zum Schluß das Bios in die Richtung geflasht .
Jetzt hat Nvidia genau das mit dem GF110 ermöglicht und alle fangen an das Ding aufzureisen als gäbe es kein Morgen mehr .
Wenn ich bei uns drüben im 570 Thread schaue was die an Spannung auf die arme Karte jagen und sehe bei mir wie der Verbrauch bei solchen Aktionen hochgeht .
Die meisten sehen ja nur das die Karte ein wenig heißer wird (der Kühler ist wirklich sehr gut) und nicht wie der Verbrauch steigt und was das mit den Spawas macht können wir auch nicht sehen .

Frohen Feiertag


Wir sind halt im LUXXX forum ,der wird nunma getaktet was geht, auch mit wakü usw, guckma viele hier haben sogar 2 und mehr karten, denen sind 50+ watt egal, versteh schon deinen standpunkt, teile ihn aber nicht, ich setze mir nen ziel und das will ich erreichen, beim prozzi warens 4 ghz, bei der karte 900/4400

@dozer: du machsts evtl so, andere probieren was max mit vcore erhöhung geht und lassens so ;)
 
Zuletzt bearbeitet:
Naja, wenn es nicht spürbar mehr Leistung in den Games gibt, ist es auch irgendwie schwachsinnig das Geld aus dem Fenster zu werfen.
Es sei denn, Mutti zahlt die Stromrechnung noch.
Ich zahle für eine 3-köpfige Familie über 1.000 € nur für Strom im Jahr... Da denkt man dann schon mal nach, auch als Luxxer. ;)
 
Naja, wenn es nicht spürbar mehr Leistung in den Games gibt, ist es auch irgendwie schwachsinnig das Geld aus dem Fenster zu werfen.
Es sei denn, Mutti zahlt die Stromrechnung noch.
Ich zahle für eine 3-köpfige Familie über 1.000 € nur für Strom im Jahr... Da denkt man dann schon mal nach, auch als Luxxer. ;)

spürbar doer nicht is immer sone sache, mit dem arguement kannma sich auch ne GTX 570 holen usw...
Zahl halt immer dasselbe egal wieviel ich verbrauche ;)
 
Naja, wenn es nicht spürbar mehr Leistung in den Games gibt, ist es auch irgendwie schwachsinnig das Geld aus dem Fenster zu werfen.
Es sei denn, Mutti zahlt die Stromrechnung noch.
Ich zahle für eine 3-köpfige Familie über 1.000 € nur für Strom im Jahr... Da denkt man dann schon mal nach, auch als Luxxer. ;)

Bei uns sind es jetzt auch schon von 50 auf 80 im Monat und wenn ich nicht nachdenke tut es glaube ich meine Frau für mich .
Aber jeder wie er es für richtig hält .
Bei mir zeigt übrigens die Hardware die Grenze des machbaren und mir reichen auch die 3.6 Ghz die mein Q9550 mit Luft macht .
Ebenso die 790/1580/1960 meiner 570 und sollte das nicht mehr reichen wirds halt Zeit für was neues .
Wenn es der Etat einer 3 Köpfigen Familie zulässt .
Die einen sagen man wird älter und ruhiger aber auch die wissen wie es früher war und haben genau das selbe von den damals älteren auch einfach übergangen .
Wenns Spaß macht irgendwo muß die Power doch hin .:fresse2:
Bin aber doch froh das ich nicht der einzige bin der es ein wenig gediegener angehen lässt .
man kommt sich ja beinah so vor als ob man was falsch macht wenn alle was anderes machen .

Grüße an alle , die schnellen und die ganz schnellen !
 
Zuletzt bearbeitet:
wieso klein ^^
 
ne 3Slotlösung muß man erstmal im eingebauten Zustand sehen^^ Das ist auch in nem Bigtower ein MONSTER.
 
warum seit ihr eigtl alle auf alternative kühler so scharf, finde den original wirklich gelnugen, nud er bläst die luft komplett aus dem case, noch mehr hitze an meinem X6 brauch ich nich..
 
hier gibt Real PICS von dem teil!

hab ihn selbst drauf und echt das beste was an LUKÜ gibt.

http://www.hardwareluxx.de/community/15659835-post32.html

---------- Beitrag hinzugefügt um 11:44 ---------- Vorheriger Beitrag war um 11:40 ----------

warum seit ihr eigtl alle auf alternative kühler so scharf, finde den original wirklich gelnugen, nud er bläst die luft komplett aus dem case, noch mehr hitze an meinem X6 brauch ich nich..

naja gelungen ist halt ne ansichtssache... das teil wird nach ner zeit laut und den AC hörste halt nicht!

wärmer wird die karte nicht und lautos! da ist auch atm ein OC bios drauf! 900 / 2150

 
Zuletzt bearbeitet:
Die Luft wird wärmer, aber ganz sicher.. Die Abwärme wird ja nicht aus dem Case gefördert...
Aber ich fand den 280 GTX Accelero, genauso den S1 superklasse - wichtig dabei, die VRM Temp.
 
hier gibt Real PICS von dem teil!

hab ihn selbst drauf und echt das beste was an LUKÜ gibt.

http://www.hardwareluxx.de/community/15659835-post32.html

---------- Beitrag hinzugefügt um 11:44 ---------- Vorheriger Beitrag war um 11:40 ----------



naja gelungen ist halt ne ansichtssache... das teil wird nach ner zeit laut und den AC hörste halt nicht!

wärmer wird die karte nicht und lautos! da ist auch atm ein OC bios drauf! 900 / 2150



nur macht ihtr alle folding oder was ? laut wirds doch bei nem game, und da is normal auch sound an, oder mach ich nun nen gedankenfehler ?
Mitten in bad company 2 mit granatenhagel usw hört doch keiner den lüfter, selbst auf 70% nich
 
nur macht ihtr alle folding oder was ? laut wirds doch bei nem game, und da is normal auch sound an, oder mach ich nun nen gedankenfehler ?
Mitten in bad company 2 mit granatenhagel usw hört doch keiner den lüfter, selbst auf 70% nich

ne das nicht, aber ich mags einfach leise :-)
 
ist es egal zu welcher GTX man greift? so alle gleich - wie immer, oder gibts da gesonderte "Liebhaber" ?
Zwecks Kühlerumbau.. bei wem spielt es keine Rolle? Wieder "nur" EVGA ?
 
was heißt hier gibts Realpics

das Bild ist von mir und auch "siehe Signatur" ist von mir
 
Woher willst du wissen, wie ne Graka durch Furmark kaputt geht? Ich habe ne tote (Pink Screen) 280 GTX auf der früher auch Furmark lief, woher will ich wissen ob nicht Furmark damals und zwischendurch der Karte zugesetzt hat und nach insgesamt 2 Jahren war sie tot? ;) Son Fachmann bin ich ned, aber weil du einer bist, darfst gerne den EVGA OC Scanner oder Furmark 2 Tage am Stück druchlaufen lassen, mal schauen wieviele Wochen sie dann noch hält. :hail:

Das die Karte das im Dauerbetrieb nicht aushält, ist logisch. Aber zum Stabilitätstesten kurzzeitig darf das nichts ausmachen. Oder nur minimal.
Bislang ist mir noch keine Karte durch FM abgeraucht, auch eine HD5850, die insgesamt mehrere Stunden, teils auch mit starker Spannungserhöhung lief, nicht. Ich kenne niemanden, der so dämlich wäre, seine Karte 2 Tage oÄ mit FM laufen zu lassen. Aber offenbar besteht da Gefahr bei dir, oder?

>belegt aber ,dass die Karte Strom schluckt wie ein echtes Luder und die TDP und PCIe Specks locker knackt. Macht sich schlecht in der Werbung, also wirds geblockt

Wo hat Nvidia irgendwas verschleiert? In den ganzen Reviews wird doch geschrieben, dass Nvidia den Strom begrenzt und warum.

Ja, da wird die offizielle Position wiedergegeben - die von Nvidia. Das führt dich aber nicht dazu, das mal zu hinterfragen, oder? Fail. Du glaubst echt alles, was man dir erzählt, solange es von offizieller Stelle kommt :fresse: Dont feed the troll... man merkt echt, dass keine Schule ist atm.
 
Zuletzt bearbeitet:
ironie ;)

ich werd meine 570 zurückschicken und woanders bestellen ^^
Vlt nehm ich ja doch ne evga , dann hätte ich wenigstens ne garantie trotz kühlerwechsel .
Oder doch einfach ne billige Palit/Gainward ? hmm
 
Zuletzt bearbeitet:
Ich kenne niemanden, der so dämlich wäre, seine Karte 2 Tage oÄ mit FM laufen zu lassen.

Wenn ich FM oder OCCT laufen lasse dann hab ich meine Augen immer auf die Temperatur. Wenn ich vom PC weg gehe dann schließe ich FM lieber. Sicher ist sicher.
Habe bislang eine 4870/5870/GTX480/GTX580 mit hoher Spannung und Takt per FM getestet. Zum Teil auch über 30Min und keine der Karten ist dabei drauf gegangen. Allerdings war jede der Karten mit einem Wasserkühler versehen.
Mit Lukü würde ich das nichtmal @ Stock machen.

Edit: Kann man bei OCCT überhaupt dem Artifact-Scanner trauen (bei der 580) ? Weil die Karte ja gedrosselt wird.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh