Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580


Technische Daten der GTX 580 <<<<<<<

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 530mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung


Erste Tests der Karte <<<<<<<

Preisvergleich <<<<<<<

Treiber <<<<<<<

Tools <<<<<<<

DX11 Benchmarks <<<<<<<


Messungen zur Laustärke, Temperatur & Stromverbrauch <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana: <<<<<<<

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580


Wasserkühler Sammelthread hier <<<<<<< (Danke an Guapa5000)


Übertaktete Versionen


Karten mit Wasserkühler ab Werk <<<<<<<
Hardwareluxx - Preisvergleich

EVGA GeForce GTX 580 FTW Hydro Copper 2
o5j8w6wu.jpg

kw3ocj3d.jpg

q2ar6ddn.jpg

fmvh3ckb.jpg

pvmtab87.jpg

x9rfwuki.jpg


Karten mit Accelero Xtreme Luftkühler ab Werk <<<<<<<
Sparkle GTX 580 mit Dreifach-Lüfter
8mvykufr.jpg

va2hs6nh.jpg

l7ytl8tr.jpg

lf3rz9io.jpg

OC Ergebnisse


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | [URL="http://www.abload.de/img/34996vantage960_1920_28rfq.png"]Hardy Hardcore
[/URL]
- 34895 | 1000 GPU | 2000 Shader | 2100 Speicher | 1.150v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 31458 | 951 GPU | 1902 Shader | 2303 Speicher | 1.150v | VID 1.013v | EVGA | LuKü | Duplex

- 30926 | 940 GPU | 1879 Shader | 2300 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak


3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

3DMark11 (PhysX On)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

3DMark11 (PhysX Off)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge

Furmark


GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge



Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
ich habe kein Multimeter und nochmal, bei der Gigabyte wurde wie bei allen anderen 0,013 gedroppt im GPU-Z, ebenso beim Kollegen bei der TGT Charged nur die üblichen 0,013... die EVGA hier dropped wie bei Viohlenze 0,05
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja die Amibratzen im EVGA Forum kotzen mich an
die haben 0 Plan von OC, mir schon klar wieso es E-Leet und OC-Scanner und co gibt
ich erkläre denen mein Problem mit dem Vdrop.. Antwort: new power supply!!! order new GPU-Z version

...............
 
ich erkläre denen mein Problem mit dem Vdrop.. Antwort: new power supply!!! order new GPU-Z version

...............

Alles klar^^ Dann verkaufe ich mal mein 2 Wochen altes 850W Corsair AX850 und besorge mir ein NT mit mind. 1KW :wall:

Also man kennt den Volt-Drop ja schon von CPUs.
Warum dies allerdings von Karte zu Karte unterschiedlich ist, kann ich mir nicht vorstellen.
 
ich habe schon asus und gigabyte bios geflashed, keine Änderung, es ist also nicht Bios-seitig, die haben was auf der Karte verlötet...
 
Vergiss das was GPU-Z sagt!

Diese Drops sind nicht Real. Der bekommt Mist vom vReg gemeldet.

Wenn man mit Multimeter nachmisst geht die Vcore unter Volllast sogar nochn Tick höher.

Unter Volllast:
nvapi: 1.050V
gpu-z: ~1.002V
multimeter: 1.109V

Im P0 ohne Last
nvapi: 1.050V
gpu-z: ~1.037V
multimeter: 1.078V
 
Zuletzt bearbeitet:
Super danke für die Info.
 
-6591 | 849 GPU | 1698 Schader | 1002 Speicher | 1,035v | VID 1.025 | Zotac | WaKü | ORB | Bild | Oely

Ich finde man sollte auch ein Beweis mit einbringen wie ORB und Bild!


-6591 | 849 GPU | 1698 Schader | 1002 Speicher | 1,035v | VID 1.025 | Zotac | WaKü | Oely

Bitte eintragen 3DMark11 (PhysX On)

Wie lest ihr die VID aus?
Die tatsächlich anliegende Spannung ist nämlich von TOOL zu Tool verschieden!
 
Zuletzt bearbeitet:
Also ich habe 1,163 Bios, laut GPU-Z 3D ohne Last 1,150, 3D Last 1,113 und damit ist bei 910@ GPU-Tool Ende, ebenso crashed Vantage und 3D11. Also geht so oder so nicht viel mehr mit meiner Karte, richtig?
 
Also ich habe 1,163 Bios, laut GPU-Z 3D ohne Last 1,150, 3D Last 1,113 und damit ist bei 910@ GPU-Tool Ende, ebenso crashed Vantage und 3D11. Also geht so oder so nicht viel mehr mit meiner Karte, richtig?

Mehr Spannung probieren, manche Karten brauchen Saft bei manchen bringts ab nem gewissen Punkt nix mehr.

Meine erste Krücke (Gigabyte) ging auf Default VID (1.038) grade mal bis 800MHz, wenn man ihr aber richtig Saft gegeben hat (1.21V) ging sie bis 960.

Meine jetzige Karte geht auf Default VID (1.050V) bis 830MHz aber kommt nicht über 940 hinaus auch nicht mit 1.21V.

Entscheidend ist doch ab welchem Punkt man mehr Spannung zugeben muss als man an Taktpotenzial dafür bekommt und was von der Temperatur für den Dauerbetrieb vertretbar bleibt. Das ist bei jeder Karte unterschiedlich.

Die Karte von Flitzepiepe scheint richtig gut zu gehen. Mit der Spannung schaff ich grade mal 900MHz.
 
naja bei 1,213 eingestellt treten Bildfehler auf, schon im Windows
 
Kannstes mir schicken!
 
bitte

is das normal das die 580gtx immer im 3d betrieb läuft wenn man 2 monitore dran hat ?

gibts da ne abhilfe ?
 

Anhänge

  • GF110.zip
    44,6 KB · Aufrufe: 45
Zuletzt bearbeitet:
Das ist kein "Problem", sondern ist von NV beabsichtigt, sonst käme es zu Instabilitäten in der Darstellung@2 TFTs + 2D-Takt.
 
Wenn ich zwei Bildschirme benutze z.B eine zum eine zu surfen und einen zum HD schauen mache ich mir mit dem NVIDA Inspector ein Profil mit 0,900V und dann ist der Stromverbrauch immer noch im Ramen.

 
Orbmu2k seinem FermiBios Editor
 
Du muß Orbmu2k fragen.
 
Muss ich mal doof fragen
Was soll da gesperrt sein?
 
da ich Orbmu2k keine private PN schicken kann, schreibe ich das mal hier rein.

Orbmu2k, könnte ich mal deine editor bekommen, dann könnte ich selbst mal testen was mit meiner karte geht, und müßte nicht ständig jemanden stressen mein bios zu bearbeiten.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh