Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580


Technische Daten der GTX 580 <<<<<<<

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 530mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung


Erste Tests der Karte <<<<<<<

Preisvergleich <<<<<<<

Treiber <<<<<<<

Tools <<<<<<<

DX11 Benchmarks <<<<<<<


Messungen zur Laustärke, Temperatur & Stromverbrauch <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana: <<<<<<<

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580


Wasserkühler Sammelthread hier <<<<<<< (Danke an Guapa5000)


Übertaktete Versionen


Karten mit Wasserkühler ab Werk <<<<<<<
Hardwareluxx - Preisvergleich

EVGA GeForce GTX 580 FTW Hydro Copper 2
o5j8w6wu.jpg

kw3ocj3d.jpg

q2ar6ddn.jpg

fmvh3ckb.jpg

pvmtab87.jpg

x9rfwuki.jpg


Karten mit Accelero Xtreme Luftkühler ab Werk <<<<<<<
Sparkle GTX 580 mit Dreifach-Lüfter
8mvykufr.jpg

va2hs6nh.jpg

l7ytl8tr.jpg

lf3rz9io.jpg

OC Ergebnisse


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | [URL="http://www.abload.de/img/34996vantage960_1920_28rfq.png"]Hardy Hardcore
[/URL]
- 34895 | 1000 GPU | 2000 Shader | 2100 Speicher | 1.150v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 31458 | 951 GPU | 1902 Shader | 2303 Speicher | 1.150v | VID 1.013v | EVGA | LuKü | Duplex

- 30926 | 940 GPU | 1879 Shader | 2300 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak


3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

3DMark11 (PhysX On)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

3DMark11 (PhysX Off)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge

Furmark


GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge



Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Bei meiner Karte droppt die Spannung nach oben unter Last.

Eingestellt 1,213 Volt NVIDIA Insp. gemessen mit DMM =1,25 Volt danach unter Last gemessen = 1,29V

ja und bei mir eben nicht....

im Bios eingestellt 1,150
im GPU-Z ohne Last max VCore: 1,138 (was bei allen so ist)
lege ich last auf die Karte: max read: 1,100

was soll das? die 1,15 liegen an den Spawas an und die GPU hat nur 1,1....
mit 1,213 im Bios
GPU-Z ohne Last max 1,200
3D Last auf dem Ding > 1,15V und die Hitze mit 1,213 auf den Spawas...

das is doch Kacke? was kann man da machen? is auch mit ASUS Bios so...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm, auf welche Karten beziehst du dich denn?
Ich hatte mal geschrieben, dass meine mit 1,05V (Vid-Wert) bis 840MHz läuft, das heisst aber nicht, dass da nicht noch mehr geht. Die UC-Modelle haben ja etwa 1,075V aufwärts.
Gestern hab ich mal einfach so aus Spass geguckt, was bei 1,075V möglich ist, da sind es immerhin 870Mhz. Ich denke um die 900MHz+ dürften bei der maximalen Spannung von 1,138V drin sein. Somit handelt es sich auch bei meiner Karte nicht um ein OC-Wunder aber eben auch nicht um eine Krücke.

Ich bleibe daher immer noch bei meiner Theorie, dass die Hersteller einfach bei jeder beliebigen Karte die Spannung ausgehend von der jeweiligen Vid um ein paar Stufen erhöhen und dann den höheren Takt einstellen. Schnell gemacht und geringe Kosten.


Ich weiss nichtmehr genau welches es waren, meine Gigabyte msi und asus die nich gut gingen
 
ja und bei mir eben nicht....

im Bios eingestellt 1,150
im GPU-Z ohne Last max VCore: 1,138 (was bei allen so ist)
lege ich last auf die Karte: max read: 1,100

was soll das? die 1,15 liegen an den Spawas an und die GPU hat nur 1,1....
mit 1,213 im Bios
GPU-Z ohne Last max 1,200
3D Last auf dem Ding > 1,15V und die Hitze mit 1,213 auf den Spawas...

das is doch Kacke? was kann man da machen? is auch mit ASUS Bios so...

Wirklich gemessen, oder sind das alles Werte, die GPU-Z ausspuckt?
 
weiss jemand ab welchen Betrag man Zoll bezahlen muss wenn Grafikkarten aus Amiland eingeführt werden ?
Ich meine jetzt im Koffer ... nicht über Versand

Ab 430€ (Betrag ist incl. ausländischer Umsatzsteuer) - darunter fallen auch Computerteile (sind zum. nicht als Ausnahme angeführt):
Reisefreigrenzen-Drittland
 
Wirklich gemessen, oder sind das alles Werte, die GPU-Z ausspuckt?

GPU-Z nur... ist aber egal weils bei der Gigabyte nicht so war
und folgedessen is auch bei 925 Schluss, weil da schon 1,213 im Bios anliegen, aber nur 1,15 auf der Karte ankommen...
 
Habe mir gestern eine POV 580gtx bei hardwareversand bestellt und heute ist sie schon da gewesen. Da werde ich sie gleich mit wakü testen. :)
 
:heuldoch: Helfe halt gerne

Die Firma will nur Werbung für sich machen und du hilfst diesen Deppen dabei :kotz:

Die wollen doch nur, dass man die Googlet und ihre HP findet... miese Preise habe die noch dazu ;)


---------- Beitrag hinzugefügt um 15:09 ---------- Vorheriger Beitrag war um 15:07 ----------

Hatt denn nun schon jemand ne Asus getestet?
 
Nö, ich habe eine Gigabyte mit Standardspannung 1,000 Volt. Ich weiß aber nicht, was da geht, ich lasse die Karte ganz normal laufen bisher.
 
weiß ich doch nicht, ich habe keine ^^
 
Nö, ich habe eine Gigabyte mit Standardspannung 1,000 Volt. Ich weiß aber nicht, was da geht, ich lasse die Karte ganz normal laufen bisher.


Mach doch mal, wir brauchen noch mehr Leute das man mal nen besseren Überblick bekommt was die Karten so können. Kaputt geht dir dabei auch nichts wenn du zB. 3DMark06 oder vantage nutzt siehst ja wann deine Karte bei welcher spannung einfach abstürzt. Oder du bencht garnicht und jubelst die GPU einfach bei der für dich Maximalen Spannung von 1.138V und guckst wann sie einfriert bzw. ein Graues oder Buntes Bild zeigt oder der Rechner nen Reset macht, da ziehst bei der 580er dann ca. 40Mhz-50Mhz von ab und hast in etwa dein stabiles Maximum und dann testest du.
 
gibts eigtl mittlerweile ENDLICH man (beta)treiber der die GTX 580 UND ALLE andern Karten (also auch GTX 260) unterstützt ?

Mich regt die treiberfehlermeldung von futuremark aufgrund des von win 7 für die GTX 260 installierten windowstreibers auf..
 
Zuletzt bearbeitet:
Für 900 Mhz braucht meine Evga 1,1 V.
Für 842 Mhz 1,037
Für 797 Mhz 1,0

Als Testreferenz für stabilität stellt sich bei mir tatsächlich wieder einmal Crysis heraus. Div. Spiele laufen mit DEUTLICH weniger V-Core.3D-Mark ca 0025 weniger.
Auch Gothic4 brauch trotz nahezu 100% Gpu-Last wenig V-Core.
 

Anhänge

  • 900mhz2.jpg
    900mhz2.jpg
    195 KB · Aufrufe: 47
Nimm mal GPUTool im Fullscreen und lass das über ein paar Minuten fehlerfrei laufen :)
 
Nimm mal GPUTool im Fullscreen und lass das über ein paar Minuten fehlerfrei laufen :)

das tool kann doch nix, oder? ist über ein jahr alt, nie aus dem beta-status gekommen. wenn ich es bei mir laufen lasse, erkennt er meine gtx 275 und gt 240, stellt aber die taktraten der 275 für die 240 ein und die der 240 für die 275.

sorry, aber das ist dreck.

---------- Beitrag hinzugefügt um 18:46 ---------- Vorheriger Beitrag war um 18:45 ----------

Als Testreferenz für stabilität stellt sich bei mir tatsächlich wieder einmal Crysis heraus.

was genau? crysis oder crysis warhead?

nutzt du den benchmark, wenn ja welchen mit welchen settings? oder zockst du "for real"?
 
Ist nach wie vor das Tool, wenn du deine GPU auslasten willst - Furmark,Games und Co sind ein Witz dagegen.

Was du brauchst sind ganze zwei Klicks nachdem du das Programm gestartet hast:

Haken machen bei "Renderer uses Fullscreen"
und dann noch auf "Test for Stability" klicken.

Übertakten etc. machst du mit einem Programm deiner Wahl - z.B. Afterburner.
Nur weil man unfähig ist ein Programm zu bedienen muss man es nicht gleich als "Dreck" abstempeln - zeugt nicht gerade von Reife.
 
Zuletzt bearbeitet:
Nimm mal GPUTool im Fullscreen und lass das über ein paar Minuten fehlerfrei laufen :)

Ist schon bei der 480iger oder auch 470iger nicht mehr aussagekräftig gewesen.

Macht nur eine Höllentemperatur.:asthanos:

---------- Beitrag hinzugefügt um 18:58 ---------- Vorheriger Beitrag war um 18:57 ----------

das tool kann doch nix, oder? ist über ein jahr alt, nie aus dem beta-status gekommen. wenn ich es bei mir laufen lasse, erkennt er meine gtx 275 und gt 240, stellt aber die taktraten der 275 für die 240 ein und die der 240 für die 275.

sorry, aber das ist dreck.

---------- Beitrag hinzugefügt um 18:46 ---------- Vorheriger Beitrag war um 18:45 ----------



was genau? crysis oder crysis warhead?

nutzt du den benchmark, wenn ja welchen mit welchen settings? oder zockst du "for real"?

Hi,
Ich Spiele Warhead. Das Spiel reagiert extrem auf zu wenig V-core. Obwohl nur so 70% Gpu last. Wird wohl sehr Shaderlastig sein.
 
Sämtliche GPUs die ich damit bisher gequält habe (darunter auch ein paar 460/465/470/480 und eine 580er bisher) ließen sich damit einwandfrei testen und erwiesen sich als stabil...
Andersrum habe ich aber schon öfters erlebt, dass z.B. Problemkarten die angeblich stabil waren (Crysis,Unigine,etc. "stabil") doch gelegentlich abstürzten.
GPUTool laufen lassen im Fullscreen (das ist wichtig..) und siehe da, nach wenigen Sekunden schon Errormeldungen...
 
also die tools ala furmark und GPU-tool kann man wirklich nicht für high-end karten empfehlen. die erzeugen unrealistisch hohe temps und saugen v.a. sauviel strom. das kann sogar richtig gefährlich werden.

WARNING

bei übertakteten GTX (470/480/570/580) mit erhöhter vCore kann das ganz schön ins auge gehen, da die dann teilweise mehr als 250 Watt ziehen, die PCI-E spezifikation aber nur 250 Watt vorsieht. permanente schäden an der hardware sind da wirklich nicht auszuschließen.

ich werde mich auch eher praxisnahen tests widmen, zocken, game-benches, etc. ich schmeiße definitiv kein furmark o.Ä. mehr an und riskiere meine hardware.

übrigens:
mein baby ist eben auf die reise gegangen, hoffentlich ist sie morgen da!
 
Zuletzt bearbeitet:
Mir ist bisher keine Karte kaputt gegangen durch eines dieser Tools - solange ausreichend gekühlt wird (und nein, Stockkühler reicht bei 1.1V+ Vcore natürlich nicht mehr aus für derartige Tools) seh ich da kein Problem ;)

edit: Ich habe hier im Luxx auch noch nicht gelesen, dass jemand sein Equipment durch so etwas geschrottet hat. Das passiert nur dann, wenn man unzureichend kühlt und nicht auf die Temperaturen achtet. Hier im Luxx sollten die meisten OCer wohl wissen was sie tun :)
 
Zuletzt bearbeitet:
Hier im Luxx sollten die meisten OCer wohl wissen was sie tun

da stimme ich dir zu, deswegen lasse ich die finger von furmark und co. ;) core-temp und vcore sind eine sache, aber monitorst du auch die temps der VRMs? bei hoher vcore und hohem clock, gibt es krasse leckströme. die töten die karten vielleicht nicht sofort, sind aber definitiv nicht gesund. hier von anandtech:

-----------------------------
After a particularly rocky relationship with FurMark blowing up VRMs on the Radeon 4000 series, AMD instituted safeties in their cards with the 5000 series to protect against FurMark – AMD monitored the temperature of the VRMs, and would immediately downclock the GPU if the VRM temperatures exceeded specifications.
.....
At an end-user level FurMark and OCCT really can be dangerous – even if they can’t break the card any longer, they can still cause other side-effects by drawing too much power from the PSU.
----------------

von geeks3d:
In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away. NVIDIA emphasizes this is to avoid damage to cards or motherboards from these stress testing applications and claims that in normal games and applications such an overload will not happen. At this time the limiter is only engaged when the driver detects Furmark / OCCT, it is not enabled during normal gaming.
-----------------------------
wer die schutzschaltungen bewusst umschifft, der darf sich nicht wundern, wenn evtl. etwas schiefgeht. natürlich sehe ich die attraktivität solcher tools:

schnell die karte testen können unter maximaler last ist eine feine sache. habe es bisher auch bei jeder karte gebraucht.

ich werde aber bei meiner neuen gtx 580 vorsicht und menschenverstand walten lassen. so eine synthetisch hohe load, wie die tools erzeugen, erzeugt kein game.

auch wenn es mir persönlich auch schwer fallen wird.... ich werde diesmal nur games und benchmarks zum testen benutzen. dauert vielleicht etwas länger, den max. takt zu ermitteln, ist aber 100% gefahrlos.
 
du erinnerst dich an die kaputten Grafikkarten aufgrund des "vsync off Bugs" bei SC2 ? :)

Gute Kühlung für die gesamte Grafikkarte und das passt.

natürlich! :) aber ich finde den vergleich nicht wirklich passend, da es hier auch jede menge non-oc karten erwischt hat.

und mal ehrlich:
wann gab es sowas wie bei SC2 noch in den letzten 10 jahren? mir fällt kein beispiel (mehr) ein. da hat blizzard echt ganze arbeit geleistet.
 
BTW: so wie es aussieht kann man mit dem neuen EVGA BIOS ganz zufällig bis auf 1.15v gehen. EVGA selbst kommentiert diese leichte Anhebung nicht ;)

Eigentlich ist das neue Feature im BIOS die Lüftergeschwindigkeit... von 30%-100%.
 
BTW: so wie es aussieht kann man mit dem neuen EVGA BIOS ganz zufällig bis auf 1.15v gehen. EVGA selbst kommentiert diese leichte Anhebung nicht ;)

Eigentlich ist das neue Feature im BIOS die Lüftergeschwindigkeit... von 30%-100%.

Kannst mit jedem bis 1,213
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh