Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 2)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580


Technische Daten der GTX 580 <<<<<<<

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 530mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung


Erste Tests der Karte <<<<<<<

Preisvergleich <<<<<<<

Treiber <<<<<<<

Tools <<<<<<<

DX11 Benchmarks <<<<<<<


Messungen zur Laustärke, Temperatur & Stromverbrauch <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana: <<<<<<<

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580


Wasserkühler Sammelthread hier <<<<<<< (Danke an Guapa5000)


Übertaktete Versionen


Karten mit Wasserkühler ab Werk <<<<<<<
Hardwareluxx - Preisvergleich

EVGA GeForce GTX 580 FTW Hydro Copper 2
o5j8w6wu.jpg

kw3ocj3d.jpg

q2ar6ddn.jpg

fmvh3ckb.jpg

pvmtab87.jpg

x9rfwuki.jpg


Karten mit Accelero Xtreme Luftkühler ab Werk <<<<<<<
Sparkle GTX 580 mit Dreifach-Lüfter
8mvykufr.jpg

va2hs6nh.jpg

l7ytl8tr.jpg

lf3rz9io.jpg

OC Ergebnisse


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | [URL="http://www.abload.de/img/34996vantage960_1920_28rfq.png"]Hardy Hardcore
[/URL]
- 34895 | 1000 GPU | 2000 Shader | 2100 Speicher | 1.150v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 31458 | 951 GPU | 1902 Shader | 2303 Speicher | 1.150v | VID 1.013v | EVGA | LuKü | Duplex

- 30926 | 940 GPU | 1879 Shader | 2300 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak


3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

3DMark11 (PhysX On)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

3DMark11 (PhysX Off)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge

Furmark


GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge



Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Die haben seit ein paar Tagen den Schuss nicht mehr gehört. Habs ja eine Weile beobachtet, auf einmal alle Karten teurer, manche davon 50-100 EUR. :stupid:
Ich kaufe ja sonst gerne bei denen ein, aber das war mir dann doch zu link und ich habe die Karte (eine 580er, nicht die Beast) woanders gekauft. Deppen abgreifen kurz vor Weihnachten, wie die Tankstellen auch.
 
Zuletzt bearbeitet:
ich hab mal halbe Stunde Crysis Wars mit 900/1800 gespielt, läuft bei 1680x1050 @4AA @very high alles sehr gut!
 
Der Fermi Bios Editor ist seit dem letzten changelog PUBLIC und freigegeben worden zur Verbreitung - da müsst ihr Orbmu2k nicht mehr pn zuspammen ;)
 
liegt an der CPU, nächsten Monat kommt aber ein i7-2600k den ich dann zwischen 4,5-5,00 Ghz takten werde, mein 650w Netzeil muss ich auch noch tauschen ;)
 
Die haben seit ein paar Tagen den Schuss nicht mehr gehört. Habs ja eine Weile beobachtet, auf einmal alle Karten teurer, manche davon 50-100 EUR. :stupid:
Ich kaufe ja sonst gerne bei denen ein, aber das war mir dann doch zu link und ich habe die Karte (eine 580er, nicht die Beast) woanders gekauft. Deppen abgreifen kurz vor Weihnachten, wie die Tankstellen auch.

Ne, das liegt an den veröffentlichten 6970 Benchmarks :o
 
Wenn ich zwei Bildschirme benutze z.B eine zum eine zu surfen und einen zum HD schauen mache ich mir mit dem NVIDA Inspector ein Profil mit 0,900V und dann ist der Stromverbrauch immer noch im Ramen.


Du kannst sogar die Taktraten absenken mit einem Profil das bringt nochmal ein paar Watt weniger

Ich frag mich wann nvidia das mal ernsthaft angehen will über den Treiber per Automatismus,was orbmu2k mit seinem Inspector innerhalb weniger Wochen geschafft hat:rolleyes:
 
da ich Orbmu2k keine private PN schicken kann, schreibe ich das mal hier rein.

Orbmu2k, könnte ich mal deine editor bekommen, dann könnte ich selbst mal testen was mit meiner karte geht, und müßte nicht ständig jemanden stressen mein bios zu bearbeiten.

Wenn man so in den BIOS Thread schaut ist der Einsatz des FBE bei der GTX580 ziemlich riskant. 50% der Leute enden mit ner Karte ohne Videosignal.

Ich kann also auch nur noch davon abraten.

An dem Tool wird auch nix mehr gemacht auch kein Bugfixing im Hinblick auf dieses Problem.

Siehen mein letzter Changelog Eintrag:
http://www.hardwareluxx.de/community/15805170-post1101.html

Der Fermi Bios Editor ist seit dem letzten changelog PUBLIC und freigegeben worden zur Verbreitung - da müsst ihr Orbmu2k nicht mehr pn zuspammen ;)

Richtig! Ihr könnt das Tool nun nach eigenem Ermessen verteilen. Ich werde es nicht mehr verteilen, ich möchte auch nicht mehr als Referenz zum FBE dienen, daher habe ich auch alle Credits entfernt.
 
wo bekomme ich den jetzt her ?

z.B. leider mit der Hilfe von Google.:(

@Orbmu2k
könnte der NF200-Brückenchip eine Rolle spielen?
Bei einem der User, der das Problem hat, ist mir aufgefallen, dass er ein EVGA 4-Way SLi Mainboard hat.
 
Zuletzt bearbeitet:
z.B. leider mit der Hilfe von Google.:(

@Orbmu2k
könnte der NF200-Brückenchip eine Rolle spielen?
Bei einem der User, der das Problem hat, ist mir aufgefallen, dass er ein EVGA 4-Way SLi Mainboard hat.

Wieso Leider!
3 Post´s weiter oben wurde er frei gegeben!
 
@Orbmu2k
könnte der NF200-Brückenchip eine Rolle spielen?
Bei einem der User, der das Problem hat, ist mir aufgefallen, dass er ein EVGA 4-Way SLi Mainboard hat.

Glaube nicht. Denke eher das es irgendwie mit der Formatierung der Spannung zusammenhängt. Aber ich investiere da wie gesagt keine Sekunde mehr rein. Bei meiner GTX580 funktioniert damit jedenfalls alles.
 
Zuletzt bearbeitet:
Wieso Leider!
3 Post´s weiter oben wurde er frei gegeben!

Weil das Tool nicht in Hände unfähiger User geraten sollte

Die rechtlichen Konsequenzen aus ireparabel beschädigten Biosfiles und der daraus eventuell unbrauchbaren Hardware sind nicht abzusehen

Davor wollte sich orbmu2k sicherlich absichern und dafür sollte man auch vollstes Verständniss haben

Leider hat das wohl einer oder mehrere nicht begriffen als sie das Tool im Inet geleakt haben:rolleyes:
 
Zuletzt bearbeitet:
Weil das Tool nicht in Hände unfähiger User geraten sollte

Die rechtlichen Konsequenzen aus ireparabel beschädigten Biosfiles und der daraus eventuell unbrauchbaren Hardware sind nicht abzusehen

Davor wollte sich orbmu2k sicherlich absichern und dafür sollte man auch vollstes Verständniss haben

Wir reden nicht von "Davor"
Ich rede von jetzt!

Richtig! Ihr könnt das Tool nun nach eigenem Ermessen verteilen. Ich werde es nicht mehr verteilen, ich möchte auch nicht mehr als Referenz zum FBE dienen, daher habe ich auch alle Credits entfernt.



Und wer sich die Karte schrottet, ist selber schuld!
 
Zuletzt bearbeitet:
Deswegen bin ich auch total dagegen den BIOS Editor - sowie im BIOS Thread empfohlen - hier auch noch zu linken.
Wir sollten wenigstens alles dafür tun, dass es sich nicht noch weiter verbreitet..

Ich werde Naennon bitten mir eins zu geben, wenn meine 580 irgendwann mal kommt.
 
Hi Leutz, hier mal kurz ein paar Erfahrungen mit meiner MSI GTX580. Es ist nicht der beste Clocker... vid ist 1.038.

Mit 1.038 komme ich nicht mal bis 800 MHz Core., dafür brauche ich 1.050. :(

Bin auf 1.075 Core hoch, mehr möchte ich aktuell nicht, dabei kam folgendes raus:
888 MHz @ 1.075 Core mit 3DMark11 und Vantage möglich.
Crysis Warhead Benchmark ist dabei sofort abgekackt. Dabei musste ich bis auf 845 MHz runtergehen, bis das Teil bei 1.075 Volt stabil war.

Bin aktuell bei 1.075 Volt und 842 MHz Core, 1684 Shader und 2104 RAM. Damit laufen alle Benches stabil durch.

Bei 1.15 Volt lief 3DMark bis 900 MHz einwandfrei durch. 912 MHz sind gecrasht. Aber wieder mal ist Crysis Warhead gecrasht bei 1.15 Volt und 900 MHz, wo 3D Mark stabil ist.

Der Crysis Warhead-Benchmark scheint echt krass zu sein, hab mich selbst gewundert:
Wie gesagt, 888 MHz bei 1.075 Volt in 3DMarkVantage+11 stabil, aber damit Crysis Warhead stabil läuft, musste ich ca. 40 Mhz runtergehen, Hammer!

Finaler 24/7 Overclock:
842/1684/2104@1.075 Volt.

Hätte ja gerne 850 gehabt, aber 842/1684/2104@1.075 Volt ist mein "Sweet Spot".
 
Crysis Wars läuft bei mir mit 900/1800 @1.1v stabil, Map war Steelmill (30 Minuten extreme gezockt), bis jetzt noch kein anderes Game getestet aber es läuft besser als meine alte 5870 LCS 1000/1200 :) selbst ohne OC ist die GTX580 sehr schnell :)

Ich hab die gleiche Cpu , auch auf 4ghz laufen , hab aber irgendwie nur 47000 cpu Punkte :-/ ^^

PhysX an? wie hoch ist deine Northbridge getaktet?
 
Zuletzt bearbeitet:
Hi Leutz, hier mal kurz ein paar Erfahrungen mit meiner MSI GTX580. Es ist nicht der beste Clocker... vid ist 1.038.

Mit 1.038 komme ich nicht mal bis 800 MHz Core., dafür brauche ich 1.050. :(

Bin auf 1.075 Core hoch, mehr möchte ich aktuell nicht, dabei kam folgendes raus:
888 MHz @ 1.075 Core mit 3DMark11 und Vantage möglich.
Crysis Warhead Benchmark ist dabei sofort abgekackt. Dabei musste ich bis auf 845 MHz runtergehen, bis das Teil bei 1.075 Volt stabil war.

Bin aktuell bei 1.075 Volt und 842 MHz Core, 1684 Shader und 2104 RAM. Damit laufen alle Benches stabil durch.

Bei 1.15 Volt lief 3DMark bis 900 MHz einwandfrei durch. 912 MHz sind gecrasht. Aber wieder mal ist Crysis Warhead gecrasht bei 1.15 Volt und 900 MHz, wo 3D Mark stabil ist.

Der Crysis Warhead-Benchmark scheint echt krass zu sein, hab mich selbst gewundert:
Wie gesagt, 888 MHz bei 1.075 Volt in 3DMarkVantage+11 stabil, aber damit Crysis Warhead stabil läuft, musste ich ca. 40 Mhz runtergehen, Hammer!

Finaler 24/7 Overclock:
842/1684/2104@1.075 Volt.

Hätte ja gerne 850 gehabt, aber 842/1684/2104@1.075 Volt ist mein "Sweet Spot".

Warum gehst du nur bis 1,075 volt ? 1,125 ist unter luft durchaus noch akzeptabel

meine machte mit 1,075 880/4300
 
Vei Vantage brauche ich für 900 GPU / 1800 Shader nur 1.075



Crysis braucht dann aber 1.1v

Speicher hab ich bis jetzt nur bis 2300 getestet, geht bestimmt noch mehr ;)
 
Zuletzt bearbeitet:
Sind 1.1V wirklich noch 100% unbedenklich für 24/7?

Aktuell habe ich 842/1684 bei 1.075V stabil. Selbst wenn ich für 851/1702 auf 1.088V gehe, kackt Crysis Warhead nach ein paar Loops ab. Vantage ist nicht das Problem, das läuft bei 1.075V bis 888 MHz Core durch.

Halte 1.1V für 24/7 für ein bißchen viel...
 
als ob der Abstand von 1.075 auf 1.1v groß ist:wayne:
dreh die Lüfter auf :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh