Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Und wie genau?
Wenn ich in NVIDIA Systemsteuerung gehe und "Stereoskopische 3D-Funktion einrichten" wähle, startet ein Auswahlfenster im Vollbild mit den Auswahlmöglichkeiten:
USB-IR-Sender und Brille
Kabelbrille
Pro Hub und Brille
Discover Brille

Alles außer der Discover Brille setzt Vision Hardware vorraus und Discover ist für die farbigen Brillen.



In CyberLink PowerDVD 11 ist der Button für 3D zwar nicht mehr grau hinterlegt, wenn eine 3D BluRay im Laufwerk ist, doch aktivieren lässt es sich nicht...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klar hab ich nen 3D TV, sonst hätt ich gar nicht erst gefragt ;)
Ist ein Sony KDL-55HX925.

Funktioniert mit der PS3 wunderbar!
Am AV-Receiver ist natürlich PassThrough eingestellt, damit das Signal unverändert weitergeleitet wird :)
Und JA der AV-Receiver kann auch schon 3D - ist ein Onkyo TX-NR3008.
Kabel sind auch alles Highspeed with Ethernet (1.4) HDMI Kabel.
 
anscheinend hab ich da einfach falsch gelegen.. geht wohl nur mit Mitsubishi. Sonst hat keiner "3D vision-ready" im Aufgebot.. hatte das auf der CeBit gesehen, dachte das ginge bei jedem 3D Monitor mit 120 Hz. Der Nvidia Standard ist somit nicht vorhanden.

3D Glasses and Displays
 
Das funktioniert mit jedem 3D fähigen Fernseher, der im 3D Vision Treiber integriert ist. Bei meinem D6900 musste ich auch erst nachfragen, dann hat nVidia eine Datei von mir angefordert und mitlerweile ist er mit drin. Um in 3D spielen zu können, muss man allerdings eine Zusatzsoftware kaufen, kostet so um die 33€, dann kann man aber auf dem TV mit der zum TV gehörigen Brille zocken.

Irgendwo auf der nVidia Seite geistert eine Kompatibilitätsliste rum, einfach mal nach nVidia 3DTV Play oder so googlen.
 
Mhh ich hab mir das fast schon gedacht :(

Irgendwie versteh ich nVidia nicht mehr ...
Es gibt so viel was die zur Zeit falsch machen :wall:
Kein DTS-HD/True-HD per HDMI, kein 3D für normale 3D-TVs, kein 2D Takt bei 2 angeschlossenen Monitoren :(


Naja muss ich halt mal zur Konkurrenz wechseln -.-


@Blubber120

Meinst du die?
http://www.nvidia.de/object/3dtv-play-requirements-de.html#3dtvs
Da ist mein KDL-55HX925 natürlich nicht gelistet
 
Zuletzt bearbeitet:
Naja selbst wenn die es hinbekommen sollten, nervt der Zwang ihrer Software wieder, die ich sicherlich nicht mit EventGhost steuern kann :/
Und jedes mal aufstehen und mit der Maus hantieren nur um zu pausieren etc.

Nene, so langsam glaube ich echt, es ist wesentlich weniger kompliziert die Karte zu verkaufen, so lang die noch was wert ist und auf ATI umzusteigen.
Muss aber auch erstmal einlesen, ob die das können, was ich möchte (HD Sound, ordentlich runtertakten im Idle auch bei 2 Monitoren und 3D anstandslos übertragen).
 
Ich habe gestern Info von POV. zwecks meine defekten 580
Gtx erhalten. Meine Austauschkarte ist zu mir auf dem weg.kann POV nur loben die haben ich nen super Support. Haben immer prompt Aug fragen geantwortet.
Das Problem was ich jetzt habe, ist das ich mir schon eine evga gekauft habe. Jetzt weiss ich nicht ob ich die als sli laufen lasse oder verkaufen soll. Was meint ihr.
 
Du könntest den PC allerdings auch über ein iPhone/iPad oder ein anderes Smartphone bequem vom Sofa aus steuern ;)

Was ich nicht habe :cool:

Außerdem soll meine Harmony alles bedienen, das ist deutlich bequemer.
Ein Knopfdruck und der TV geht an, schaltet AV Receiver ein und wählt den passenden Eingang, startet PowerDVD und spielt den Film ab.
 
Ich habe gestern Info von POV. zwecks meine defekten 580
Gtx erhalten. Meine Austauschkarte ist zu mir auf dem weg.kann POV nur loben die haben ich nen super Support. Haben immer prompt Aug fragen geantwortet.
Das Problem was ich jetzt habe, ist das ich mir schon eine evga gekauft habe. Jetzt weiss ich nicht ob ich die als sli laufen lasse oder verkaufen soll. Was meint ihr.

Kannst Du Dir selbst beantworten... reicht die eine Karte irgendwo nicht?
Dann probier SLI aus, kannst dann ja immer noch entscheiden.
Ich hab es so gemacht und ich brauche kein SLi.
 
Danke für die Info. Ich glaube ich werde Sie hier im Forum anbieten. Wenn Sie aber nicht für einen entsprechenden preis weggeht probiere ich das mit sli aus.
 
Danke für die Info. Ich glaube ich werde Sie hier im Forum anbieten. Wenn Sie aber nicht für einen entsprechenden preis weggeht probiere ich das mit sli aus.

Wenn du ein NT hast, dass SLI schon abkann, würde ich es zuerst mal testen. Einfach weil man hier im Luxx einfach mal SLI gehabt haben muss :fresse:
Ich meine, los wirst du sie auf jeden Fall, deshalb gibt es die Möglichkeit "sonst teste ich SLI mal" wohl eher nicht.

Ich bin auch ziemlich sicher, dass ich kein SLI brauche, aber ich "brauche" auch keine Wasserkühlung. Was ich aber brauche ist genug Füllmaterial für mein 700D :stupid:.
Ich bin eher gespannt, ob ich durch SLI Nachteile hätte bzw. sie bemerken würde.
 
bislang lohnt sich ne 3GB Variante der 580gtx noch überhaupt garnet gell? ABgesehen von Multi Monitoren.

bekommt ihr die 1,5gb bei Full HD voll ? Können wir höchstens auf BF3, Batman, NFS, Skyrim, Driver etc warten. Is klar, dass keiner hellsehen kann, aber denkt ihr, dass die 1,5gb da überschritten werden können ? ( 1x 24" @ full hd )
 
Voll bekommt man den VRAM schon.
Crysis 2 mit DX11, Ultra Settings, High Res Texturen und Supersampling und der VRAM ist mit 1,45 - 1,5 ausgelastet.

Nur die 3GB Karten lohnen sich eher nur für SLI und selbst da komme ich locker mit 1,5GB aus.
 
Voll bekommt man den VRAM schon.
Crysis 2 mit DX11, Ultra Settings, High Res Texturen und Supersampling und der VRAM ist mit 1,45 - 1,5 ausgelastet.

Nur die 3GB Karten lohnen sich eher nur für SLI und selbst da komme ich locker mit 1,5GB aus.

DX11 gibt es kein SSAA/MSAA sondern nur FXAA das alte von Crytec oder den Hack

---------- Beitrag hinzugefügt um 17:23 ---------- Vorheriger Beitrag war um 17:22 ----------

Also ich hab @24 Zoll bei GTA4 schon 1,3 GB Vram voll, das Game frisst ganz gut.

Wie spielste das? Haste mal mit FXAA ohne DS versucht?
 
Zuletzt bearbeitet:
aber ohne SLI scheint ne 3gb echt nicht lohnenswert zu sein, und nicht mal da ?
 
Wie spielste das? Haste mal mit FXAA ohne DS versucht?

Noch net, ich hab da bisher gar nix eingestellt außer ingame alles auf maximum, Detail- und Sichtdistanz auf 50, sonst krebst man mit den FPS in unspielbaren Gefilden rum und bringen tuts auch net viel...
 
Zuletzt bearbeitet:
Wenn du ein NT hast, dass SLI schon abkann, würde ich es zuerst mal testen. Einfach weil man hier im Luxx einfach mal SLI gehabt haben muss :fresse:
Ich meine, los wirst du sie auf jeden Fall, deshalb gibt es die Möglichkeit "sonst teste ich SLI mal" wohl eher nicht.

Ich bin auch ziemlich sicher, dass ich kein SLI brauche, aber ich "brauche" auch keine Wasserkühlung. Was ich aber brauche ist genug Füllmaterial für mein 700D :stupid:.
Ich bin eher gespannt, ob ich durch SLI Nachteile hätte bzw. sie bemerken würde.


Ich habe nen ocz fatil1ty mit 700 Watt.
OCZ Fatal1ty Series Power Supply 700W *EOL - OCZ

Das sollte das schon schaffen. Ich gucken mal was ich mache wenn Sie da ist. Hätte damals nen crossfire gespann aus 2 hd4870. Das hat mehr Arbeit als Freude bereitet. Musste viele spiele umbenennen etc. damit crossfire skalliert.
 
Noch net, ich hab da bisher gar nix eingestellt außer ingame alles auf maximum, Detail- und Sichtdistanz auf 50, sonst krebst man mit den FPS in unspielbaren Gefilden rum und bringen tuts auch net viel...

Geh doch mal bei die Jungen in deren Fred, die modden doch da schon ewig drann rum, da findeste bestimmt zig Lösungen.
 
Bei OCZ NT´s stellen sich mir die Nackenhaare auf und die Alarmglocken schrillen. Technisch konnte noch kein OCZ NT überzeugen, da hätte ich angst um die Karten.
Wenn das SLI richtig gefordert wird, dann verspeisen die Karten das OCZ NT zum Frühstück.
 
Ich hab mich das mit dem SeaSonic 700Watt schon nciht getraut.. mit dem OCZ würd ich das ncith machen ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh