Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Letztens nochmal BF3 gebencht:
benchBF3TaktRAM.jpg

(BF3-Ultra Setting: PCGH-Benchmark "Operation Swordbreaker" - i7-2600K 4,5GHz, 16GiB DDR3-1600, GTX 580 1,5GiB)

Erst mit 5% GPU und 5% RAM-OC bekommt man auch die 5% mehr Performance. Allerdings sind zwischen 43,5 und 42,7 nur rund 2% (also sogut wie nichts)

Aber:
Bei 772 MHz + 5% RAM-OC : 1% mehr Fps.
Bei 810 MHz + 5% Ram-OC : 2% mehr Fps.

Das heißt nichts anderes: Je höher der GPU-Takt, desto wichtiger ist der RAM takt. Vor allem bei Metro 2033 macht viel RAM-Takt teilweise mehr aus als viel GPU-Takt (Deshalb sind die HD 7970/7950 teilweise so stark in dem game).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke. Sehr informativ die tabelle.

Worum es mir vor allem geht:

Meine beiden 580 kommen mit fullcoverkühler unter wasser. Vram wird also auch mitgekühlt.

Habe ich nun einen vorteil die gute teure wärmeleitpaste für die vrams zu nehmen, habe ich da einen vorteil beim vram übertakten? geht dann mehr takt? Oderbringts nur mehr lebensdauer?
Ich mein die temperatur vom speicher kann man ja nirgends auslesen oder?
Dann kann ich eigentlich auch die günstige mx2 nehmen und nur für den gpu chip die teure. Sind ja immerhin 24 ram-chips die da bestrichen werden wollen, da ist ne tube schnell leer.
 
Zuletzt bearbeitet:
Ob und wie stark das VRAM-OC jetzt von der Temperatur abhängt, kann ich nicht genau sagen. Ich weiß nur, dass je kälter die GPU, desto höher der Takt (stabil) - hab es dieses Jahr im Winter getestet (Spannung auf 1,215V und bei -5°C Raumtemperatur meine erste Karte auf 980 MHz durch mehrere Benchmarks gejagt -Referenzkühler (etwa 25°C bei 100% Fanspeed) xD)
Den RAM hatte ich einfach mal auf-gut-glück mit 2400MHz laufen lassen. Ist mir aber auch nicht abgeflogen.
 
Zuletzt bearbeitet:
Minus 5 grad raumtemperatur?

Wo hast du das gebencht, draussen im iglu? :-)


Ich meine mal in der pcgh gelesen zu haben dass vram kühlung nur lebensdauer verlängert. Also anders als bei der gpu selber.
Ähnlich normalem pc hauptspeicher. Da sind die heatspreader ja auch eher zur zierde angeblich.
Kann den artikel aber nicht mehr finden.
 
Temperatur draußen lag bei rund -17°C, hab in meinem Zimmer gebencht xD

Ich würde einfach nur sorgen, dass auf jedenfall Kühlfläche auf den VRAMs liegt und dann "einfach" ausporbieren.
 
Das heißt nichts anderes: Je höher der GPU-Takt, desto wichtiger ist der RAM takt. Vor allem bei Metro 2033 macht viel RAM-Takt teilweise mehr aus als viel GPU-Takt (Deshalb sind die HD 7970/7950 teilweise so stark in dem game).

Das kann ich so nicht stehen lassen. Die Tahiti-GCN-Karten sind nur durch die Berechnungstärke weiter vorn. Der RAM-Takt ist da der kleinste Faktor. Die 4A-Engine berechnet die Tiefe für jedes Objekt und die damit einhergehende Tiefenunschärfe. Afaik mittels raytracing. Genau weiß ich dass nicht mehr.

Der RAM-Takt ist oftmals nebensächlich weil schon ab 2100 MHz die Fehlerkorrektur Latenzen fabriziert. Moderne Speicherchips arbeiten hier bis 2400 MHz verlustfrei. 2500 MHz verlängert Latenzen und ab 2600 MHz greift auch hier oft die Fehlerkorrektur.
 
Das kann ich so nicht stehen lassen. Die Tahiti-GCN-Karten sind nur durch die Berechnungstärke weiter vorn.

Das kann ich aber so nicht ganz so stehen lassen ;)
Natürlich hat Thaiti ne extrem brutale Rechenleistung, aber Computerbase hatte damals die HD 7970 mit der selben Bandbreite wie die HD 6970 laufen lassen. Mit 264GB/s im Vergleich zu den 177GB/s ist die HD 7970 rund 30% schneller, was bei 50% mehr Bandbreitet schon beeindruckend ist und in anderen games, wie Anno 2070 sogut wie kaum durchschlägt.
Test: AMD Radeon HD 7970 (Seite 20) - ComputerBase
 
Zuletzt bearbeitet:
Na ja aber das ist eben nicht der ausschlaggebende Faktor. Es ist auch nicht produktiv dass SI zu beschneiden - klarer Fall - aber in Metro 2033 braucht man eben Rechenpower. Bandbreite ist eine logische Konsequenz aus Rechenkraft.
Ich denke wir verstehen uns. Wollte dass lediglich mal klar herausstellen.
 
Na ja aber das ist eben nicht der ausschlaggebende Faktor. Es ist auch nicht produktiv dass SI zu beschneiden - klarer Fall - aber in Metro 2033 braucht man eben Rechenpower. Bandbreite ist eine logische Konsequenz aus Rechenkraft.
Ich denke wir verstehen uns. Wollte dass lediglich mal klar herausstellen.

Klar;)

Edit: Hab mal direkt meine GTX 580 etwas in den Arsch getreten
benchMetro2033TaktRAM.jpg

(Metro 2033 - PCGH Benchmark -"Verfluchte Station" max. Settings @1.920 x 1.080; 4x MSAA, 16x AF - alle Werte der anderen Karten (GTX 660, 660 Ti, 670, 680, HD 7950, 7970) sind von PCGH mit aktuellen Treibern)


Wie man schön erkennen kann: Je höher der GPU Takt, desto mehr wirkt sich Speicher-OC aus (was aber schon von Anfang an klar war;))
Interessant: Mit 925 MHz kommt die GTX 580 trotz 20% GPU-OC nur knapp 10% von der standard 772 MHz weg. Mit Speicher-OC geht es richtung 20%. Und: Man nähert sich der Radeon HD 7950 Boost gewaltig an. 100 MHz mehr Speicher, also ebenfalls 2500MHz und somit 240GB/s Bandbreite, und man sollte letzten Endes gleich schnell sein.

Interessant: Die GTX 600er leiden wirklich stark an der nierigen Speicherbandbreite... Da muss bei der GTX 700 auf jedenfall was Passieren (wird es aber auch). Mal schauen, ob ein GK110 an ein GTX 580 SLI rankommt xD


@gabbyjay
Hab mal mit 2.404 MHz getestet (Metro 2033)
-Bei über 80°C GPU temp hab ich recht viele Bildfehler sehen können (gelbe Punkte)
-bei um die 70°C GPU temp (Fan: 85%) sind diese Fehler nicht mehr aufgetaucht. VGPU lag bei 1,175V (um 100% sicher zu gehen, dass die Karte den Speicher-Takt mitmacht :))
 
Zuletzt bearbeitet:
Also scheinen sich die temperaturen vom im chip integrierten speichercontroller mit aufs vram auszuwirken.
Oder liegt es daran dass der lüfter das vram mit belüftet?

Super leistung von dir jedenfalls. Solche vergleiche sind gold wert.

Man müsste einen temperaturfühler am vram anbringen...
 
Also scheinen sich die temperaturen vom im chip integrierten speichercontroller mit aufs vram auszuwirken.
Oder liegt es daran dass der lüfter das vram mit belüftet?

Super leistung von dir jedenfalls. Solche vergleiche sind gold wert.

Man müsste einen temperaturfühler am vram anbringen...

Wie gesagt, besitze das Referenz-design. Und da liegt die Metallplatte (Grundplatte) direkt auf die Vram-chips, werden also indirekt durch den Luftstrom des Radiators mitgekühlt. Temperaturen wirken sich anscheinend ebenfalls auf die OC-fähigkeit es Rams aus. Um das aber genauer zu beobachten, müsste man da deutlich länger testen (Außerdem lag die Spannung bei recht hohen 1,175V, was deutlich mehr ist, was ich meiner Karte 24/7 zumuten würde).
 
Interessant: Die GTX 600er leiden wirklich stark an der nierigen Speicherbandbreite... Da muss bei der GTX 700 auf jedenfall was Passieren (wird es aber auch). Mal schauen, ob ein GK110 an ein GTX 580 SLI rankommt xD

Das garantiere ich dir ;) Problem bei den meisten Tests die immer noch online sind ist, dass die mit release-Treibern getestet haben und entsprechend gar nicht dass reelle "Weltbild" der Performance wiederspiegeln. Bestes Beispiel ist der aktuelle AMD-Treiber welcher in BF3 mit GCN-Karten noch mal einen ordentlichen Schub heraus holt.
Ähnliches gilt für Metro. Gut das du dir die Arbeit gemacht hast um anständige Vergleiche aufzuführen. Jedoch ist die Heterogenität auf der Strecke geblieben. Für gewöhnlich reagieren nicht viele Spiele proportional zum OC. Meiner Meinung nach krankt es beim GF110 an zu starken/vielen ROPs in Relation zu den Cores und des VRAMs. Die werden nie richtig ausgelastet.
 
Schön, dass die PCGH mit aktuellen Treibern bencht (alle anderen Werte der anderen Karten stammen von PCGH und sind somit aktuell - so liegt eine HD 7970 (nicht GHz Ed.) inetwa auf GTX 680-niveau, die GHz. Ed. nochmal ein gutes stück davor)


Ja, Metro ist da so ein extrembeispiel, was Speicher-OC angeht. Skyrim ist da das komplette Gegenteil. Das profitiert sogut wie kaum davon. Dafür kommt GPU-OC 1zu1 an, sowie in den meisten Games, wenn man die GPU und den Speicher im Verhältnis gleich hoch zieht:).
GF110 hat aber wirklich im Verhältnis starke 48 ROPs. Zum glück würde es bei GK110 ebenfalls wieder 48 geben :)


Das beste kommt aber noch: Hab heute den neuen Beta 310.61 ausprobiert (Skyrim-ENB-SLI Fehler sind wohl weg :d) und mal SLI gegen single verglichen:
GTX 580 @806/1612/2064 MHz - 38,8 Fps
GTX 580 SLI @ 806/1612/2064 MHz - 80,8

-> Mehr als doppel so viele Fps?!? Skaliert etwas zu gut, wie ich finde xD
 
Zuletzt bearbeitet:
Frage ich mich auch, vor allem, da die beiden Karten nur mit jeweils 8 lines laufen (die einzelne Karte aber mit 16 lines)
 
Man bräuchte Auslastungsgraphen der GPUs und CPU-Kerne. Dann könnte man schon recht einfach herausfinden woran es liegt. Meine Vermutung: Die CPU wird mit einer Karte nicht ausgefahren.
 
Oh doch. GPU Auslastung ****** beide male 99% (bzw. 98% im SLI) somit vollständiges GPU limit. Und mit nem 4,5GHz Sandy und eben 4 SGSSAA + ENB limitiert selbst in Skyrim die CPU nicht mehr (zumindest mit einer GPU)
 
891_2291_1,025V_max75ºC_fpslimit45

find ich ganz angenehm so :)
die GPU würd mehr machen. hat sie auch schon. nur der RAM nicht.
evtl wird der auch zu heiß.
 
Zuletzt bearbeitet:
890 MHz mit nur 1.025V? Respekt, wobei ich das fast schon nicht glauben kann, dass die GPU vollkommen stabil ist;) Meine bräuchte zwischen 1,088 und 1,1V für diesen Wert :/ (ist dann aber auch 99% stable (alle meiner Games))
 
Das ganze ist schon etwas komplexer als die 99% welche dir angezeigt werden. Schau bspw. mal mit t_monitor wie die CPU hin- und herspringt. Deine MCUs der Grakas werden im SLi sicher auch mehr belastet als ohne etc... Ich hatte damals auch einige Fälle wo PCIe x8 schneller als x16 war. Also so verwunderlich ist das nun nicht ;-)

@slot108: mit fps-limit auf 45 ist das aber nicht soo sinnvoll ;-)
 
ob das stable is, sei mal im Raum stehen gelassen.
lief gestern 3 Stunden lang super mit Crysis2, Skyrim und BF3.
bis 857MHz muss ich nicht an der Spannung drehen.

@Hübie: für Dich mag ein fpslimit von 45 nicht so sinnvoll sein, vielleicht.
für mich selber find ichs wundervoll! ich übertakte wegen der minfps und für mehr BQ :d
 
Das ganze ist schon etwas komplexer als die 99% welche dir angezeigt werden. Schau bspw. mal mit t_monitor wie die CPU hin- und herspringt. Deine MCUs der Grakas werden im SLi sicher auch mehr belastet als ohne etc... Ich hatte damals auch einige Fälle wo PCIe x8 schneller als x16 war. Also so verwunderlich ist das nun nicht ;-)

Naja, eigentlich kann ich mich ja nicht beklagen xD
 
890 MHz mit nur 1.025V? Respekt, wobei ich das fast schon nicht glauben kann, dass die GPU vollkommen stabil ist;) Meine bräuchte zwischen 1,088 und 1,1V für diesen Wert :/ (ist dann aber auch 99% stable (alle meiner Games))
da hab ich heute noch ein paar mal drüber nachgedacht.
seit nem knappen Jahr zock ich, wenn ich mein es zu "brauchen", statt mit den standard 783MHz mit 857gpu, 2228vram bei unveränderter Spannung von 1V. 1GHz lief hier testweise auch ohne große Probleme bei, ich glaube, nicht mehr als 1,05V (bis auf die temps, was klar sein dürfte), allerdings ohne VRAM oc.
dann hab ich seit Deinem post was GPU und VRAM oc angeht nochmal gerechnet und versucht, um den VRAM anzugleichen und habs bisher beste Ergebnis hier mal zum besten gegeben.

wenn das hier alles nicht trügt, schein ich ja ne kleine Monster-GPU abbekommen zu haben.
schade, dass ich nicht auf WaKüs steh ...
 
Wenn die wirklich mit sowenig Spannung vollkommen stabil ist, ist das wirklich ne sehr gute GPU. Dagegen ist meine zweite GTX 580 ein totaler Krüppel... braucht für 806 Mhz schon 1,05V ...
 
Komisch. Bei mir läuft die fast immer mit 770 MHz und 0.988 Volt. Ich mach auch wenns geht SGSSAA etc. an, aber wirklich fordernde Spiele sind mir abseits von BF3 und Crysis 2 selten begegnet. Skyrim, Dishonored, Rage, Dirt und Guild Wars 2 laufen jeweils mit SSAA. Das härteste war immer noch the Witcher 2. Ist auch nur DX-Level 9.0c. Übertakten musste ich bisher wenig bis gar nicht, weil es entweder die fps-nicht so hoch riss um es zu rechtfertigen und/oder das jeweilige Spiel schon out-of-the-box sehr gut läuft.

GK110 kauf ich mir nur damit ich statt 2x auch mal 4x oder gar 8x SGSSAA nutzen kann (bpsw. in Skyrim).
 
Meine erste GTX 580 (Von Februar 2011) läuft bei 772 MHz auch noch mit 0.975/0.988V. Die andere ist einfach schlechter, obwohl neuer :)

Mein SLI wird auch sofort aufgegeben, sobald es GK110 als GTX 780 zu kaufen gibt. Damit hab ich dann weiterhin GTX 580 SLI-Performance, aber doppelt so viel VRAM und spare wieder etwas strom xD
Immerhin, mit zwei GF110 ist zum Glück 4x SGSSAA in Skyrim kein Problem mehr -teilweise noch CPU-limit mit nem 4,5 GHz i7-2600K. Mit ENB wird es schon härter, aqber bin immer noch bei über 50Fps, egal wo, egal wann :)

Und falls dann irgendwann noch mehr Power benötigt wird kommt einfach ne zweite hinzu - aber dann ohne VRAM-Krüppel :d
 
Zuletzt bearbeitet:
Und bei mir kommt hoffentlich eine zweite bald rein.:d
 
Ist auf jedenfall ein netter Leistungssprung, war (bei mir) auf keinen Fall ein Fehler SLI endlich mal auszuprobieren.
 
Problem wird die (lautlose) Kühlung werden und da entscheidet sich's ob es SLI wird oder nicht.

Muss irgendeine Speziallösung wie die jetzige werden.:d
 
Zuletzt bearbeitet:
Bei SLI eigent sich "leider" das Referenz-Design mit am besten dafür. Bei anderen Kühlern bleibt die Warme luft im Gehäuse und heizt die andere Karte stärker auf, sodass die noch lauter als das Referenzdesign werden kann. Die beste option wäre aber ne WaKü :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh