Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Du nutzt also zwei monitore gleichzeitig? Kann ja sein, dass da irgendetwas dazuwischen funkt und die GPU auslastung falsch anzeigt. Könntest du nochmal testen, indem du nur einen Monitor nutzt?
Vllt könnte auch helfen, die Werte ins BIOS einzutragen und die Karte dann zu flashen. Was für eine ASCI besitzt die Karte/welche Standardspannung hat sie?

Jup genau..2...

Naja aber wie gesagt, wenn ich nichts takte wird die last ja Korrekt angezeigt^^ mit 2 Bildschrimen...könnte es eben testen klar...

Hm, mit flashen ist mir eig ein wenig heikel...oder kann man das mittlerweile bequem auf windows basis machen ....?

Std. Spannung ist 1,025v..mit asci kann ich grad nichts anfangen...vllt beantwortet das die Frage:

cc6.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ASIC: bei GPU-z oben auf der Leiste mit rechts draufklicken, dann "Read ASIC qaulity" anklicken. Aber ist nicht mehr nötig, da ich deine satndardspannung ja nun kenne.
Meine erste GTX 580 hat 1.000V und macht die 900MHz mit gut 1.113V vollkommen stabil, 925 müssten mit 1.138 funktionieren. Bei dir sollten rund 1.150V klappen, kann aber auch mit weniger funktionieren.

Jup, man kann auch schon in Wodnwos die Karte flashen.
Ich kann dir ja mal eben das bios erstellen. Allerdings würde ich vorher das alte BIOS speichern (GPU-z: neben den BIOS-Reiter auf den grünen Pfeil klicken).
Alles weitere dann hier (einlesen, wie man unter Windows flasht:
http://www.hardwareluxx.de/community/f14/nvidia-karten-bios-mit-nibitor-editieren-und-per-nvflash-flashen-634387.html
 
Ich teste eben erstmal noch die taktraten aus...die 925/1050 laufen jetzt seit 10min stable bei crysis bench....

Erstaunlich dass das Spiel heute noch schafft sone Karte auf 45fps durch schnitt runter zu kriegen ....

Ne art Performance Takt kann man im bios nicht einstellen ne ? Dass wenn die GPU bis So ind soviel Prozent ausgelastet ist std Takt, bei mehr die 9xx MHz.....

Jo hab jetzt auch 1,15v bei 925 MHz....

Also nen großes Risiko gibt's nicht mehr beim flashen...sonst wären 260euro weg ^^
 
Ich hab meine beiden EVGAs schon dutzende male neu geflasht. solange man das originale BIOS behält ist eigentlich alles in ordnung. normalerweise kann da rein gar nichts passieren:)

Wenn du einen dynamischen Takt haben willst, dann musst du dir eine GTX 680-660 kaufen xD Im BIOS kann man soetwas bei Fermi jedenfalls nicht einstellen.
 
Okay...kann man mit nen eigenen bios auch den Fehler umgehen dass doe Karte mit 2 Monitoren nicht in 2d umschaltet ?

Hab grad 950 am Laufen mit 1,15v :)
 
Okay...kann man mit nen eigenen bios auch den Fehler umgehen dass doe Karte mit 2 Monitoren nicht in 2d umschaltet ?

soweit ich weiß geht das leider auch nicht. Aber mit den Trick im nvidia inspector kann man das verhindern und den 2d modus erzwingen. Hier mal gezeigt wie:

(rechtsklick auf Show Overclocking)
 
Ok schau ich gleich mal...die 950 gehen auch ..20min crysis...sollte reichen oder?
 
Ich würde eher von mehreren Stunden sprechen. 20min sind nicht wirklich aussagekräftig. Lass mal Crysis 4,5 Stunden laufen, und sollte immer noch alles funktionieren, dann BF3 mehrere Stunden spielen. Erst dann kann man inetwa davon ausgehen, dass die Karte relativ stabil ist. Und wenn die Taktraten stabil sind, dann sollte man noch eine stufe höher gehen, bei dir also auf 1.163V (Im BIOS sind bis zu 1.215V einstellbar)um 100% sicher zu gehen, dass der Takt stabil ist :)
 
Ah alles klar ...danke erstmal. Ich lass jetzt mal laufen bis um 10 und schreib dann ^^


Ps: geh ich richtig in der Annahme dass der ram Takt relativ wenig aus macht ?
 
Ah alles klar ...danke erstmal. Ich lass jetzt mal laufen bis um 10 und schreib dann ^^


Ps: geh ich richtig in der Annahme dass der ram Takt relativ wenig aus macht ?

Je höher der GPU Takt, desto wichtiger ist Speicher-OC.
Bsp:
772/1544/2004 MHz gegenüber 800/1600/2004 MHz sind wohl rund 3,6% mehr GPU Takt und man erhält z.B. auch rund 3% mehr Leistung.
772/1544/2004 MHz gegenüber 950/1900/2100 MHz sind aber 23% mehr GPU-Takt, man erhält aber wohl nur noch rund 15-17% mehr Leistung. Erst, wenn man den Speicher 1zu1 mit der GPU übertaktet, erhält man auch 1zu1 mehr Leistung.
 
Naja den ram kriege ich nur auf Max. 1050...:(

Dann machen die 950 gar nicht soviel Sinn, Damm kann ich wig auch die 900 lassen und weniger vgpu geben.
 
Vllt sollte ich noch sagen, dass das Durchschnittswerte sind. In einigen Games bringt Speicher-oc mehr, in anderen weniger.
Ich würde trotzdem bei 950MHz bleiben, da man dadurch ja trotzdem mindestens 15% mehr Leistung bekommt. Wenn du die GPU ebenfalls um 5% übertakten würdest, dann hättest du gerade mal 810MHz und "nur" 5% mehr Leistung.

PS: Meine "gute" GTX 580 erreicht mit 1.215V rund 970-980MHz und gut 2400MHz VRAM :d
 
Vllt sollte ich noch sagen, dass das Durchschnittswerte sind. In einigen Games bringt Speicher-oc mehr, in anderen weniger.
Ich würde trotzdem bei 950MHz bleiben, da man dadurch ja trotzdem mindestens 15% mehr Leistung bekommt. Wenn du die GPU ebenfalls um 5% übertakten würdest, dann hättest du gerade mal 810MHz und "nur" 5% mehr Leistung.

PS: Meine "gute" GTX 580 erreicht mit 1.215V rund 970-980MHz und gut 2400MHz VRAM :d

Is ja echt krass was das für Unterschiede vom Ram her sind...denke mal mit 1,215v würde die auch auf knapp 1000mhz laufen aber der Ram is feddisch :d

Ich hab erstma eben abgebrochen, ich werd erstmal schauen ob die 2d/3d umschaltung immer funktioniert, weil sonst brauch ich eh immer den afterburner o.ä. ...

Wenns geht lass ich auf 900/1050 die Nacht durchlaufen bei(hoffentlich) 1,125v, dann flash ich das als Bios und würde dich da nochma per pn anschreiben...insofern sich da irgendwas nich selbst erklärt^^...Vielen dank für die Hilfe :)

Lernt man echt jedesmal neu das takten mit jeder Graka :d

Früher bei na 8800...zack takt rin feddisch :d
 
Zurzeit laufen meine beiden Karten "nur" bei 806-1612-2064 MHz mit jeweils 1,000 und 1,050V und bleiben noch relativ leise. Ich besitze das Referenz-design :)

Wenns geht lass ich auf 900/1050 die Nacht durchlaufen bei(hoffentlich) 1,125v
Früher bei na 8800...zack takt rin feddisch :d

Sollte wohl machbar sein (900MHz bei 1,125V):)
Naja, heute ist's eigentlich immer noch das selbe: Takt rein und testen.
 
Jo meine nur die Sache wegen dem Schutz z.b.^^

Soweit geht's mit der 2d/3d Geschichte...ich werd's dann die Nacht mal laufen lassen :)
 
Zuletzt bearbeitet:
mach das. Wenn du zufriedenstellende Settings gefunden hast, gib mir bescheid, und ich erstelle dir das BIOS :)


Eine Sache hab ich grad noch, der inspector zeigt ja 3 profile an, kann man ihm irgendwie sagen dass er bei anwendung xy auf das, und anwendung ab....auf das 3d Profil wechseln soll?

Denn Warcraft 3 kann ich auch mit 400Mhz spielen :d
 
Zuletzt bearbeitet:
Man könnte bestimmte Spiele auch in die Video-Applications packen, sodass die dann im P8 Status laufen. Bei der GTX 580 sind das dann 405MHz :d
 
Speicher mittakten ... ok. test ich mal :)
vielleicht liegts ja daran, dass ich nicht höher komm.

bei mir is übrigens Crysis2 der Stabilitätstest schlechthin/gutfürdafort
das zickt ja mal rum, geht ja gar nicht ... eigentlich läuft das nur mit Standardtakt stabil.

nen 2. Monitor hab ich beim Zocken immer an. normal. temperaturen und so.
keine Probleme.

@LSSJBroly: sich die fps zu limitieren hat einfach nur immense Vorteile find ich.
mehr BQ bei konstanterer framerate und niedrigeren Temepraturen.
wer seine frames nich limitiert, is selber schuld.

was nimmste? SSAA? SSGAA??? was?
SSAA? ich seh da Null Unterschied zu Multisample.
und den Unterschied zu nur AA denke ich bildet sich auch nur meine Zockerpsyche ein wahrzunehmen ...
siehste das echt???
 
@LSSJBroly: sich die fps zu limitieren hat einfach nur immense Vorteile find ich.
mehr BQ bei konstanterer framerate und niedrigeren Temepraturen.
wer seine frames nich limitiert, is selber schuld.

Ich habe doch schon geschrieben, dass ich auch den FPS-Limiter nutze:rolleyes:
natürlich nutze ich auch nen Framelimiter, allerdings kostet z.B. SGSSAA und ENB in Skyrim dermaßen viel leistung, dass selbst bei einem Limit von 59Fps die GPUs trotzem teilweise noch mit 99% auslastung laufen und noch bis zu 86°C heiß werden.

Mehr Bildqualität wollen und dann den unterschied zwischen MSAA und SGSSAA nicht erkennen können. Wer den nicht erkennt, sollte mal den Augenarzt besuchen, denn noch deutlicher kann Kantenglättung nicht sein;) Und das ist sicherlich keine Einbildung. Das sieht man einfach. Ich rede ja nicht con Standbildern, sonder von bewegungen, ingames halt. Und da gibt es häufig so viele Alpha-texturen, die auch noch extrem fein sind, die einfach nur vor sich hinwegflimmern. Da bekommt man ja Augenkrebs. Vor allem Skyrim profitiert davon gewaltig...

Schau dir mal das Video an...
http://www.youtube.com/watch?v=mOhXGgVQFo8&feature=plcp
 
Zuletzt bearbeitet:

Kepler war eine gewaltige Supernova und alle die auf GK110 warten erhoffen sich das gleiche vom Grafikchip ;)

Zur OC-Diskussion: Die Drosselung bei GF110 tritt immer dann in Kraft wenn bestimmte Parameter erreicht werden. Das sind Temperaturen der VRM, Mem und/oder GPU, Stromstärkewerte (A) und Schwankungen der Spannung (drop, droop). Der Treiber an sich hat auch eine integrierte Steuerung.

Genaue Werte sind im BIOS gespeichert. Grundsätzlich ist auch das Netzteil für den Erfolg und Misserfolg mitverantwortlich. Spannung kann eben so wie Alkohol unterschiedliche Qualität haben.
Wenn eure GPU-Auslastung 100% anzeigt heißt das übrigens nicht dass sämtliche ALUs arbeiten sondern dass der Scheduler ausgelastet ist.
Dead Island z.B. heizt einer GPU mehr ein als 99% der anderen Spiele am Markt.

LG Hübie
ps: habe jetzt aber nicht mehr alle Beiträge gelesen :P
 
Zuletzt bearbeitet:
Also für mcih war Kepler GK104 eher ein laues Sommerlüftchen, gerade bei der Mehrleistung zur GTX 580, den Makel des Midrange Chips wird der GK104 auch nicht los..
Aber ich bin da bei GK110 ganz zuversichtlich
 
Dito ist ja schön, dass Nvidia Kosten senken will, nur davon solle nicht der High-End Markt betroffen sein.
 
Also für mcih war Kepler GK104 eher ein laues Sommerlüftchen, gerade bei der Mehrleistung zur GTX 580, den Makel des Midrange Chips wird der GK104 auch nicht los..
Aber ich bin da bei GK110 ganz zuversichtlich

Sign

Die läppischen 30% mehr Leistung für rund 500€? Never. Wie gesagt, GK110 wirds wohl richten, wenn nicht, werde ich wohl noch etwas länger mit meinem SLI fahren.
 
Also für mcih war Kepler GK104 eher ein laues Sommerlüftchen, gerade bei der Mehrleistung zur GTX 580, den Makel des Midrange Chips wird der GK104 auch nicht los..
Aber ich bin da bei GK110 ganz zuversichtlich

Es ging darum:
OT:

Kennt jemand den Zusammen hang davon:



und davon:



? :)

Eine Supernova welche vor langer Zeit existierte wurde nach dem Wissenschaftler Johannes Kepler bennant. Dies war eine furiose Entdeckung und gab eine Menge Aufschluß. Von Kepler aká GK110 erwartet man eben auch eine Menge. Klar soweit? ;)
 
Zuletzt bearbeitet:
Moin! :)

Ich habe seit kurzem eine MSI GTX 580 Twin Frozr II OC im PC mit 772MHz GPU und 2200MHz Memorytakt.
Dazu noch ein Mod Bios, wo theoretisch eine Idle Drehzahl bis 20% möglich ist.
Eingestellt habe ich 30% und gehe auch nicht weiter runter.

Die Karte ist im Idle sehr leise, unter Last dreht der Lüfter bis 3100U/min hoch aber da ist definitiv noch bissl Spiel.
Temps liegen bei max. 76°. (Metro 2033)

Ich bin sehr zufrieden mit der Karte, könnte jetzt aber ohne Aufpreis eine Sparkle Calibre X580 bekommen.

CALIBRE

Mehr OC ist für mich völlig unwichtig. Bessere Temps sind immer gut aber da ist die MSI auch schon sehr gut.
Mir würde es bei dem Wechsel nur um die Lautstärke gehen.

Würde ich mich bei dem Wechsel bzgl. Lautstärke spürbar verbessern oder wäre der Aufwand Unsinn?


Danke schonmal,

Hatstick

P.S: Hoffentlich der richtige Thread, ansonsten bitte verschieben. Danke!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh