Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und da glaubst Du das das jetzt an der Karte lag mit BFBC2? Den Fehler im Spiel kann ich dir mit ner Asus DC2, ner PoV und ner Gigabyte 580er zeigen.

Haltet mal lieber nen Thermometer in euer Case und schaut welche Temperaturen da herschen. Das ist nichts neues das OC Modelle nicht bei jedem stable laufen wenns zu warm im Kasten ist.

:lol: meine Karte kam nie über 83°C und an den SpaWas nie über 65° ... also jetzt mache mal bitte einen Punkt hm...

Ich kann es einfach nur anhand der Blackscreens und Artefakte nachvollziehen - und übrigens, die beiden 570er beim Bekannten laufen unter Wasser :wayne:

Fakt ist das ich jetzt die Austauschkarte abwarte und mir das ganze anschaue.

Zu warm wird in meinem Sys definitiv nichts - das steht mal fest.

lg

Marti

P.S: Jetz erstmal auf Arbeit :grrr:
€dit: übrigens muss ich auch sagen das nicht alle betroffen sein können, die von mir verkaufte 570 hatte imo das Problem nicht... ich warte einfach ab und werde berichten.
 
Zuletzt bearbeitet:
Hi,
Ich hab nun auch endlich meine GTX580.. leuft recht gut mit 1.00v auf 850mhz und 1.15v auf 1050mhz ... nur die Kühlung reicht nich so ganz :( Also auf welchen Kühler sollte ich umsteigen?? Den prolimatech mk13 oder den Alpenfön Peter??
der AC II kommt nicht in frage..

Wenn du genug platz im Case hast bzw. die Slots unter der Karte nicht nutzt, dann greif zum peter ;)
 
Wieso kannst Du die Spawas-Temp auslesen??

Ich verstehe gar nicht, was gegen nen AC2 spricht?!?
 
:lol: meine Karte kam nie über 83°C und an den SpaWas nie über 65° ... also jetzt mache mal bitte einen Punkt hm......

Ich rede nicht von der Karten Temperatur. Die Case Temperatur ist viel entscheidener! Da sind ganz andere Bauteile von betroffen dessen Temperatur Du nirgendwo auslesen kannst.

Die Probleme gab es schon zu Zeiten des P4, dort wurde eine maximale Case Temp eingeführt. Dort meinten auch ziemlich viele Leute die CPU hätte einen an der Mütze weil sie throttelt. Es lag aber schlicht und einfach an der zu hohen Case Temp.

Und gerade die ganzen "Aftermarket tauge nichts Kühler" mögen zwar die Core Temp im Rahmen halten, aber das war es auch schon. Aber für die Kiddies von Heute zählt ja nur noch das und dann wundern die sich weil hinterher die Karten die Grätsche machen.

Ich denke da nur an eine Gainward Karte die mein Bruder mit nem MK13 ausgestattet hatte. Bei 900MHz mit Spannung XX nur 6x°C Coretemp aber ständig abstürze.

Mit dem "ollen aber tollen" Originalkühler zwar fast 30° mehr aufm Kern aber stable!

Aber wir alten Säcke haben ja keine Ahnung ^^
 
Und da glaubst Du das das jetzt an der Karte lag mit BFBC2? Den Fehler im Spiel kann ich dir mit ner Asus DC2, ner PoV und ner Gigabyte 580er zeigen.

Haltet mal lieber nen Thermometer in euer Case und schaut welche Temperaturen da herschen. Das ist nichts neues das OC Modelle nicht bei jedem stable laufen wenns zu warm im Kasten ist.

Dem muss ich leider widersprechen - BFBC2 läuft bei mir trotz meiner Schrott EVGA 580 GTX FTW absolut problemlos weshalb es meiner Meinung nicht nur am Spiel liegen kann (mit den 270.62 und 275.35 Treibern ausführlich getestet) - sorry habe erst jetzt gelesen das Du ein T-Problem vermutest. Bei Crysis I +II, Dragon Age II und Civilization V läuft die Karte dafür nicht einmal mit 1,113 stabil (back to Desktop, Black Screen alles was man so will) mit den Werkstaktraten sondern nur mit 840 Mhz. Werde die Karte einschicken und hoffe nicht zu lange auf eine Neue warten zu müssen. Habe keine Lust mehr die Spannung noch weiter zu erhöhen. Die angeführten Spiele sind scheinbar ein guter Test für die Stabilität von (Werks)übertakteten GKs. Mit 3DVantage, Heaven Benchmark, GPU tool, COD etc. hatte ich komischerweise keine Probleme und sind daher nicht unbedingt aussagekräftig - irgendwie habe ich dafür bis Dato noch keine Erklärung dafür. Generell bin ich der Meinung dass viele Übertakteten Karten mit LK entweder zu heiss werden oder einfach nicht stabil mit eingestellten Spannungswerten laufen.
 
Zuletzt bearbeitet:
Moment - Dragon Age 2 macht bei jedem Probleme.. das ist ein bekanntes Treiberproblem. Steht sogar auf der letzten Seite hier im Thread.
Wie das mit C5 ist weiß ich nicht, aber wenn BC2 läuft, hat die Karte kein Problem. Ganz sicher nicht!

Edit: auch C5 macht generell Probleme mit NVIDIA 5xx, das Netz ist voll davon.

http://forums.civfanatics.com/showthread.php?t=137370

Hast Du Crysis 1 oder Warhead? Dann lass mal den Bench 99 Loops auf maximalen Settings mit 1.088v laufen.. schafft die Karte das und BC2 ist die Karte in Ordnung.
 
Zuletzt bearbeitet:
Wäre schön - Habe aber leider keine Idee warum mir auf einmal auch Crysis I und Civilization V (liefen auf meiner 480GTX problemlos) und auch Crysis II (hatte ich vorher noch nicht) reproduzierbar abstürzen. Die genannten Spiele laufen mit 1,113V und 840 Mhz GPU Takt problemlos - irgenwie muss es doch an der GK lieben. Bin echt rat und planlos. Habe einmal meinem Händler geschrieben und hoffe auf eine kulante Lösung - bin ein treuer Stammkunde der zuviel Geld in HW investiert die eigentlich nicht notwendig wäre...
 
Zuletzt bearbeitet:
Achso - die auch.
Ok, Treiber noch mal runter und die neuen Beta Treiber mal installieren.
Ist es dann immer noch so, dann solltest Du Dich an EVGA wenden.
Du solltest auch nur ein Tool installiert haben.. laufen Precision und Afterburner kann es zu Problemen kommen.

Dein Händler hilft da nicht. Wende Dich direkt an EVGA... der Austausch dauert echt nur ein paar Tage. 4-5 .. mehr nicht.
 
Zuletzt bearbeitet:
Hallo Dozer3000,

Danke für den Tip - verwende nur mehr den Afterburner da man bei EVGA Precision keine Spannungen einstellen kann. Der NV Inspector verliert komischerweise häufig die Spannungseinstellungen. Drück mir die Daumen dass ich ohne lange zu Warten eine Austauschkarte kriege. Habe mir auch überlegt die Spannung noch etwas weiter zu erhöhen um 850 Mhz. hinzukriegen - warte aber vorerst einmal ab wie mein Händler reagiert - sonst wende ich mich direkt an EVGA und wenn ich da mit einem raschen Austausch scheitere muss ich mir überlegen ob ich damit leben kann oder nicht. Auf jeden Fall warte ich mit dem BIOS flashen (worst case) noch die Reaktionen meines Händlers/ EVGA ab. Ist echt bitter 600€ für eine Karte auszugeben die schlechter als die schrottigste Standard 580 GTX ist. Einmal kann man ja auch Pech beim HW Kauf haben. Hatte bis Dato genug "Glück". Was ist Deiner/ Eurer Meinung nach die maximal alltagstaugliche Spannung bei der die Karte zumindest ein Jahr überlebt? Beta Treiber werde ich noch probieren - erwarte mir aber keine Verbesserung.
 
Zuletzt bearbeitet:
Ist die Karte noch zu empfehlen?

Lese hier ein paar Seiten vorher was von artifact Bugs?
Oder ist das mehr ein anderes Problem?
 
Meiner Meinung nach schon - glaube nicht an irgendwelche allgemeinen Probleme sondern dass dies meistens ein Temperatur oder Spannungs-/ GPU Clock Problem ist da die Karten meiner Meinung nicht ausreichend getestet werden. Auch die aktuellen 275.xx Treiber sind nicht als besonders ausgereift bekannt.
 
Ja absolut - die beste Karte auf dem Markt.
-----
Das wird schon, EVGA hat immer noch den besten RMA Service.
 
Ich rede nicht von der Karten Temperatur. Die Case Temperatur ist viel entscheidener! Da sind ganz andere Bauteile von betroffen dessen Temperatur Du nirgendwo auslesen kannst.

Die Probleme gab es schon zu Zeiten des P4, dort wurde eine maximale Case Temp eingeführt. Dort meinten auch ziemlich viele Leute die CPU hätte einen an der Mütze weil sie throttelt. Es lag aber schlicht und einfach an der zu hohen Case Temp.

Und gerade die ganzen "Aftermarket tauge nichts Kühler" mögen zwar die Core Temp im Rahmen halten, aber das war es auch schon. Aber für die Kiddies von Heute zählt ja nur noch das und dann wundern die sich weil hinterher die Karten die Grätsche machen.

Ich denke da nur an eine Gainward Karte die mein Bruder mit nem MK13 ausgestattet hatte. Bei 900MHz mit Spannung XX nur 6x°C Coretemp aber ständig abstürze.

Mit dem "ollen aber tollen" Originalkühler zwar fast 30° mehr aufm Kern aber stable!

Aber wir alten Säcke haben ja keine Ahnung ^^



das problem kenne ich auch noch :wink:
und ich bin net so alt ^^
allerdings kann ich dich beruhigen, mein shinobi ist voll bestückt und die 580 hatte den referenzkühler drauf... temperaturen messe ich mit nem Infrarot thermometer, das geht echt gut... die casetemps lagen an den warmen tagen bei max 56°c, das war aber bevor im Deckel noch 2 Lüfter eingezogen sind. mittlerweile maximal leicht über Raumtemperatur :-)

bekomme jetzt so wie es aussieht eine gtx 580 AMP hoch2 (das Zeichen hat mein android nicht :fresse: ) - mal schauen, dort ist ja von werk her ein anderer kühler (zalman) verbaut...

lg Marti
 
Zuletzt bearbeitet:
Ich hab meine EVGA GTX 580 auch schon seit anfang Februar, und bei mir sind bisher auch noch keine Artefakte aufgetreten. Zurzeit läuft meine mit 800/1600/1025 bei 0,875V. Selbst da treten keine Probleme auf.


Muss ich aber noch mal etwas länger testen, um zu sehen, ob die karte das wirklich 24/7 schafft.
 
Mit welchen Spielen hast Du die Stabilität getestet? Kann Dir Crysis empfehlen - wenn die Karte das ohne Absturz/ Artefakte überlebt kannst Du meiner Meinung nach davon ausgehen, dass die Karte stabil läuft. Bei der Spannung werde ich richtig neidisch.
 
Mit welchen Spielen hast Du die Stabilität getestet? Kann Dir Crysis empfehlen - wenn die Karte das ohne Absturz überlebt kannst Du meiner Meinung nach davon ausgehen, dass die Karte stabil läuft. Bei der Spannung werde ich richtig neidisch.

Probier ich mal aus, ich hoffe ja sehr, dass sie Stabil bleibt xD
Immerhin, mit 1.000V schafft sie 830 MHz, mit 1.088V immerhin die 900.
Danach ist aber irgendwie schluss... selbst mit 1.150V kommt sie nur auf etwa 930-940MHz...
 
Das klingt super falls die Karte wirklich stabil ist - meine EVGA FTW schaffte bei Crysis I und II mit 1,088V nicht einmal 824 Mhz. Probiere aber wirklich einmal Crysis - dachte auch dass meine Karte stabil läuft. (hatte bis auf die von mir genannten Spiele auch nirgends Probleme)
 
Zuletzt bearbeitet:
Das klingt super falls die Karte wirklich stabil ist - meine EVGA FTW schaffte bei Crysis I und II mit 1,088V nicht einmal 824 Mhz. Probiere aber wirklich einmal Crysis - dachte auch dass meine Karte stabil läuft. (hatte bis auf die von mir genannten Spiele auch nirgends Probleme)

hab mal eben 4 loops durchlaufen lassen, keine Probleme...
Das schöne, der Lüfter dreht gerade einmal nur bis knapp 60% auf, bei etwa 80°C^^

Ohne Optimierungen drehte der Lüfter bis zu 68% bei 86-87°C auf:fresse:
Hab da auf jedenfall noch spielraum für optimierungen^^

Werde aber auf jedenfall noch mal etwas länger testen lassen. 4 loops sagen ja sogut wie gar nichts aus.
 
Dem muss ich leider widersprechen - BFBC2 läuft bei mir trotz meiner Schrott EVGA 580 GTX FTW absolut problemlos weshalb es meiner Meinung nicht nur am Spiel liegen kann...

Ich meine nur Bildfehler wie hier im Video zu sehen. Abstürze oder Blackscreens haben "meist" eine andere Ursache.

Mal ganz banal, haste mal nen 120er Lüfter vor die Karte gespannt damit das PCB gekühlt wird?

Zufällig noch ne zweite Platte im Haus auf der Du mal nen frischen OS aufsetzen könntest?
 
Ich meine nur Bildfehler wie hier im Video zu sehen. Abstürze oder Blackscreens haben "meist" eine andere Ursache.

Mal ganz banal, haste mal nen 120er Lüfter vor die Karte gespannt damit das PCB gekühlt wird?

Zufällig noch ne zweite Platte im Haus auf der Du mal nen frischen OS aufsetzen könntest?

Was für eine Map ist das?

Werde das mal mit 1 und 3 Karten testen, mit und ohne oc ok?
 
Mag jemand eine niegelnagelneue (vom Zotac Support nur geöffnet wg. Funktionsprüfung) Zotac GTX580 AMP²! 3Gb haben? Kommt morgen aus der RMA zurück. Garantieabwicklung etc. pp über die Mitgelieferten Gewinnunterlagen ohne Probleme möglich ----> PN me...

Bin mit der EVGA GTX 560ti 2Gb dermaßen zufrieden nach nem halben Tag Testing das die jetzt drin bleibt. :wink: (und evtl später noch nen Brüderchen einzieht)

lg

Marti
 
Zuletzt bearbeitet:
Was willst mit den Spielzeugkarten?
Bevor ich zwei solche für SLI nehme, nehme ich die AMP mit 3GB.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh