nVidia GeForce GTX 480 + FAQ - Bei Fragen bitte die erste Seite lesen!!! [Part 1]

Status
Für weitere Antworten geschlossen.
@ABA: Probier doch mal das SC BIOS aus. ;-)

Ach und BTW ... es gibt mittlerweile Inspector 1.7 ;-)

Ich hänge immer etwas hinterher, wo denn :stupid:

Ihr geht hier voll ab, habe nur mal bisschen mitgetaktet:fresse:

Bios draufziehen, bräuchte ich eine Anleitung:stupid:

Kann man endlich damit die Spawas auslesen ???
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hänge immer etwas hinterher, wo denn :stupid:

Ihr geht hier voll ab, habe nur mal bisschen mitgetaktet:fresse:

Bios draufziehen, bräuchte ich eine Anleitung:stupid:

Kann man endlich damit die Spawas auslesen ???


Version 1.7.0.1 -> http://download.orbmu2k.de/download.php?id=51

BIOS Update -> http://www.hardwareluxx.de/communit...editieren-und-per-nvflash-flashen-634387.html

Spawas sind im GPU-Z Testbuild drin aber funktioniert wohl noch nicht richtig.
[GPU-Z Test Build] Voltage monitoring for GTX 480 & GTX 470 - techPowerUp! Forums
 

Sehr geil, danke !

Muß ich mich einlesen:wink:

---------- Beitrag hinzugefügt um 23:43 ---------- Vorheriger Beitrag war um 23:43 ----------


Danke nochmal, super Tool. Damit kann man arbeiten:wink:
 
Wenn ich mir das die Standard Vcore der EVGA anschaue im verhältnis zum Takt glaube ich nicht das die beserre Chips haben.
Das laufen die anderren mit weniger Vcore und mehr Takt.
Sicher ist das so gewollt das auch der angehobene Takt stabiel läuft aber die 1900 Speicher und 725 GPU gehen auch bei den meisten mit 1V Vcore.

Mfg. Denny
 
Hab eh leider nicht die Zeit für "Extremebenching" ...

.

Schade ein ausführliches Review über die 480er in gewohnt guter Qualität wie dem 280er OC Thread wäre nice;)

Morgen werd ich erstmal Testen was die Speicherchips only so abkönnen bei Core Standardtakt mit variabler Vcore
 
Zuletzt bearbeitet:
Schade ein ausführliches Review über die 480er in gewohnt guter Qualität wie dem 280er OC Thread wäre nice;)

Morgen werd ich erstmal Testen was die Speicherchips only so abkönnen bei Core Standardtakt mit variabler Vcore

Ja, ... i try!

Also die vGPU macht da schon was aus, mit 1,1v laufen schon mal über 1100MHz.
 
Zuletzt bearbeitet:
Ich verstehs eh nicht so recht, ... wenn EVGA jetzt Karten mit 850MHz Core bringen wollte, dann ja, .. aber nicht bei lächerlichen 725?
 
Ohh hamer wie der Fermi geht! Die 500Watt sind aber der verbrauch der am Messgerät angezeigt wurde?? Weil da kann man ja dann mal eben 17% abziehen!
Ist auf jedenfall interessant was der fermi da an taktraten kann!
Daher weiß man was mit 32bzw 28nm aus dem fermi für ein monster wird!
Ich habe ja eine HD5970 noch auf standart takt würde mich aber sicher nicht wundern wenn ich diese mit wakü Übertakte das ich auch in regionen von um die 500-600watt vorstoße :fresse:
Mich würde ja brennend die min FPS bei BFBC2 ,am anfang wo die Panzer an einem vorbeifahren und explopieren (glaube zweites level), interessieren @1920x1080 4xAA 16xAF und wirklich alles auf max kann das bitte mal wer von euch testen???

Soll jetzt aber nicht in ein ATI VS NV ausarten mich interessiert einfach dieses Spiel! Mit einem Phenom 2 965BE (stock) und einer HD5870 hat man an dieser stelle laut Fraps min 22FPS und mit der HD5970 sind es 43FPS minimum alles @ stock!!

Edit: Hallo hat keiner von euch BFBC2 ???
 
Zuletzt bearbeitet:
Meine ist jetzt auch da



Bin ihr auch geich an die wäsche gegangen



und was passier das blöde fu*king Foxconn Bloodrage GTI ist mit der karte nicht kompatibel ...

Morgen nach Essen mein UD7 abhollen
 
Da fragste was ... ka ,wo sehe ich das den ?

xgw7omh73n8.jpg

Woche 4 / 2010
 
mhhh toll jetzt ist der kühler schon druf kann ich dir nicht sagen , was hat es den mit der fertigungswoche aufsich ?
 
Naja vielleicht werden die Teile ja besser taktbar mit fortschreitenter Fertigungs Erfahrung. Müsste man mal ABA fragen von wann seine is. Aber extra deswegen wieder abschrauben würd ichs auch nich.
 
Morgen werd ich ja sehen wie hoch ich mit der karte komme ich wollte aber auch wenn ich weit rauf komme so um breich von 850-870 chip takt bleiben / erst mal an das neue Mabo gewöhnen ...
 
Das, dass Foxconn Bloodrage GTI mit der GTX470/480 nur mit eine fehlercode 4E startet und ende ist ... auser man resetet das bios dann kann man einmal hochfahren und nach einem neustart geht das spiel von vorne los

Schade eig. ist so an sich an supper Board was mir auch gute dienste geleistet hat !
 
Das, dass Foxconn Bloodrage GTI mit der GTX470/480 nur mit eine fehlercode 4E startet und ende ist ... auser man resetet das bios dann kann man einmal hochfahren und nach einem neustart geht das spiel von vorne los

Schade eig. ist so an sich an supper Board was mir auch gute dienste geleistet hat !

Evtl. wirds ja mitm BIOS gefixt...

@all

So hab zumindestens meine 24/7 Settings gefunden :)

850/1700/2000 mit Stock VCore (1,025v)...

Bei Gelegenheit teste ich mal was bei mir so max. geht...
 
Zuletzt bearbeitet:
S.T.A.L.K.E.R. - Call of Pripyat Downsampling Screenshots (2520x1574, DX10.0, fast alles max. sowie 4xAA/16xAF - drinnen ging es gerade noch so, draußen dann der Diashow-Gau - wollt erst mal um die 3x00 x 2xxx probieren (die Umrechung ist doch nicht 2:1 wenn man etwa SSAA = 2.0 einstellt !), aber hier konnt das Savegame nicht geladen werden -> 896 MB VRAM total voll ?! :d )

Mein Fehler vorhin -> man muss dann im Game selber noch die neue Auflösung wählen. Also die 1536 MB der 480er werden da schon höhere Auflösungen schaffen - aber vor allem noch AA (von TSAA gar nicht zu sprechen) frisst verdammt viel Leistung. Wobei eine SGPU Karte mit 3 GB und doppelter GF100 Leistung wohl angebracht wär. :d
Laut CB-Bench mit ähnlichem Setting (2560x1600 und 4xAA/16xAF) sollten wohl etwas mehr als die doppelte Leistung mit der GTX 480 drin sein.





mfg
Edge
 
Zuletzt bearbeitet:
@ stim

Was sind für Rams auf der GTX480 von Palit verbaut?
Sind dort Samsung Speicher oder diese Hynix Speicher verbaut?

Danke
 
Bisher hatte ich nur 0.4er Samsung auf den Karten hier im Forum gesehn.

---------- Beitrag hinzugefügt um 09:20 ---------- Vorheriger Beitrag war um 08:22 ----------

Mal eine ganz blöde Frage, man sieht immer wieder Tests DX10 vs DX11 in Spielen wie z.B. Dirt 2.
Wie kann ich denn wählen welche API zum Einsatz kommt?
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh