nVidia GeForce GTX 480 + FAQ - Bei Fragen bitte die erste Seite lesen!!! [Part 1]

Status
Für weitere Antworten geschlossen.
Ich denke immer noch das dies der großen Serienstreuung geschuldet ist,denn wenn ich den Chip mit 0.950 im Full Load stabil bekomme dann sollte mit Taktraten im Idle von 50/100/67 doch eine 0.8er Vcore möglich sein

Kannst du das Bios wenigstens schon auslesen?

Würde mich mal interessieren ob es eine Taktdomain für Multimonitoring gibt wie bei ATI.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es -> 405/810/924 MHz (also leider voller Extra GDDR Takt; die VCore ist dann leider auch gleich also ~ 1V - 1.0xV - darum wohl der hohe Verbrauch).

Von CB:

206si.png




Zu sehen - hier bei der 470er:

http://www.hartware.net/review_1079_6.html
 
Zuletzt bearbeitet:
okay dann sollte man da erstmal schauen das es mit weniger Vcore geht. Speicher ist nicht zu ändern.

Hoffen wir das bald der Editor greift.
 


:hmm: das mit P8 verstehe ich nicht bzw warum diese Taktung nicht aktiv für Mutimonitoring genutzt wird anstatt der vollen Speichertaktung bei P3


Ich nehme an Nvidia hat immer noch im Treiber das Problem der Lasterkennung bei Multimonitoring und somit setzt sich das fort wo sie beim g200 aufgehört haben:shake:
 
Zuletzt bearbeitet:
P8 ist wohl 3D für 1 x Monitor. Reicht anscheined nicht für 2 Monitore.

E: Oder P8 halt eine weiterer Taktsenkung Richtung Idle, wenn es sonst flackern würde.
 
Zuletzt bearbeitet:
Na halt das gleiche Problem , flackern beim Taktwechsel vom DDR5 auf dem 2 Moni.

Scully du hast doch 2 Monis , flackert es wenn du Speichertakt änderst?
 
Ach du scheiße :(

Dann besteht nur die Chance das man die GPU Spannung noch senken kann und damit etwas sparsamer wird.
 
Frage zu dem HDMI Audio Signal.

Ich gucke mir jetzt die Bilder der GTX480/470 an und wunder mich wo ich das Kabel anschließen muss für das 5.1/7.1 Audio.

Wird bei dem Fermi das Signal über den PCIe 16x übertragen als normaler Datenstream und dann auf dem Fermi dekodiert, oder haben die den Anschluß einfach nur gut versteckt?
 


Ist aber nur für den Bruchteil einer Sekunde warnehmbar,wenn sie von 3D auf idle wechselt

---------- Beitrag hinzugefügt um 01:30 ---------- Vorheriger Beitrag war um 01:27 ----------

Bei einem angeschlossenen Monitor ? Also wenn die Karte von Vollgas runtertaket wenn keine lasst mehr da ist ?


Jopp aber nur von 3D(P8) auf idle(P12),während bei Extra(P0) auf P3 u P8 nix zu sehen ist
 
Zuletzt bearbeitet:
Frage zu dem HDMI Audio Signal.

Ich gucke mir jetzt die Bilder der GTX480/470 an und wunder mich wo ich das Kabel anschließen muss für das 5.1/7.1 Audio.

Wird bei dem Fermi das Signal über den PCIe 16x übertragen als normaler Datenstream und dann auf dem Fermi dekodiert?

Wie bei der ATI durchgeschleift

---------- Beitrag hinzugefügt um 01:34 ---------- Vorheriger Beitrag war um 01:33 ----------

Hmm muss ich mal genau drauf achten... ist mir noch nicht aufgefallen :hmm::confused:


Mir auch nur durch Zufall
 
Zuletzt bearbeitet:
Kann aber keine Bitsream Ausgabe oder? Hab ich zumindest keine Info drüber bekommen , was ich auch sehr traurig finde :(
 
Zuletzt bearbeitet:
Also wie bei ATi ohne Kabelgedünse ein kleiner Audiochip verwurstet der 7.1 an den mini HDMI weider gibt. Cool.

Hast du schon das HDMI testen können mit Audioausgabe?
 
Es ist über MiniHDMI keine Bitstream-Ausgabe von Dolby TrueHD und dtsHD möglich...
 
Hast du schon das HDMI testen können mit Audioausgabe?


Dazu müsste ich Multitaskingfähig sein ich bin aber keine Woman also Nein :coolblue:

---------- Beitrag hinzugefügt um 01:45 ---------- Vorheriger Beitrag war um 01:43 ----------

Es ist über MiniHDMI keine Bitstream-Ausgabe von Dolby TrueHD und dtsHD möglich...


Nicht unbedingt schick aber wozu hat man denn ne XFI im Rechner:fresse:
 
Zuletzt bearbeitet:
^^ Die kann es auch nicht :d aber gut lassen wir das Thema ist OT :d
 
Nein , die X-FI kann kein True-HD oder DTS-HD auch nicht per Bitstream. Sie kann lediglich DolbyDigital und DTS umwandeln oder weitergeben !
 
Liegt aber nicht am X-Fi Chip selber (siehe Auzentech, die beherrschen das).

Aber das wird dann doch zu OT...

Sind bei der GTX doch viele Altlasten übrig geblieben :(
 
Ich glaub meine Zotac 480 gibt den Geist auf.
Ohne das ich was mache freezt das Bild, aber im Hintergrund läuft alles weiter.
Sieht man wenn man über die Tastatur Firefox startet (HDD LED).
Wenn ich den Rechner dann neu starte, hängt er sich direkt beim "Willkommens" Bildschirm auf.
Lass ich den Rechner 10 min aus, läuft es wieder für 10-20 min bevor die freezes wieder kommen.
Am Netzteil dürfte das ja normal nicht liegen. Hab ein Coolermaster 1000W.
Hab auch schon die Treiber neu installiert und den Rechner @ default laufen lassen.
 
an die overclocker:
habt ihr auch mal GPU Tool nach artefakte scannen lassen?
Meine POV 480 packt auch über 800 MHz @ Vantage ohne dass ich fehler sehen würde, aber GPU Tool findet sofort fehler. Ihr wollt ja auch keine CPU die sich gelegentlich verrechnet, deswegen auch das ewige ge-prime95-e
Mein problem ist, dass ich sogar @ default clocks alle 5-20min fehler finde mit GPU Tool.
Als ich es letztens nachts mit offenem fenster probiert habe, lief es über eine Stunde durch :heul:
 
Zuletzt bearbeitet:

Ist aber nur für den Bruchteil einer Sekunde warnehmbar,wenn sie von 3D auf idle wechselt

---------- Beitrag hinzugefügt um 01:30 ---------- Vorheriger Beitrag war um 01:27 ----------


Bei einem angeschlossenen Monitor ? Also wenn die Karte von Vollgas runtertaket wenn keine Last mehr da ist ?

Jopp aber nur von 3D(P8) auf idle(P12),während bei Extra(P0) auf P3 u P8 nix zu sehen ist
Das kurze Flackern entsteht nur durch die Änderung der Speichertaktfrequenz, egal ob 1, 2 oder 100 Megahertz. Wüsste gern weshalb Nvidia das kurze Flackern als Problem ansieht und deswegen den 2D-Modus verweigert.


Jedenfalls habe ich gerade heraus gefunden das Multimonitorbetrieb und 2D-Taktraten möglich sind.:hail: Leider etwas umständlich.

Es muss lediglich im Multimonitorbetrieb die Standardspeichertaktfrequenz von 1848MHz (P3-Modus) auf 1842MHz gesenkt werden. Dann springt die Speichertaktfrequenz automatisch auf 135MHz (P12-Modus) und schon verringert sich der Stromverbrauch des Gesamt-PC von 270W auf 215W. Wenn jetzt noch die Vcore auf 0.962V gesenkt wird ist der Stromverbrauch nahezu identisch mit dem echten 2D-Modus (P12). Bei mir wären das dann nochmal 10W weniger, also 205W.

Mit nahezu identisch, sind ca. 1W-2W gemeint, also Messtoleranz. Die "405MHZ/810MHz" machen im Vergleich zu den regulären "50MHz/100MHz" (GPU/Shader) anscheinend keinen Mehrverbrauch aus.:cool:

Edit: GPU-Z und MSI-Afterburner zeigen in diesem speziellen Fall falsche Speichertaktraten an. Der NVIDIA-Inspector 1.5 von Orbmu2k gibt die tatsächliche Speichertaktrate wieder. Die Taktrate habe ich mit Rivatuner gesenkt, da der MSI-Afterburner keine Untertaktung zuläßt.
 
Zuletzt bearbeitet:
Also mir ist noch kein gefiepe aufgefallen...
mir auch noch nicht, kann aber sein, dass es von dem Lüfterrauschen geschluckt wird.

Warum muss dieses doofe Eisen auch im Idle soviel Saft nehmen
im Idle mit einem Monitor find ichs gar nicht mal so viel. Kommt halt auch darauf an, mit welcher Graka man vergleicht. Bei mir muss die GTX 280 herhalten.
Verbrauch des kompletten PCs im Idle:
mit GTX 280: 194 W
mit GTX 480: 201 W
mit zwei GTX 280er: 233 W

Verbrauch des kompletten PCs im Idle mit 2 Monitoren:
mit GTX 280: 207 W (allerdings mit nur 1,03 V, was ja bei der GTX 280 einiges ausmacht)
mit GTX 480: 260 W
mit 2 GTX 280er: 253 W (ebenfalls 1,03 V)
Das macht einen Anstieg von ca. 60 W.
Wenn ich jetzt die 30 W der HD 5870 auf 1,5 Gbyte hochrechne, würde ich nur bei 45 W landen.

Für die 2-Monitor-Geschichte sollte noch eine Lösung her.

Jopp tut es und zwar schon bei einem Monitor wenn die Karte in Idle Takt wechselt:wink:
ist mir noch gar nicht aufgefallen. Muss ich mal genauer darauf achten.

ciao Tom
 
Zuletzt bearbeitet:
Es ist über MiniHDMI keine Bitstream-Ausgabe von Dolby TrueHD und dtsHD möglich...

Das wär zumindest schon mal ein Vorteil von non Referenz-Karten wie der Palit mit Dual DVI, HDMI (non mini) und DP.

Soll ja laut christian, der im kontakt zu palit steht, mitte Mai kommen - die ersten non-Referenz Fermis - von Palit.

---------- Beitrag hinzugefügt um 08:23 ---------- Vorheriger Beitrag war um 08:20 ----------

an die overclocker:
habt ihr auch mal GPU Tool nach artefakte scannen lassen?
Meine POV 480 packt auch über 800 MHz @ Vantage ohne dass ich fehler sehen würde, aber GPU Tool findet sofort fehler. Ihr wollt ja auch keine CPU die sich gelegentlich verrechnet, deswegen auch das ewige ge-prime95-e
Mein problem ist, dass ich sogar @ default clocks alle 5-20min fehler finde mit GPU Tool.
Als ich es letztens nachts mit offenem fenster probiert habe, lief es über eine Stunde durch :heul:

Wird mal Zeit, dass der EVGA OC Scanner public gemacht wird -> Furmark basierend inkl. richtigem Artefakt Scanner. ;)

Aber derzeit ist er nur für registrierte Kunden mit EVGA GTX 400er Kaufbelegen verfügbar - EVGA will da aber was machen (auch Support für ältere Karten hinzufügen).

---------- Beitrag hinzugefügt um 08:26 ---------- Vorheriger Beitrag war um 08:20 ----------

Das kurze Flackern entsteht nur durch die Änderung der Speichertaktfrequenz, egal ob 1, 2 oder 100 Megahertz. Wüsste gern weshalb Nvidia das kurze Flackern als Problem ansieht und deswegen den 2D-Modus verweigert.


Jedenfalls habe ich gerade heraus gefunden das Multimonitorbetrieb und 2D-Taktraten möglich sind.:hail: Leider etwas umständlich.

Es muss lediglich im Multimonitorbetrieb die Standardspeichertaktfrequenz von 1848MHz (P3-Modus) auf 1842MHz gesenkt werden. Dann springt die Speichertaktfrequenz automatisch auf 135MHz (P12-Modus) und schon verringert sich der Stromverbrauch des Gesamt-PC von 270W auf 215W. Wenn jetzt noch die Vcore auf 0.962V gesenkt wird ist der Stromverbrauch nahezu identisch mit dem echten 2D-Modus (P12). Bei mir wären das dann nochmal 10W weniger, also 205W.

Mit nahezu identisch, sind ca. 1W-2W gemeint, also Messtoleranz. Die "405MHZ/810MHz" machen im Vergleich zu den regulären "50MHz/100MHz" (GPU/Shader) anscheinend keinen Mehrverbrauch aus.:cool:

Edit: GPU-Z und MSI-Afterburner zeigen in diesem speziellen Fall falsche Speichertaktraten an. Der NVIDIA-Inspector 1.5 von Orbmu2k gibt die tatsächliche Speichertaktrate wieder. Die Taktrate habe ich mit Rivatuner gesenkt, da der MSI-Afterburner keine Untertaktung zuläßt.

Das ist doch mal ein Wort ! :hail: -> Gratzer ! :d

Lustig ist nur, dass darauf erst findige User kommen müssen ! :fresse:

E: Ach....funktioniert 2.24c auch mit den 400ern schon?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh