nVidia GeForce GTX 480 + FAQ - Bei Fragen bitte die erste Seite lesen!!! [Part 1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kurze Frage nebenbei, ich bin grad über den 470er Artikel bei CB gestoßen und dabei viel mir auf, die rechnen in der Techniktabelle nach wie vor Chiptakt mal TMUs für die Texelfüllrate...

Sollte der Fermi nicht ne eigene Taktdomain für die TMUs haben um deren geringe Anzahl auszugleichen? Oder hab ich was verpasst?
Und wenn ja, wie hoch liegt die?
Ich meine mal was in erinnerung zu haben von wegen, Shadertakt = TMU Takt?
 
Sollte der Fermi nicht ne eigene Taktdomain für die TMUs haben um deren geringe Anzahl auszugleichen? Oder hab ich was verpasst?
Und wenn ja, wie hoch liegt die?
Ich meine mal was in erinnerung zu haben von wegen, Shadertakt = TMU Takt?


Ja sollte er haben,nur kann ich mich nicht erinnern das irgendwo Infos waren zur Höhe des TMU Taktes
 
Echt jetzt?

Dann wäre das echt erstaunlich, was NV da an Optimierungsarbeit rausgeholt hat, aus den TMUs.
 
Jop.. schnell den Text kopieren..

Speaking of performance, we’ll get to that in a bit, but for now we’ll finish our discussion of GF100’s graphics units. Each SM has 4 texture units, which have changes somewhat from the GT200. In GT200, the texture units were at the TPC level; here they are per SM. The texture units are also affected by the cache reorganization of GF100; for L1 cache they still have the same 12KB of texture cache per set of 4 texture units, while they all share GF100’s 768KB L2 cache, which is now used by all execution units and not just textures. Each unit can compute 1 texture address and fetch 4 texture samples per clock, a significantly higher texture fetch rate than on the GT200. Furthermore in conjunction with DX11, NVIDIA’s texture units now support DX11’s new compressed texture formats. Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.

NVIDIA
 
Bleibt also unterm Strich, TMU=GPU Clock wenn alles Stock...

Also sozusagen doch beeindruckend, was NV da aus den TMUs rausgeholt hat...
Ein in meinen Augen großer Schwachpunkt bei AMD waren seit dem R600 immer die TMUs. Jetzt hat die 470er GTX nichtmal die hälfte der Filterleistung und dennoch bricht sie nicht wirklich weg und filtert dabei noch besser...

Na mal gucken, vllt bekomm ich mal ne Karte in die Finger, dann wird mal ein Filtercheck gemacht ;)
 
Zu beachten sei da aber noch, 700 zu 825MHz bei der GTX sind ~17,9% mehr Takt
Bei der 5870er sinds nur ~14,7%

Krümelkackerei, ich weis, aber sollte man erwähnen ;)
 
TMUs = half ALUs ("hotclock").

EDIT
Fail, siehe unten.
 
Zuletzt bearbeitet:
und nochmal blöd gefragt, selbst bei OC haben doch die Shader immer doppelten GPU Clock, zumindest wenn ich mir die Werte im Netz so ansehe, welchen Sinn macht dann diese TMU Taktdomain? Hätte man doch auch gleich wie immer an den GPU Takt koppeln können...
 
TMUs :d oder wie jetzt :d

ne mal im Ernst, ihr hab das Ding doch übertaktet, haben die shader das selbe Verhältniß wie G200 oder eher G92....
 
Die Shader laufen mit doppeltem TMU-Takt und die Frequenzen sind derzeit im Verhältnis 1:2 gekoppelt.
 
@ fdsonne

in dem oc-test haben sie aber eine 5870 mit 2 gb genommen und der treiber der gtx480 war noch kein 197.41;)

dürfte sich von daher relativieren^^
 
Die Shader laufen mit doppeltem TMU-Takt und die Frequenzen sind derzeit im Verhältnis 1:2 gekoppelt.
aha merci

---------- Beitrag hinzugefügt um 22:08 ---------- Vorheriger Beitrag war um 22:06 ----------

@ fdsonne

in dem oc-test haben sie aber eine 5870 mit 2 gb genommen und der treiber der gtx480 war noch kein 197.41;)

dürfte sich von daher relativieren^^

ist doch eh wurscht, der nächste taktet 10% höher und dann heult der andere..Kinderkacka :d
Knall ich hier nen Vantage mit 4.6GHZ und 1180 hin ballert der mir nen DX11 in Metro hin.... macht zwar ein paar mal Spaß aber irgendwann wirds öde...
 
Zuletzt bearbeitet:
Video : Nvidia führt die Lautstärke im Gehäuse vor und gibt Empfehlungen.

Nvidias Fermi-Grafikkarten sind lauter und wärmer als die Pendants der Firma AMD. Nun möchte Nvidia zeigen, dass Lautstärke- und Temperaturentwicklung nicht so dramatisch sind, wie in der Presse kritisiert: Es hänge sehr viel von einem guten Gehäuse ab. So führt das Unternehmen in einem Video seine GTX 480 in einem Cooler Master Cosmos vor und die Grafikkarte pendelt sich bei einer Lautstärke von ca. 52 Dezibel ein. In der Unigine-Heaven-Demo mit einer Auflösung von 2560 x 1600 Bildpunkten stieg der Pegel jedoch auf 63 Dezibel.
Anzeige
In Furmark 1.6.5 bei identischer Auflösung klettern die Temperaturen im Cosmos S auf 97 Grad Celsius. Das günstigere Gehäuse, das Cooler Master Centurion 534, sorgt allerdings für Temperaturen von 105 Grad Celsius.

Nvidia behält demnach recht, dass das Gehäuse die Temperaturen stark beeinflusst. Dies gilt jedoch genau so für andere Grafikkarten und Komponenten. Im Bereich Lautstärke und Temperaturen bleibt AMD somit für diese Grafikkartengeneration im Vorteil.

http://www.extrahardware.cz/files/i...assis/geforce_gtx_480_noise_and_chassis_2.wmv
 
hat vielleicht wer irgendwo benchm zwischen den "alten" 275gtx, 280 gtx karten im sli zur neuen 480 gtx?

ich befürchte ich hab mit 275 gtx sli mehr fps als mit einer 480 gtx oder ist dem nicht so? bin derzeit unschlüssig ob ich wechseln soll.. für die alten karten gibts ja noch etwas cash somit würde der aufpreis zur 480 gering sein..

als sli user ist es immer schwer zu wechseln da man kaum mehrleistung bekommt ausser wieder in sli zu investieren..

auflösung wäre 1920x1080 incl max settings welche ich benutzen würde mit der 480gtx..

wer nen tipp? ;) tia!
 
ich befürchte ich hab mit 275 gtx sli mehr fps als mit einer 480 gtx oder ist dem nicht so?

avg, min, max fps sagen 0,nix aus
mag sein dass du mit dem alten SLI mehr avg fps hast, bessere spielbarkeit wohl eher nicht
stichwort:
-> zuwenig vram -> stark einbrechende fps raten -> stottern -> sehr geringe min fps im vergleich zur gtx480
-> in manchen games eine scheiss sli skalierung
-> in manchen games mikroruckler
-> in ALLEN games einen hoeheren inputlag

selbst wenn meine gtx295 20% mehr avg fps haette, die singlegpu karte waere mir 1000x lieber als das sli gefrickel
 
in dem Vídeo siehts für die 480er wirklich böse aus. Ob die Treiber noch viel rausholen können bezweifle ich.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh