nVidia GeForce GTX 480 + FAQ - Bei Fragen bitte die erste Seite lesen!!! [Part 1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schau einfach mal in die Sig unter meinem Profil.

Mit meiner GTX280 unter Wasser und undervolteter Vcore@1.03V samt gleichem System bin ich in FurMark bisher nur über 500W gekommen, wenn zusätzlich noch Prime95 zur vollen Prozessorbelastung gestartet wurde.

Jetzt steigt der Verbrauch allein von der 480 schon über 500W. Da traue ich mich garnicht Prime95 zusätzlich anzuwerfen. 700W NT...

Unter Wasser sollte die Karte bei Standardspannung schätzungsweise wohl ca. 40-50W weniger verbrauchen. Mal sehen.

Der IDLE-Verbrauch war mit GTX280@1.03V@2D-Clocks bei 195W (Dual-Monitorbetrieb genauso "sparsam" wie Single-Monitorbetrieb). Jetzt mit GTX480 im Singlemonitorbetrieb bei 203W und im Dual-Monitorbetrieb bei 255W.:grrr: Hoffe das läßt sich wie bei der GTX280 per Bios + Rivatuner wieder glattbügeln.
 
haste Olis Pov? Das gibt Mecker :d


So isses offenbar, ... wir habens ja vorausgesagt bei der Bestellung ;)

---------- Beitrag hinzugefügt um 07:28 ---------- Vorheriger Beitrag war um 07:27 ----------

Nächste Runde

Und noch ein Bisschen beim Speichertakt gedreht;)


851/1701/1000

Sehr nett! :asthanos:

---------- Beitrag hinzugefügt um 07:29 ---------- Vorheriger Beitrag war um 07:27 ----------

40-50W sind nicht unbedint der Bringer. Bei der GTX280 hat es mehr gebracht. Mal sehen wie es mit Wakü aussieht.

Nein, das ist nicht die Welt, aber macht schon was aus, die 0,06v.

---------- Beitrag hinzugefügt um 07:30 ---------- Vorheriger Beitrag war um 07:27 ----------

Der IDLE-Verbrauch war mit GTX280@1.03V@2D-Clocks bei 195W (Dual-Monitorbetrieb genauso "sparsam" wie Single-Monitorbetrieb). Jetzt mit GTX480 im Singlemonitorbetrieb bei 203W und im Dual-Monitorbetrieb bei 255W.:grrr: Hoffe das läßt sich wie bei der GTX280 per Bios + Rivatuner wieder glattbügeln.

Ja, hoffenlich, lässt sich da noch was machen.
Aber der hohe Verbraucht mit 2 Monitoren, war ja schon durch Tests bekannt.
 
Irgendwie scheint es so, dass die Serienstreuung in Sachen default VCore schon ziemlich groß ist.
Scully hatte jetzt mit 1.0V den niedrigsten Wert, OC_Burner hat 1.0375V und ein anderer User sogar ~ 1.0625V. Diese Streuung könnte eine Maßnahme sein, um die Yield-Raten zu verbessern. :hmm:

40 - 50W weniger Verbrauch für den "niedrigen" VCore Unterschied (im Vergleich zu default) find ich nicht schlecht. Die 280er hatte ja stanni 1.12V und ließ sich richtig gut undervolten - wie fast alle GT200(b). Unter WaKü könnt natürlich noch was gehen. ;)

P.S.:Meine Zotac @ Defaulttakt hat (zumindest @ Overlord II) 0.92V geschafft - hab dann aber sicherheitshalber auf 0.95V erhöht (ein bissl Luft für Games wie Crysis und co. - damit lief bis jetzt alles, auch Metro. ;) ). Ist klar, dass man so unter Last pro GPU locker ~ 50 - 75W einsparen kann.

Das Problem des hohen Dual-Monitoring Verbrauchs bei den GF100ern ist der GDDR - der wird hier mit vollem Takt gefahren. Mal sehen, inwiefern man hier nachhelfen kann.
 
Runde "grüne Hölle" ? Könnt ich ja mal glatt vorbeischauen :)

Wohnste um die Ecke, bist bestimmt auch am heizen, aber nicht nur Deinen Fermi ?;)

---------- Beitrag hinzugefügt um 07:54 ---------- Vorheriger Beitrag war um 07:50 ----------

Irgendwie scheint es so, dass die Serienstreuung in Sachen default VCore schon ziemlich groß ist.
Scully hatte jetzt mit 1.0V den niedrigsten Wert, OC_Burner hat 1.0375V und ein anderer User sogar ~ 1.0625V. Diese Streuung könnte eine Maßnahme sein, um die Yield-Raten zu verbessern. :hmm:

40 - 50W weniger Verbrauch für den "niedrigen" VCore Unterschied (im Vergleich zu default) find ich nicht schlecht. Die 280er hatte ja stanni 1.12V und ließ sich richtig gut undervolten - wie fast alle GT200(b). Unter WaKü könnt natürlich noch was gehen. ;)

P.S.:Meine Zotac @ Defaulttakt hat (zumindest @ Overlord II) 0.92V geschafft - hab dann aber sicherheitshalber auf 0.95V erhöht (ein bissl Luft für Games wie Crysis und co. - damit lief bis jetzt alles, auch Metro. ;) ). Ist klar, dass man so unter Last pro GPU locker ~ 50 - 75W einsparen kann.

Das Problem des hohen Dual-Monitoring Verbrauchs bei den GF100ern ist der GDDR - der wird hier mit vollem Takt gefahren. Mal sehen, inwiefern man hier nachhelfen kann.


Damit ist das Watt Leistungsverhältnis deutlich besser.
In der Presse hat keiner ein Wort darüber verloren, oder nicht danach getestet !
 
Damit ist das Watt Leistungsverhältnis deutlich besser.
In der Presse hat keiner ein Wort darüber verloren, oder nicht danach getestet !


Das stimmt wohl - der Verbrauch sollte dann (mit den gemessenen 45W Einsparung fürs System @ 0.975V) in etwa leicht über GTX 470 OC (775/1550/1000 MHz @ default VCore) liegen. Gut, das ist zwar ein anderes System, dass nicht so viel verbraucht, da kein OC, aber einen besseren Vergleich find ich gerade nicht.

oc17xjbn.png



Dass es damals von der Presse nicht getestet wurde, lag wohl daran, dass es zu der Zeit schlicht und einfach noch keine Tool mit Support für die GTX 400er wie die Afterburner 1.6.0 Beta 4 (VCore Tweaking halt erstmal nur für 480er) gab.
 
Zuletzt bearbeitet:
Hmm, ich persönlich würde sagen der GF100 krankt etwas an der TMU Leistung.

Könnte durchaus sein. Aber dennoch, in anbetracht der Filterleistung, die die 480er an den Tag legt, im Vergleich zur AMD Karte, haben die Jungs von NV schon ganz gut was geschafft... Und man halte fest, die BQ in Sachen AF ist nach wie vor noch etwas besser als bei AMD.
 
Die Filtereffizienz wurde schon verbessert beim GF100, ansonsten wär man bespielsweise gegenüber GT200(b) noch weiter eingebrochen.


Im CB Test kann man die Skalierung unter Auflösungen, AA & AF gut sehen.

http://www.computerbase.de/artikel/...geforce_gtx_480/5/#abschnitt_skalierungstests


Ergebnis ist natürlich immer von der Anwendung abhängig (GT200(b) hat ja in Vollausbau 33,33% mehr TMUs, in den Tests schlägt man (mit GT200(b)) in Sachen AF - Performance den RV870 knapp)


GTX 480 vs. GTX 285 -> 16xHQAF (relative Leistung jeder Karte zu 1xAF):

Crysis:
89,4% vs. 93,6% (-4,2%)

Stalker:
79,8% vs. 90% (-10,2%)

WiC:
75,8% vs. 88,8% (-13%)


Wie man sieht gab es also Verbesserungen in der Effizienz, ansonsten wär die Karte mit 60 TMUs statt 80 (wie gesagt ~ -33% Einheiten) deutlich weiter abgeschlagen. Schade ist aber, dass es die 512er Version mit wenigstens 64 TMUs nicht zum Launch geschafft hat.

Mit der AA-Skalierung sieht es da im Vergleich zur Vorgänger-Generation zum Glück schon besser aus.


E: Aha...die TCrit wurde beim GF100 also auf 110°C erhöht, macht schon Sinn.
 
Zuletzt bearbeitet:
wenn die bei NV nicht ganz verblödet sind mittlerweile..könnte der B1 oder B2 dann hoffendlich auch ein 512er ne richtig gute Karte werden.
 
Ich wollte mir eine 480GTX ftw Hydrocopper zulegen, allerdings nirgends zu kriegen. Weiss jemand ob diese Karten selektiert werden damit Sie besser zu takten sind? Oder spielt dies absolut keine Rolle?
 
Schade ist aber, dass es die 512er Version mit wenigstens 64 TMUs nicht zum Launch geschafft hat.

.

Je nachdem wie Nvidia den letzten Cluster deaktiviert hat,ist das eventuell bei einigen Karten sogar möglich diesen zu reaktivieren mal sehen was das Bios sagt wenn Nibitor bereit ist;)

Oder weiß schon jemand ob es per Software(Bios) oder Lasercut gemacht wurde?
 
haste dir die Kühlung mal angesehen.......für SPAWA etc. kannste da noch nen Lüfter draufpappen....denke werden die mittelguten Chips sein.....
 
haste dir die Kühlung mal angesehen.......für SPAWA etc. kannste da noch nen Lüfter draufpappen....denke werden die mittelguten Chips sein.....

An mittelgut glaub ich bei der 480er eher nicht,da diese die meisten Shader beherbergt(mehr als die Profikarten Quadro,Tesla)müssten es nach Selektion sogar die besten Fermi Chips sein.


Ich denke das diese Shaderreduzierung einzig u alleine notwendig war um die immer noch schlechten Yields abzufedern


Nein Spawa Abteilung kommt erst zur Ansicht wenn der H2O kühler da ist
 
Zuletzt bearbeitet:
Je nachdem wie Nvidia den letzten Cluster deaktiviert hat,ist das eventuell bei einigen Karten sogar möglich diesen zu reaktivieren mal sehen was das Bios sagt wenn Nibitor bereit ist;)

Oder weiß schon jemand ob es per Software(Bios) oder Lasercut gemacht wurde?

Wenns nicht per Lasercut gemacht wurde schon. Die Diskussion hatten wir ja schon im Speku Thread vor Launch. ;)

Aber irgendwie kann ich mir das nicht vorstellen, dass es nicht per Lasercut durchgeführt wird. Wer soll dann noch eventuelle 4x5er Modelle kaufen ?
Das wären Zustände wie damals beim NV40 - RT lässt grüßen! :asthanos:

Wobei z.B. auch der Verbrauch mit Bx auch nochmals optimiert sein könnte/sollte. ;)

Wobei ich hier im Luxx mal das Gerücht gehört haben, dass A3 für GF100 final bleiben soll und dass man sich nur noch auf GF104 und co. konzentrieren wolle. Was daran dran ist -> :confused:
 
An mittelgut glaub ich bei der 480er eher nicht,da diese die meisten Shader beherbergt(mehr als die Profikarten Quadro,Tesla)müssten es nach Selektion sogar die besten Fermi Chips sein.


Ich denke das diese Shaderreduzierung einzig u alleine notwendig war um die immer noch schlechten Yields abzufedern


Nein Spawa Abteilung kommt erst zur Ansicht wenn der H2O kühler da ist


ging um den evga Krams bei meiner Antwort>cage
 
P.S.: Wegen der SmartDoctor Version, mit der Atzenkeeper500 die 470er mit etwas Overvoltage geoc'ed hatte (zumindest bis das in der 1.6.0 Beta 4 gesetzte Hot-Clock OC Limit von 1580 MHz /790 MHz Core) höhere Ergebnisse nicht möglich gemacht hat):

ASUSTeK Computer Inc.-Support-

Er hat direkt über die Asus HP die Version 5.57 runtergeladen. Hatte ihn im 470er Thread eben gefragt. Ein Asus BIOS war dafür auch nicht notwendig. ;)

P.S. (wenn auch etwas OT): SmartDoctor hat bei der PoV 470er bei ihm ~ 0.96V VCore Extra default ausgelesen (er hatte zwecks OC 1.025V gesetzt).
 
Zuletzt bearbeitet:
wenn der ne POV hat wieso ist auf dem Bild vom Smartdoctor ne ASUS im Bild?
 
Es erkennt wohl nur die Karte an sich per NV Treiber, unabhängig von der BIOS Nr, Subvendor ID usw. - denke ich.

Ich zitier mal komplett:

Moin,

ich dachte zuerst auch ich benötige ein ASUS Bios, geht aber so. Bin einfach auf die AsusTek-Seite gegangen, habe mir unter Downloads die GTX 470 ausgesucht und unter "Software" den Smart Doctor gezogen. Laut Installer ist es Version 5.57.

Der maximale Shader bzw. Core-Wert gehört auf jeden Fall erhöht in der nächsten Afterburner-Version, sonst bringst auch nichts mit der höheren Core-Spannung.
 
haste dir die Kühlung mal angesehen.......für SPAWA etc. kannste da noch nen Lüfter draufpappen....denke werden die mittelguten Chips sein.....

Also nicht unbedingt das gelbe vom Ei. Dann wäre z. Bsp. die EVGA GTX480 SC (Mit einem Risiko das es OC mässig ein Griff ins Klo ist) und der Koolance VID-NX480 (GTX 480) die bessere Lösung. Auch Kühltechnisch.
 
Das wären Zustände wie damals beim NV40 - RT lässt grüßen! :asthanos:

Genau auf die Zustände wollte ich hinaus.

Nur wird die Chance erheblich geringer sein einen voll funktionstüchtigen Chip zu ergattern als damals

Nvidia hat sich bis zur letzten Sekunde zurückgehalten mit der Angabe über die Shaderzahl.

Könnte bedeuten das es bis kurz vor Verkaufsstart noch nicht fest stand ob 512 oder 480.

Wenn das so ist stehen die Chancen zumindestens 50/50 das die Shader per Bios teildeaktiviert wurden

---------- Beitrag hinzugefügt um 11:51 ---------- Vorheriger Beitrag war um 11:38 ----------

3D-Modus undervolten bringt anscheinend nicht besonders viel.

Bei mir Gigabyte GTX480:

Nach 5min. FurMark
Default 3D Clocks
Default Vcore 1.037V
Temp 90°C
Lüfter 92%
System Stromverbrauch 513W



0.925V lieferte Artefakte
0.967V lief Fehlerfrei für 5 Minuten, dann plötzlich eingefroren.
0.975V läuft anscheinend, Werte:


Default 3D Clocks
Vcore 0.975V
Temp 86°C
Lüfter 86%
System Stromverbrauch 468W


40-50W sind nicht unbedint der Bringer. Bei der GTX280 hat es mehr gebracht. Mal sehen wie es mit Wakü aussieht.


Wenn ich nach deiner Verbrausmessung gehe sollte 0.950 noch einmal in etwa 30 Watt bringen.

Das wären 70 Watt Ersparniss bei gleicher Leistung find ich schon relativ gut wenn man bedenkt das der Chip auch nebenbei gesagt noch schnell ist
 
Zuletzt bearbeitet:
Naja die 70W Unterschied erhälst du dann aber nur in FurMark. In Games ist der Unterschied wohl deutlich geringer. Kann ich später bei Gelegenheit mal nachtesten.
 
Watt ist doch im Grunde eh wurscht......90% takten hier ihre i7 etc. über 3.2 GHZ.......

Die Wärme müssen die in den Griff bekommen...sonst kocht auch die Brühe im Sommer im Mora wenn da noch CPU und digi SPAWA vom Board event. mit im Kreislauf hängen....und OC auf der Höhe wie scully hier gezeigt hat, im Sommer ohne Wasser kann man vergessen.
Außer man bastelt noch 10 Zusatzlüfter dazu.....
 
Zuletzt bearbeitet:
Könnte durchaus sein. Aber dennoch, in anbetracht der Filterleistung, die die 480er an den Tag legt, im Vergleich zur AMD Karte, haben die Jungs von NV schon ganz gut was geschafft... Und man halte fest, die BQ in Sachen AF ist nach wie vor noch etwas besser als bei AMD.

Wie man sieht gab es also Verbesserungen in der Effizienz, ansonsten wär die Karte mit 60 TMUs statt 80 (wie gesagt ~ -33% Einheiten) deutlich weiter abgeschlagen. Schade ist aber, dass es die 512er Version mit wenigstens 64 TMUs nicht zum Launch geschafft hat.

Mich würde mal interessieren in wieweit die 4 TMUs nochwas rausholen würden. Ich denke auf die mehr an ALUs könnte man verzichten, die 4 TMUs dürften aber einiges bringen (Wunder natürlich nicht). Vielleicht kann man die ja bald reaktivieren bei ein paar Chips ;)

Ich denke mal die ursprünglichen Gerüchte mit 30-40%+ zur 5870 wären mit dem ursprünglichen ALUs und TMUs sammt den geplanten Taktraten drin gewesen.
 
70W Ersparnis in Furmark bei 0,95V VCore...hm, wieviel wären das in Games? 50W vielleicht - geschätzt.

Wär natürlich schön, wenn man noch was freischalten könnte - man stelle sich mal eine 470er mit 512 SPs vor - für 350€. ;)


Hm...irgendwo gab es doch mal einen der eine mit 480er mit 512 SPs hatte - A2 und @ 600/1200/700 MHz (oder so).

Wenn man dann noch die Taktraten und Lüftersteuerung sowie eventuell die Voltages anpassen würde.

Ist halt die Frage, sonst alles im BIOS identisch wär - GDDR Timings usw..
 
Zuletzt bearbeitet:
70W Ersparnis in Furmark bei 0,95V VCore...hm, wieviel wären das in Games? 50W vielleicht - geschätzt.


Dürfte wohl so ungefähr hinkommen

---------- Beitrag hinzugefügt um 12:48 ---------- Vorheriger Beitrag war um 12:45 ----------

Wär natürlich schön, wenn man noch was freischalten könnte - man stelle sich mal eine 470er mit 512 SPs vor - für 350€. ;)


Ich glaub die Hoffnung kannst du zu 90% begraben,bei der vorherrschenden Lage bei TSMC musst du Glück haben wenn das bei einer 480er Shader Karte funktionieren tut
 
Zuletzt bearbeitet:
Mich würde mal interessieren in wieweit die 4 TMUs nochwas rausholen würden. Ich denke auf die mehr an ALUs könnte man verzichten, die 4 TMUs dürften aber einiges bringen (Wunder natürlich nicht). Vielleicht kann man die ja bald reaktivieren bei ein paar Chips ;)

Ich denke mal die ursprünglichen Gerüchte mit 30-40%+ zur 5870 wären mit dem ursprünglichen ALUs und TMUs sammt den geplanten Taktraten drin gewesen.

Der Vergleich in Sachen AF Skalierung wäre schon sehr interessant - wär dann + 6,67% mehr TMUs mit 64 statt 60. :)
 
meinen Post da oben noch ergänzen....bevor einige auf Gedanken kommen...

Watt egal>für die die sich die Karte kaufen, ich kaufe sowas weiterhin nicht.

Und noch zur Spielbarkeit (ich habe ca 2-3 Std mit einer und SLI gezockt) es hat sich im grunde nix geändert, Stalker Metro Crysis zb. läuft nur mit 2 480ern in 1929x1200 mit AA flüssig und nur mit zwei 480ern entgeht man den MR und dann hörts nun wirklich irgendwo auf.
 
Dürfte wohl so ungefähr hinkommen

Ich glaub die Hoffnung kannst du zu 90% begraben,bei der vorherrschenden Lage bei TSMC musst du Glück haben wenn das bei einer 480er Shader Karte funktionieren tut

Glaub, da hast du recht - eine 470er dürfte sich nur in Ausnahmefällen (falls es wie gesagt überhaupt per BIOS geht) komplett freischalten lassen. Aber auch schon 480 SPs / 60 TMUs für Lau (also quasi GTX 475 ^^) wär nicht schlecht - würde der Karte vor allem im Kampf gegen die HD 5870 ein gutes Stück weiter bringen.

Mal sehen, was wird. Ich glaub ja eher an einen Lasercut (auch wenns die kosten- und sicherlich auch zeitintensivere Methode wär).
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh