NVIDIA GeForce GTX 480 bald mit neuem PCB?

So hier mal der Inhalt der ominösen 480er Verpackung die man in der News sieht..



Der neue PCB shot soll aber dennoch eine nonref GTX480 werden.. mal guggen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist doch wirklich totaler Käse, das PCB kann nie und nimmer für ne GTX480 sein mit 2x 6Pin. Der Stromverbrauch kann nur durch einen neuen Chip gesenkt werden und nicht durch ein neues PCB. Falls es wirklich für eine GTX480 sein soll, würde ich um diese Sparvariante einen großen Bogen machen. ;)
Heruntertakten macht auch keinen Sinn, da der Abstand zur GTX470 eh schon sehr klein ist. Vieleicht ist es ja das PCB einer GF102 mit 64MB Speicher Chips, denn für die würde 2x 6Pin noch gerade so Sinn machen, da 1 x 6 Pin schon knapp werden könnte.
 
Die stromversorgung auf dem PCB sieht dem einer 480er doch sehr ähnlich, bis auf das das das Loch für den Lüfter fehlt (die fehlenden Kondensatoren auf dem PCB muss man sich dazudenken).

Ergo ist das sicher ne GF100 bzw GTX480.. taktraten könnten ja gleich bleiben nur is mit OC dann nix mehr ;)
 
@selfdistruct
Wenn die 480 schon default ohne OC 300W verballert. Wie soll das dann mit 225W TDP gehen die
taktraten nicht zu ändern.
Ausser NV lügt dann noch mehr als mit ihrer 250W TDP bei den jetzigen 480 ern.:haha:
 
Zuletzt bearbeitet:
Hab ich doch gesagt , wer sich dich aktuelle Version ans Bein heften will dem ist einfach nicht mehr zu helfen.

Das Ding ist Asche und Nvidia muss versuchen mit aller Macht und Schnelle die Probleme zu lösen. Ist nur logisch auf die nächste bald folgende Rev zu warten.


Die Sache ist nur würden alle so denken könntest du jetzt noch deine Buchstaben in den Felsen meiseln. Es braucht dumme Betatester damit sich was verändern kann.
 
Das jetzt auf den Markt kommendes PCB wird aber noch für eine 512CC herhalten müssen. Ich glaube nicht das NV den 512CC auf dem neuem PCB zum laufen kriegt nur mit 225W. Aber es kann auch durchaus sein das es keine 512CC gibt oder eine GTX475 kommt mit Taktraten der 470 und den Shadern und Speicherinterface der 480.
 
vielleicht war das ja alles nur marketing und die karten werden erst mit dem neuen pcb auf den markt kommen...
 
Dass alle Testsamples nur eine Marketingaktion waren, kann man sicher ausschließen.
Jetzt, (also nach dem NDA - Fall) wo viele User durch die hohen Verbrauchswerte, Lasttemperaturen und Lüfterlautstärke @ Load verschreckt sind - das wär ein Schuss (mit ner Schrotflinte) ins eigene Knie sondergleichen ! :fresse:
 
@selfdistruct
Wenn die 480 schon default ohne OC 300W verballert. Wie soll das dann mit 225W TDP gehen die
taktraten nicht zu ändern.
Ausser NV lügt dann noch mehr als mit ihrer 250W TDP bei den jetzigen 480 ern.:haha:

Ist das überhaupt legal, eine Karte als 250W TDP zu verkaufen wenn sie 300W verbraucht?
 
Was man so von dem PCB gesehen hat und der Stromversorgung denke ich auch, dass es eher eine Art GTX 475 wird, wie Spielberg schon angedeutet hat - Taktraten z.B. GTX 470 Niveau oder etwas höher, aber der Rest von der 480er (also SPs, VRAM usw.).
 
Benchmarks, die die Grafikkarte wirklich an die Grenzen treibt wie Prime sollten nicht als maß genommen werden.
Wenn die beim normalen spielen in freigegebener Auflösung jedoch schon mehr als 250W verbraucht ist das ja nicht so toll.
 
Wobei die 480 aber schon beim Zocken über 250 W kommt als legal ist das wohl kaum zu bezeichnen. Eher als verarschung ;)

Der mir bisher bekannte höchste gemessene Verbrauchswert war bei HT4U

■Stalker CoP: 239,86 Watt.

Metro könnt das toppen.

Höher lagen nur synthetische Benches wobei 3D Mark06 als Non-Stress-Test wie Furmark mit 283W die Spitze markiert (Heaven 2.0 liegt bei 242,6W). Vantage wurd nicht gemessen.

Wär aber schon besser, man hätte 290W angegeben. Dann wär auch für quasi alle synth. Benches noch Luft innerhalb der TDP.


Nun ja - mal sehen, was es mit dem neuem PCB gibt - eine 480er lite mit gesenkten Taktraten und evtl. auch leicht gesenkter VCore (sofern noch möglich)?
 
Zuletzt bearbeitet:
villt könnte das ja auch ne 475 werden, wo halt nicht so tolle 480chips draufkommen, die dann halt niedrig getaktet sind
 
Höher lagen nur synthetische Benches wobei 3D Mark06 als Non-Stress-Test wie Furmark mit 283W die Spitze markiert (Heaven 2.0 liegt bei 242,6W). Vantage wurd nicht gemessen.

Wär aber schon besser, man hätte 290W angegeben. Dann wär auch für quasi alle synth. Benches noch Luft innerhalb der TDP.

Man sollte an dieser Stelle nicht vergessen, dass Furmark auf vielen anderen Karten künstlich gebremst wird, auch auf der HD5xxx Serie. Auf den GF100 Karten ist dies noch nicht der Fall, somit ist jeglicher Vergleich bzgl. Lautstärke und Stromverbrauch mit Furmark unfair.
Außerdem ist die TDP nicht für den Kunden sondern für den Kühlerhersteller gedacht, somit kann man sich da eh nicht beschweren. (Insbesondere sollte man hier auch als Ati-Fan vorsichtig sein, denn beim TDP zu niedrig angeben liegt Ati deutlich vor NV :fresse:, da muss man nur mal die HD4xxx und HD3xxx ansehen)
Aber um aufs Thema zurück zu kommen, man kann eine Karte die bei einigen Spielen über 235W braucht, nicht mit 2x 6Pin ausliefern, daher ist das kein GTX480 PCB.
 
Es hieß ja erst, dass dies seit langer Zeit nicht mehr der Fall wäre (zumindest nach HD 48xx), aber im Golem-Artikel (GTX 480 in der Praxis) steht wieder etwas anderes, bzw. wird so vermutet.

Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis - Golem.de

Bei den Versuchen zeigte sich zudem, dass der Bildaufbau auf AMD-Karten mit Furmark 1.8 stockt und zudem die Temperatur weniger schnell steigt als bei Nvidia-Karten. Es liegt der Verdacht nahe, dass AMD seine Grafikkarten hier absichtlich drosselt, um Beschädigungen zu vermeiden. Eine kurzfristige Anfrage bei AMD nach diesem Phänomen ist bisher noch unbeantwortet. Schon mit älteren Versionen des Furmark konnten wir aber bisher keine einzige Grafikkarte beschädigen.


Jedenfalls sieht man das auch im HardOCP Video, dass die Stromaufnahme bei den HD5kern in Furmark des öfteren (nach unten) springt - bei den 400ern dagegen recht konstant ist:

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

Ist nur ne Feststellung...;)


Ok, :btt:

Kann mir wie gesagt schwer vorstellen, dass man die Specs der 480er weiterfährt, aber auf 2 x 6 Pin setzt. So viel in Sachen Undervolting wird beim GF100 in A3 sicher nicht drin sein. Die VCores sind ja angeblich schon recht niedrig (0.99V für Extra und 3D sowie 0.96V für 2D -> laut TechPowerUp).

---------- Beitrag hinzugefügt um 21:56 ---------- Vorheriger Beitrag war um 21:42 ----------

Man sollte an dieser Stelle nicht vergessen, dass Furmark auf vielen anderen Karten künstlich gebremst wird, auch auf der HD5xxx Serie. Auf den GF100 Karten ist dies noch nicht der Fall, somit ist jeglicher Vergleich bzgl. Lautstärke und Stromverbrauch mit Furmark unfair.
Außerdem ist die TDP nicht für den Kunden sondern für den Kühlerhersteller gedacht, somit kann man sich da eh nicht beschweren. (Insbesondere sollte man hier auch als Ati-Fan vorsichtig sein, denn beim TDP zu niedrig angeben liegt Ati deutlich vor NV :fresse:, da muss man nur mal die HD4xxx und HD3xxx ansehen)
Aber um aufs Thema zurück zu kommen, man kann eine Karte die bei einigen Spielen über 235W braucht, nicht mit 2x 6Pin ausliefern, daher ist das kein GTX480 PCB.

Jo, das ist mir schon klar. dass die TDP für den Kühler gedacht ist - trotzdem ist es nicht schön, wenn die Angabe in der Praxis übertroffen wird. Bisher lag NV ja immer drin (außer Furmark).

Vor allem in Sachen Fanboy-Wars (Vergleiche mit Grill usw.). Gut - ich schmunzel da mal drüber. Auch wenn ich die Tatsachen nicht schönreden will. ;)

Was allerdings für ein 480 PCB sprechen würde -> 12 Speicherchips können verbaut werden ( = 1536 MB).
 
Zuletzt bearbeitet:
Wie oft muss man noch sagen TDP (Thermal Design Power) ist nur die angabe für die erforderliche Kühlleistung. Noch genauer gesagt, wie viel Watt muss der Kühlblock abführen können.

Die GTX480 verbraucht TDP 250W + Lüfter bei maximum 21,6W + über das PCB abgeleitet ca. 25W.

Die angabe von NVidia mit TDP 250W ist korrekt und ja die Grafikkarte insgesamt am termischem Limit von 250W TDP zieht ca. 300W.
 
Zuletzt bearbeitet:
Ein geändertes PCB inclusive evaluiertem Fermi würde schon passen.
Den Fermi im Ist-Zustand zu releasen, könnte NV schlimmstenfalls den Finanziellen Overkill bescheren - mal sehen, ob sie's drauf ankommen lassen - ich glaube nicht !
 
Wie oft muss man noch sagen TDP (Thermal Design Power) ist nur die angabe für die erforderliche Kühlleistung. Noch genauer gesagt, wie viel Watt muss der Kühlblock abführen können.

Die GTX480 verbraucht TDP 250W + Lüfter bei maximum 21,6W + über das PCB abgeleitet ca. 25W.

Die angabe von NVidia mit TDP 250W ist korrekt und ja die Grafikkarte insgesamt am termischem Limit von 250W TDP zieht ca. 300W.

Dann trifft es ja eh zu, wenn der Verbrauch vom Lüfter und die Abgabe der Verlustleistung über das PCB seperat sind (und nur die erforderliche Wärmeabfuhr vom Kühlblock gemeint ist) - das wusst ich bisher so nicht. Danke für die Erleuchtung. Also sind die 250W TDP genau richtig gewählt. :bigok:

Da gab es ja einen gewissen Rumor rum - die einen sagen, die (gesamte) Verlustleistung (Strom, nicht Wärmeabgabe über Kühlblock) würde überschritten, die anderen, dass der gesamte Kühler zu schwach dimensioniert sei. :fresse:
 
Zuletzt bearbeitet:
TDP ist rein eine angabe für die OEM's für wieviel thermische Verlustleistung die Ihre Gehäuse und Kühlung auslegen müssen. TDP ist sommit eine Angabe mit der der Endkunde nur bedingt was anfangen kann. Die korrekte Angabe für den Kunden wäre power consumption direkt übersetzt Stromverbrauch. Das hat auch jetzt Geizhals gerafft, so das die nicht mehr die TDP's der Hersteller angeben sondern einen höheren Wert. Die GTX480 ist auch mit 320W Verbrauch gelistet.

Trotz allem dem, ist die GTX480 vom Design her am thermischem Limit gebaut. Die Grafikkarte schafft gerade so eben unter Volllast sich hühl zu halten (ohne unterstützung eines Lüfters im Gehäuse, in einem offenem Testaufbau). NV verlangt nach einem Fermi Certified Gehäuse was ein unding ist. Die hätten noch eine leistungsfähigere Kühlkonstruktion bauen müssen. Die VapourChamber auf der 5970 schafft es ja auch bis zu 400W TDP abzuführen, obwohl die beiden Chips zu 286W TDP erzeugen. Ich hoffe nur das das PCB Foto einer GTX480 darstellt die in 3 Monaten auf den Markt kommt. Der Fermi Chip ist auch für mich Verlockend, doch in der Aktuellen version inakzeptabel.
 
Zuletzt bearbeitet:
Da die 480 sogar mehr Strom verballert als die 5970 ist das sowieso ein unding für ne Singelkarte beim heutigen stand der technik. Darüber braucht man eigendlich nicht zu diskutieren.
 
Zuletzt bearbeitet:
Ich hoffe nur das das PCB Foto einer GTX480 darstellt die in 3 Monaten auf den Markt kommt. Der Fermi Chip ist auch für mich Verlockend, doch in der Aktuellen version inakzeptabel.

Zu hoffen wäre es natürlich, aber es ist leider technisch nicht möglich. Der Chip hat nun mal ca. 1,5 mal so viele Transistoren wie der von Ati und dazu noch den Hotclock und die Karte hat 1,5 mal so viel Speicher, darum ist es nur logisch, dass sie 1,5 mal so viel Strom braucht. Da hilft auch keine neue Revision und kein neues PCB. Einzig und allein ein Shrink könnte das Problem lösen, aber wer noch dieses Jahr an 32nm oder gar 28nm Highend-Grafikchips glaubt, leidet eindeutig unter Realitätsverlust.
Nvidia kann nur ein besseres Kühlkonzept für die Karte erarbeiten.

Da die 480 sogar mehr Strom verballert als die 5970 ist das sowieso ein unding für ne Singelkarte beim heutigen stand der technik. Darüber braucht man eigendlich nicht zu diskutieren.

Das ist doch keine Kunst, am oberen Ende der Leistungsskala braucht man deutlich höhere Spannungen und die HD5970 ist die Dualversion der Sparvariante. Versuch mal eine HD5870 auf das Niveau einer GTX480 zu übertakten, da wirst du noch mehr als 320W brauchen. ;) Siehe GTX480 @ 1,1GHz -> 600W+
 
Zuletzt bearbeitet:
Den Fermi im Ist-Zustand zu releasen, könnte NV schlimmstenfalls den Finanziellen Overkill bescheren - mal sehen, ob sie's drauf ankommen lassen - ich glaube nicht !
Die machen mehr geld durch notebooks und Serverfarmen, wen die mal im High end breich ein Fail landen sind die noch laaannngggeee nicht erledigt ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh