nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Gab nen link
da hat einer eine 480 gemessen fast 300W ich glaub auch das es so ist wissen tun wirs übermorgen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
leute dual karte
das ding frisst alleine schon 200 +- x watt. Der Kühler müsste n monster sein um diese wärme abzuführen.
 
Bis jetzt weiß ich nur Gerüchteweiße von einer 470er mit 225Watt TDP die 215 Watt ziehen soll unter Furmark.

Warum sollte sich das bei der mit 250Watt TDP bezifferten Karte plötzlich um 50 Watt ins Gegenteil ändern

2 Unterschiedliche TDP Bewertungsgrundlagen wird Nvidia wohl nicht anwenden

Ohne zu viel zu verraten, der Fermi wird definitiv nicht sparsam ;) Wie man Sparsam definiert obliegt jedem seiner persönlichen Spekulationsmentalität ;)
 
Ich denke den Dual-Fermi wird nVidia einem Boardpartner überlassen, ähnlich die die 4850 X2 von Sapphire. Sie werden sich nicht die Blöße geben und die TDP-Grenze von 300 Watt der PCI-E-Spezifikationen brechen. Ein abgespeckter GTX 470 sollte mit 2 8-Pin-Steckern zu versorgen sein. Die Kühlung sollte mit 2 Axiallüftern auch nicht unmöglich sein. Dann bleibt halt etwas warme Luft im Gehäuse, aber wer sich eine solche Grafikkarte kauft, hat auch noch 5 Euro für einen Gehäuselüfter übrig.

MfG Di_Stefan0
 
iwo, 4-Slot Karte und gut is :fresse:
 
Wenn man sich die GPU selber und die Daten anschaut, wird einem die erhöhte Stromaufnahme spätestens dann klar. Ein Chip mit 3 Mrd. Transistoren muss irgendwie arbeiten können. Jeder einzelne Transistor muss mit Stom versorgt werden.

Ich kann auch nicht daher kommen und verlangen, dass ein i7 920 so viel Strom wie ein Atom aufnimmt. Die Rechnung geht einfach nicht auf.

Ob das Design am Ende effizient ist, werden wir ja nach dem NDA sehen :)
 
Wo habt ihr eigentlich alle diese genialen Glaskugeln her? Ich will sowas auch haben.

@Topic
im Prinzip ändert sich nicht viel zur 4800 vs gt200 Generation, nur dass AMD diesmal ein halbes Jahr früher am Start war und der Idle-Verbrauch deutlich besser ist.

Ich lehne mich jedenfalls entspannt mit meiner 215Euro 5850 zurück und warte auf die 32nm Generation.
 
Gab nen link
da hat einer eine 480 gemessen fast 300W ich glaub auch das es so ist wissen tun wirs übermorgen.

Das war aber der Vollausbau mit 512 Shadern mit 725/1450/1050

So war das glaub ich mal aufgelistet

512 - 725/1450/1050 295 TDP

480 - 725/1450/1050 275 TDP

480 - 701/1400/950 250 TDP
 
Zuletzt bearbeitet:
Weis ich die hatte nur 600 Mhz Takt und die mit 480 shadern hat 700. Da wird nicht die welt unterschied sein. Aber genau wissen wirs wenn verlässliche messungen kommen.
Ausserdem sollen die Karten im Idle ca 70 W ziiehen das wären bei ner Dual dann weit über 100 das wärs dann.
Da hat NV schon noch was zu tun bis ne dual kommen wird.
 
Zuletzt bearbeitet:
Wo habt ihr eigentlich alle diese genialen Glaskugeln her? Ich will sowas auch haben.

@Topic
im Prinzip ändert sich nicht viel zur 4800 vs gt200 Generation, nur dass AMD diesmal ein halbes Jahr früher am Start war und der Idle-Verbrauch deutlich besser ist.

Genau, es ist eigentlich das selbe, nur das sich Leistungs- und Verbrauchswerte allen Anschein nach in Richtung ATI verschoben haben, in Sachen Bildqualität (AA+AF) aufholen konnte und schon seit geraumer Zeit die komplette Produktpalette gelauncht hat. Aber ansonsten ist alles gleich.

Mal ehrlich: Der Grafikkartenmarkt ist ein sehr schnelllebiges Geschäft. Was gestern noch war, kann morgen schon wieder ganz anders sein, (siehe Bildqualität/AF bis G80-Launch) Da bringt es nichts sich auf die Vergangenheit zu beziehen um die Zukunft vorherzusehen.

MfG Di_Stefan0
 
Ob das Design am Ende effizient ist, werden wir ja nach dem NDA sehen :)

Ich denke nicht, denn ob das Design effizient ist, hängt immer von der Anwendung ab. Keiner von uns kann jetzt schon sagen, wie viele Spiele von DX11 wirklich gebrauch machen werden. Das Dx10 Debakel und die aktuelle Lage mit den Konsolenports lässt nichts gutes erahnen, die extrem leichte Implementierung und Skalierbarkeit von Tesselation hingegen geben einem wieder Hoffnung.
Sollte DX11 aber genauso wenig angenommen werden wie DX10, dann sind GF100 und Cypress eh für die Tonne und wir bleiben lieber bei den alten Karten. :fresse:
 
Wenn sie die 512 Shader gestrichen haben, dann nicht nur wegen der schlechten Yield Rate :)
 
ich frag mich ob die shader mit lasercut deaktiviert wurden oder ob es nur softwareseitig ist. wäre ja klasse *an geforce 6800 denk*
 
teuer meine 6800gt erstanden und dann kam später die 6800gs raus die man so modden konnte?! wtf! o_O

wäre cool, wenn das möglich wäre. die GTX470 würde am stärksten profitieren, aber auch die GTX480 hätte noch etwas spielraum nach oben.
 
Zuletzt bearbeitet:
damals bei der 6800 gings glaube ich noch per hardmod
Bei den späteren nur über softmod
 
ich frag mich ob die shader mit lasercut deaktiviert wurden oder ob es nur softwareseitig ist. wäre ja klasse *an geforce 6800 denk*

Wenns nur softwareseitig ist,fragt sich aber wieviele funktionstüchtige 512er Chips gibt es die man "öffnen" könnte.

Ebenso bei der 470er wobei ich da eher an einen Lasercut denke
 
Zuletzt bearbeitet:
joa, ist ja auch die frage in welchen situationen die fehler auftreten könnten.
 
Etwa für eine neue Spezialasus ala Mars.
Es gilt 472W und 10Sone zu überbieten. .:fresse:
 
Wenn man natürlich egal für und um jeden Preis nur die eine Marke haben kann dann ist das natürlich verständlich.... :fresse: Aber soi als Tipp: So ohne die Brille erscheint die Welt in noch mehr Farben ;)

Wo habt ihr eigentlich alle diese genialen Glaskugeln her? Ich will sowas auch haben.
Man nehme eine gute Portion Phantasie, ein halbes Pfund fundiertes Halbwissen, dazu 2-3 Tropfen "Fanboy", hier und da eine Prise Gerüchteküche und schüttel das ganze gut durch. Danach eine nacht abgedeckt ziehen lassen und am nächsten Tag für 2-3h bei 220 - 225°C (je nach Backofen) auf dem mittleren Rost gut durchbacken lassen. Dann langsam abkühlen lassen und schon hast du sie.
So ähnlich geht wie das Rezept der grünen oder roten Brille ;)
@Topic
im Prinzip ändert sich nicht viel zur 4800 vs gt200 Generation, nur dass AMD diesmal ein halbes Jahr früher am Start war und der Idle-Verbrauch deutlich besser ist.
So sehe ich das auch. Was nvidia dann in ein paar Tagen loslässt entpuppt sich entweder als kleiner, heißer Pups, als Hurricane oder einfach nur eine leichte bis starke Böhe.

Ich lehne mich jedenfalls entspannt mit meiner 215Euro 5850 zurück und warte auf die 32nm Generation.
:) Meine HD4870 OC bleibt auch noch eine Weile - denn sie läuft und bringt alles spielbar auf den Monitor, sogar Metro 2033 bei hohen Einstellungen.

Vielleicht haben die Boardpartner die lauffähigen Chips auch schon für Spezial Editionen eingeplant
Vielleicht sind die Boardpartner erstmal froh überhaupt funktionsfähige Chips zu bekommen die für 470 / 480er Karten reichen um überhaupt den Markt bedienen zu können ;)
 
Hier Kommentare unten lesen ;)
I am pleased to announce this card will put my personalised wind tunnel and nuclear power plant to good use. In other news, I will now be able to fry eggs and toast bread without leaving my PC, making my inner nerd happy.

Good job Asus, we love you...

Asus to Support GeForce GTX 480 Voltage Tweaks?
 
Zuletzt bearbeitet:
Glaubt ihr denn wirklich, dass - falls die Gerüchte stimmen - bei derart schlechter Ausbeute irgendwelche Chips, bei denen eigentlich alle Shader lauffähig sind, zu 470ern abgestuft werden? Das kann ich mir nicht vorstellen. Insofern sollte man zum eigenen Vorteil davon absehen, dort irgendwas zu aktivieren.
 
Gab es vor ein paar Monaten nicht direkt auf der Nvdia Twitterseite, dass alle GTX480 das Voltage Tweakfeature haben werden.
 
Glaubt ihr denn wirklich, dass - falls die Gerüchte stimmen - bei derart schlechter Ausbeute irgendwelche Chips, bei denen eigentlich alle Shader lauffähig sind, zu 470ern abgestuft werden? Das kann ich mir nicht vorstellen. Insofern sollte man zum eigenen Vorteil davon absehen, dort irgendwas zu aktivieren.

muss ja nicht zwangsläufig die 470er sein (obs möglich wäre da nur 320bit si?) gibt ja auch noch die 480er (die hingegen alle vorausetzungen erfüllen kann)

evtl wird es sogar so kommen das die ersten mit lasercut sind und später wenn der markt sich etwas beruhigt hat und die ausbeute um einiges besser ist es nur noch ein bios-/software-cut gibt.
 
muss ja nicht zwangsläufig die 470er sein (obs möglich wäre da nur 320bit si?) gibt ja auch noch die 480er (die hingegen alle vorausetzungen erfüllen kann)

evtl wird es sogar so kommen das die ersten mit lasercut sind und später wenn der markt sich etwas beruhigt hat und die ausbeute um einiges besser ist es nur noch ein bios-/software-cut gibt.

Eher andersrum ;)
Man wird wohl wenn dann die ersten Karten per Bios beschneiden und dann später in der Produktion das ganze via Lasercut wirklich trennen. Zumindest war es so in der Vergangenheit. Wer ganz zeitige Karten abgekommen hat, konnte idR drauf hoffen das dort was freischaltbar war ;)

Achso und auch die kleine 470er lässt sich theoretisch auf 512 ALUs freischalten, das funktioniert unabhängig vom SI ;) Mal blöd angenommen, man erwischt ne Karte wo irgendwas am SI nicht ganz stimmt, daraufhin trennt man einen Teil davon ab und muss das Ding zwangsläufig als 470er verkloppen. Obwohl vllt die ALUs und TMUs alle lauffähig waren.
Kann aber genausogut andersrum passieren ;)
 
ja aber ist lasercut nicht mit extrakosten verbunden? denn schließlich muss es wie der name schon sagte mit dem laser gecuttet werden und zweitens noch das bios abgeändert werden. beim bios/software cut fällt ja der lasercut weg
 
nvidiar2vb.jpg


hmmmm warum hab ich auf letzteres keinen zugriff? :d Hat das ein User erstellt, und ihr habts anschließend gesperrt, oder kommt das von eurer Seite?

€hdihht:

also so wie das aussieht, dürfte das doch von euch sein :p Was mag wohl der Titel bedeuten? :S:S

ps: ich bin schon richtig geil auf die karten :d:d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh