NVIDIA spricht über Leistungsaufnahme und Abwärme des GF100

Nein, das ist NVs schuld. Aber Veränderungen im Design kann man erst machen wenn man was handfestes vor sich hat. Als man den Chips simuliert hat waren es unter Garantie keine ~250 Watt Leistungsaufnahme und nicht nur 480 lauffähige Shader und wohl auch höhere Taktraten.

TSMC ist an diesen Dingen nicht schuld, aber sie haben NV dabei unter die Arme gegriffen die Probleme nicht schnell genug lösen zu können.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Daher sage ich verlass dich nicht auf andere! NV sollte die chips selber bauen weil dann gäbe es werks intern wenigstens komunikation darüber ob das nun klappt oder nicht..
Bin mal gespannt wie das mit dem 32nm und 28nm wird :d
 
Zuletzt bearbeitet:
Könnte sich nvidia gar nicht leisten eine Produktionsstraße hochzuziehen und danach auch noch Geld zur Modernisierung und für den Betrieb zu haben.
 
Daher sage ich verlass dich nicht auf andere! NV sollte die chips selber bauen weil dann gäbe es werks intern wenigstens komunikation darüber ob das nun klappt oder nicht..
Bin mal gespannt wie das mit dem 32nm und 28nm wird :d
bin dafür, leider gibts momentan keine EUV-Lithographie-prototypen mehr um in diesen verfahren produzieren zu könnnen. :fresse:
 
Und was lässt dich da so sicher sein, das diese Platine für eine 480GTX sein soll?

Es ist bis auf den zusäzlichen DVI und HDMI Port exakt die Tesla Platine. Da aber nur 2x75W PCIe Power drauf sind und die Platine über 384 bit verfügt kann es sich nur um eine GTX480 aktuell handeln.

Einfach mal die Speicherchips nachzählen. Aber ich würde über eine GTX475 auch keine einwende haben.
 
Zuletzt bearbeitet:
Der fermi Chip hat ne komplett neue architektur
Nein, hat er nicht. Fermi nutzt immer noch die skalare Shaderarchitektur, die schon beim G80 zum Einsatz kam, natürlich in überarbeiteter Form. Und das ist auch nVidias grösstes Problem, imo.
Ich frage mich, wie lange diese Behauptung noch kolportiert wird. :rolleyes:

Hust, ich sage wieder mal nur 65nm vs 55nm bei nvidia. Es hat für die nur Produktionskosten eingespart, der Stromverbrauch wurde dadurch nicht reduziert, sondern hat sich sogar erhöht.
Dass er sich erhöht hat, habe ich zwar nicht gesehen. Aber sei es drum. Von 65 auf 55 nm war nur ein Half-Node Shrink, die Prozessparameter haben sich dadurch nicht grundlegend verändert. Grosse Sprünge gibt es idR nur mit einem Full-Node Shrink (... 90/80 -> 65/55 -> 45/40 -> 32/28 -> 22 ...). Half-Nodes sind idR dafür gedacht, die Fläche des Chips zu verringern und so die Ausbeute pro Wafer zu erhöhen.
 
Die Skalar-Einheiten sind natürlich nicht identisch, aber ja - sehr ähnlich in vielerlei Hinsicht.
Turbostaat schrieb:
Es hat für die nur Produktionskosten eingespart, der Stromverbrauch wurde dadurch nicht reduziert, sondern hat sich sogar erhöht.
Da es keine Karte gibt, die bei identischem PCB mit GT200b und GT200 bei gleichem Takt und gleicher Spannung verfügbar ist, lässt sich eine solche Behauptung weder widerlegen, noch beweisen. Ein Shrink erlaubt meist aber die Senkung der Vcore, indirekt ist 55 nm somit doch sparsamer.
 
Ich bin gerade am überlegen. ATi packt die Shader in die mitte. NV nach außen und dann noch mit höherem Takt. Man verlängert bei NV unnötig die Leitungen und das noch bei höherer Frequenz. Lange Leitung hohe Frequenz, nix gut. Ich glaube NV kämpft bei dem Fermi mit hoher Dämpfung. Mal sehen wie der GF104 vom Layout aussieht.
 
Was nützt mir das der 55nm Chip stromsparender ist als der 65nm wenn es nicht ausgenutzt wird / werden kann?
Das sind genau die selben sinnfreien Vergleiche wie z.B. wir messen CPU ohne Board, sagen dann die CPU ist sparsamer als X, aber das Board bzw dessen Chipsatz frisst sonstwas...
 
Eine GTX285 schluckt weniger als eine GTX280 und ist schneller. Eine GTX260-216 55nm schluckt weniger als eine GTX260-192 65nm und ist schneller.
Einzig die GTX275 fällt aus dem Raster - hier verbaut NV aber miese GPUs und prügelt sie per Spannung hoch. Resteverwertung wie bei der HD5830 halt.

EDIT
CPUs ohne Board vermessen ist imo sehr interessant, zumindest innerhalb eines Sockels (sprich bei gleichem Board). Also etwa 720 BE vs. 965 BE C2 vs. 965 BE C3. Will man AMD und Intel vergleichen, ist's witzlos - eben wegen dem Board.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh