NVIDIA spricht über Leistungsaufnahme und Abwärme des GF100

Lese immer nur leistung leistung leistung .. sollte ein spiel auf der 5870 nicht spielbar sein, dann wird es auf der 480 auch nicht besser laufen !

Auch wenn ich eher aus dem nvidia lager bin, was die da mit dem fermi abgeliefert haben ist einfach nen witz .. auch wenn die leistung stimmt bleibt die 5870 meiner meinung nach ganz klar die bessere karte !

Und dass nvidia dann auch noch so nen geistigen dünnschiss ablässt macht den lacher komplett.
Das NV versucht den Fermi schönzureden ist irgendwie ja noch verständlich.
Die müssen ihre Missgeburt ja verkaufen.
Das sie umdenken müssen um zu überleben dürfte ihnen aber klar sein.
Mit so einer miesen effiziens geht das nämlich sicher nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das NV versucht den Fermi schönzureden ist irgendwie ja noch verständlich.
Die müssen ihre Missgeburt ja verkaufen.
Das sie umdenken müssen um zu überleben dürfte ihnen aber klar sein.
Mit so einer miesen effiziens geht das nämlich sicher nicht.
Ach wen ich mich recht erinnere waren die 48XX Karten auch nicht gerade effizent :rolleyes: Hardwareluxx - ATI Radeon HD 4890 vs. NVIDIA GeForce GTX 275 und dan noch die 4870 mit 60° im Idle ist genau so lächerlich..
 
Zuletzt bearbeitet:
aus dem grund wurde die karte ja genauso kritisiert und das völlig zu recht.
aber ati hat entsprechende konsequenzen daraus gezogen.

Das wird NV auch tun. Der GF100 ist technisch noch nicht am Ende und alles andere als ein misslungenes Stück Technik, zumindest in den Grundfesten. Nur ist der Chip bisher fehlerbehaftet was viele anscheinend noch nicht verstehen und braucht noch etwas feinarbeit.

@Motkachler, so wie es aussieht wird ATIs nächster Chip wieder ein Stück wachsen...
 
Das wird NV auch tun. Der GF100 ist technisch noch nicht am Ende und alles andere als ein misslungenes Stück Technik, zumindest in den Grundfesten. Nur ist der Chip bisher fehlerbehaftet was viele anscheinend noch nicht verstehen und braucht noch etwas feinarbeit.

@Motkachler, so wie es aussieht wird ATIs nächster Chip wieder ein Stück wachsen...

Nvidia wird es auch tun. Wo ist da also der Unterschied?!


der unterschied liegt für viele darin, dass nv einen riesen rückschritt gemacht hat was den stromverbrauch, wärmeentwicklung und lautstärke angeht.

und es wird sich zeigen was draus wird.
 
@Motkachler, so wie es aussieht wird ATIs nächster Chip wieder ein Stück wachsen...
Wenn ATI nen 60% grösseren Chip bauen würde der 70% mehr strom verballert aber nur 15% nehr leistet.. Und die Karte auch noch teurer und lauter ist wärs gemauso schrott wie es der jetzige Fermi ist.
Nur das wollen einige nicht zugeben. Das es NV nicht zugibt ist ja verständlich die müssen das Ding ja erstmal so verkaufen.
 
Zuletzt bearbeitet:
Das wird NV auch tun. Der GF100 ist technisch noch nicht am Ende und alles andere als ein misslungenes Stück Technik, zumindest in den Grundfesten. Nur ist der Chip bisher fehlerbehaftet was viele anscheinend noch nicht verstehen und braucht noch etwas feinarbeit.
Irgendwie widersprichst du dir selber. Wenn der Fermi fehlerbehaftet ist, ist er ein misslungenes Stück Technik.
Was man davon noch "retten" kann muss sich noch zeigen. Nur weil ATi beim R600 noch die Kurve gekriegt hat, heißt es nicht das nvidia das genauso schnell hinbekommt, gerade auch weil das Design des R600 nicht so kompliziert ist wie das des Fermis.

@Motkachler, so wie es aussieht wird ATIs nächster Chip wieder ein Stück wachsen...
Größerer Chip + höhere Leistungsaufnahme ist nicht gleich Ineffektiv. Wenn die Leistung pro Watt / Transistor stimmt ist das auch in Ordnung - was momentan beim Fermi halt nicht so ist. Dennoch wird der neue ATi Chip vermutlich immer noch kleiner ausfallen als der aktuelle Fermi und das ohne 28nm Prozess.
 
Irgendwie widersprichst du dir selber. Wenn der Fermi fehlerbehaftet ist, ist er ein misslungenes Stück Technik.
Was man davon noch "retten" kann muss sich noch zeigen. Nur weil ATi beim R600 noch die Kurve gekriegt hat, heißt es nicht das nvidia das genauso schnell hinbekommt, gerade auch weil das Design des R600 nicht so kompliziert ist wie das des Fermis.

Ich rede von Fehlern die man evtl sogar mit einem Fullrespin ausbügeln kann ;)
 
Der fermi Chip hat ne komplett neue architektur mit sehr viel know how und sehr guten technischen ansätzen mit der sie einige klassische GPU-Flaschenhälse ausgemerzt haben siehe nur die geringere textur leistung zum gtx 285 und trotzdem keine einbußen im AF wo ati immer noch stark hinterher hinkt oder die verbesserten Raster-Endstufen und verbesserte erweiterung und kompression wodurch eine viel bessere 8x msaa effizienz einhergeht... ATI hingegen nur eine wieterentwickelte architektur hat ist es doch klar das der cypress chip von ati viel ausgereifter und fehlerfreier is da brauch man auch keine ewig lange sinnlose diskusion drüber führen weil die diskusion keine ende nehmen würde die ati kiddies werden sich immer mit den nvidia kiddies streiten... fermi im aktuellen stepping is noch zu teuer und wegen der größe des chips viel zu ineffizient im stromverbrauch, was aber beim nachsten DIE-Shrink definitiv anders aussehen wird Nvidia wird die nächsten jahre die fermi architektur konstant verbessern da bin ich mir sicher... die wollen ja auch wieder geld verdienen mit den karten. Ati wird mit einer neuen architektur auch wieder kinderkrankheiten mitbringen die sie aber mit konstanter weiterentwicklung ausgebügelt bekommen.

P.S.
Die GTX 480 Karten die Mitte April an die Kunden ausgeliefert werden haben ein neues BIOS was einige fehler ausmerzt und den stromverbrauch im multi monitor betrieb behebt.
GeForce GTX 480 Gets a BIOS Update and Cooks an Egg - Trying To Solve The Temp Issues - Legit Reviews

MFG
Serialkiller
 
Das NV versucht den Fermi schönzureden ist irgendwie ja noch verständlich.
Die müssen ihre Missgeburt ja verkaufen.
Das sie umdenken müssen um zu überleben dürfte ihnen aber klar sein.
Mit so einer miesen effiziens geht das nämlich sicher nicht.

ganz genau einfach nur schrott was die da abgeliefert haben.
jede Karte wird mit Verlust verkauft, die Yields liegen unter 20%
Nvidia wird hunterte Millionen Verluste haben.
 
... was aber beim nachsten DIE-Shrink definitiv anders aussehen wird Nvidia wird die nächsten jahre die fermi architektur konstant verbessern da bin ich mir sicher.......

Hust, ich sage wieder mal nur 65nm vs 55nm bei nvidia. Es hat für die nur Produktionskosten eingespart, der Stromverbrauch wurde dadurch nicht reduziert, sondern hat sich sogar erhöht.
 
nö, der stromverbrauch wurde reduziert und zwar nicht zu gering ;)

wenn man die 65nm 260 GTX untertaktet kommt man ca. zur 55nm variante.
 
SemiAccurate hatte aber mit Fermi Spekus recht.

Tja nacher legen die das so aus als ob die meinten Fermi kommt in dieser Form nicht mehr auf den Markt.

Erste Lieferung an Fermis wird der Stromschlucker sein. Dann wird aber die Karte gegen eine 225W ersetzt. Es gibt auch schon ein neues Platinenlayaut.

Der Affe von SemiAccurate soll mal besser recherchieren.

±ÈÒ»Ïß»¹¿ì!Ì«Ñô»¨¾ª±¬·Ç¹«GTX480 PCB - IT168 ÏÔ¿¨×¨Çø

Und NEIN es ist keine Tesla Karte, da 2xDVI und 1xHDMI-mini
 
Zuletzt bearbeitet:
Tja nacher legen die das so aus als ob die meinten Fermi kommt in dieser Form nicht mehr auf den Markt.

Erste Lieferung an Fermis wird der Stromschlucker sein. Dann wird aber die Karte gegen eine 225W ersetzt. Es gibt auch schon ein neues Platinenlayaut.

Der Affe von SemiAccurate soll mal besser recherchieren.

±ÈÒ»Ïß»¹¿ì!Ì«Ñô»¨¾ª±¬·Ç¹«GTX480 PCB - IT168 ÏÔ¿¨×¨Çø

Und NEIN es ist keine Tesla Karte, da 2xDVI und 1xHDMI-mini

Und was lässt dich da so sicher sein, das diese Platine für eine 480GTX sein soll?
 
möglicherweise das letzte Bild in der Reihe wo groß X-Knight Geforce GTX 480 draufsteht? :d *Schulterzucken*
 
Naja NV allein kann man die schuld sicher nicht in die schuhe schieben denn die entwerfen nur den chip aber wer baut denn den chip???
TSMC ist dafür verantwortlich! Meint ihr echt das ATI oder NV gewußt haben das tsmc nicht in der lage ist endlich mal die 40nm in vernünftigen stückzahlen zu bauen ??
Ich kenne das nur von meiner arbeit da stellt sich eine firma hin und meint die bauen einem die werkzeuge perfekt und was kommt dann... Nur scheiße!!!!

So war das von NV zu 1000% nicht geplant! Habe auch wo gelesen das es da TSMC an den Kragen geht und die den ausfall zahlen müßen!
 
Zuletzt bearbeitet:
Naja, man kann sagen was man will, sicher, beide Hersteller haben von der TSMC-Verpfuschung nichts gewusst, aber man kann doch ganz schön erkennen, dass ATI mit der derzeitigen Situation besser umzugehen weiß...
 
ati hat ja auch eine höhere ausbeute, als nvidia 50% vs <20%
 
Naja, man kann sagen was man will, sicher, beide Hersteller haben von der TSMC-Verpfuschung nichts gewusst, aber man kann doch ganz schön erkennen, dass ATI mit der derzeitigen Situation besser umzugehen weiß...

Naja die haben eben glück gehabt ihr chip ist kleiner!
Hätte auch anders laufen können...
auf einmal wäre der Fermi besser gelaufen als man erwartet hat und es wäre auf einmal 800core 1600Shader (512shader) drin gewesen@ 200Watt!
Der schuldige für das ganze ist für mich der produzent da der wissen muß was geht und was eben nicht geht!
 
Zuletzt bearbeitet:
Naja NV allein kann man die schuld sicher nicht in die schuhe schieben denn die entwerfen nur den chip aber wer baut denn den chip???
TSMC ist dafür verantwortlich! Meint ihr echt das ATI oder NV gewußt haben das tsmc nicht in der lage ist endlich mal die 40nm in vernünftigen stückzahlen zu bauen ??
Ich kenne das nur von meiner arbeit da stellt sich eine firma hin und meint die bauen einem die werkzeuge perfekt und was kommt dann... Nur scheiße!!!!

So war das von NV zu 1000% nicht geplant! Habe auch wo gelesen das es da TSMC an den Kragen geht und die den ausfall zahlen müßen!

Neja im Gewissen Maße hat TSMC mit Sicherheit schuld. Dennoch ist es wohl als Grob Fahrlässig anzusehen, was NV da betreibt... Man hat doch schon beim G200 absehen können, das die Architektur einfach mal recht viel Platz auf dem Wafer brauch. Der Fermi machts da nicht wirklich besser. Und NV fällt wieder auf die Gusche. Groß, Heiß und teuer in der Produktion.

AMD hat damals beim R600 kräftig die Notbremse gezogen. Vllt wird NV sowas auch demnächst mal tun. Ein Fermi mit nativen 448 Shadern, 256Bit SI und richtig fixem GDDR5 Speicher wäre mit Sicherheit auch nahe an eine HD5870 rangekommen. Mit hier und da ner Optimierung usw. Genau in diesen sauren Apfel hat AMD damals gebissen, der Performancesprung von X1950XTX zu HD2900XT war recht gering. Dafür zahlt sich dieser Umschwung heute mehr als aus... Aber nein, NV will ja das schnellste im SingleGPU Markt haben. Egal wie und egal was kost.
 
Das Problem des Fermi dürfte auch sein das man aufgrund der Fertigungsprobleme bei TSMC auch Probleme beim Zeitplan bekommen hat einfach dadurch das man die Architektur nicht ausgiebig und schnell testen und weiterentwickeln kann.

Es wird nicht NVs Ziel beim Planen des Chips gewesen sein einen Chip zu bauen der soviel Abwärme produziert, als er aber dann soweit war musste man das nehmen was man hatte und das sieht man ja nun.

@fd, lass uns mal auf den GF104 warten, der scheint ungefähr sowas zu werden.
 
Ja das stimmt nv hätte das eigentlich wissen sollen! schon klar da gibt es nix dran zu rütteln!
Ich sagte auch in einem anderem thread das ich dann lieber die GTX295 als shrink in 40nm gebracht hätte mit GDDR5 (2x2GB) und ordentlich taktraten! DX11 natürlich auch! Das wäre dann erstmal sicher ne kleine pause für den noch nicht perfekten Fermi

Edit: hatte intel nicht damals wegen dem 45nm prozess extra das Hi-k material gebracht damit es keine probleme gibt oder weniger! AMD hatte da ja auch so seine probleme mit 45nm
Weiß das alles nicht mehr zu 100%
 
Zuletzt bearbeitet:
Naja die haben eben glück gehabt ihr chip ist kleiner!
Hätte auch anders laufen können...
auf einmal wäre der Fermi besser gelaufen als man erwartet hat und es wäre auf einmal 800core 1600Shader (512shader) drin gewesen@ 200Watt!
Der schuldige für das ganze ist für mich der produzent da der wissen muß was geht und was eben nicht geht!

Jaja das Gpu Geschäft basiert grösstenteils auf Glück.

In early 2008, going into Februrary, TSMC started dropping hints that ATI might not want to be so aggressive on what they think 40nm is going to cost. ATI?s costs might have been, at the time, a little opti

Entscheidung nicht Glück..
 
Fermi war primär ja nicht für den Gaming-Markt gedacht, sondern auf den professionellen Sektor ausgerichtet. Ich sehe es ja hier im Unternehmen, da werden 200 neue Rechner angeschafft mit Quadros (FX5800), die jeweils über 4000 Euro kosten, der Preis aber kein wirkliches Problem darstellt, solange die Performance passt. Heißt ja nicht umsonst, dass zwar 2/3 ihres Umsatzes mit Endverbraucher, aber 2/3 des gewinns im professionellen Anwendungsbereich gemacht wird.

Und nu, werde ich mit meiner 40nm GT330M ne runde spielen... ;)
 
Zuletzt bearbeitet:
Naja die haben eben glück gehabt ihr chip ist kleiner!
Hätte auch anders laufen können...
auf einmal wäre der Fermi besser gelaufen als man erwartet hat und es wäre auf einmal 800core 1600Shader (512shader) drin gewesen@ 200Watt!
Der schuldige für das ganze ist für mich der produzent da der wissen muß was geht und was eben nicht geht!

So einfach ist es ja nun auch wieder nicht. Je komplizierter ein Chip, desto komplizierter auch das Fertigungsverfahren, samt Belichtung usw usw Fermi ist einfach zu kompliziert und zu groß - das ist einzig und allein nvidias Schuld.
Das ATis Chip kleiner ist hat recht wenig mit "Glück" zu tun, sondern viel mehr mit der Erfahrung und den Künsten der Entwickler, sowie einem anderen Konzept als nvidia. So einfach ist das.

Und was soll nvidia machen? Eine 55nm Variante vom Fermi bringen? Damit noch mehr Beschränkungen bzgl des Verbrauchs bestehen? Damit die Chipkosten noch höher werden?

TSMC hat natürlich eine gewisse Mitschuld, aber weder an Leistungsaufnahme noch Abwärme noch Leistung pro Watt / Tranisitor ist TSMC Schuld, sie sind "nur" daran Schuld das sie es nicht gebacken kriegen den 40nm Prozess für solche komplizierten Chips in den Griff zu kriegen. Auch wären keine 200W mit vollen 512 Einheiten zustande gekommen. Das liegt einzig und allein am nvidia Design und nicht am Fertigungsverfahren!
Zudem gibt ja auch andere Sachen die bereits in 40nm produziert werden bei TSMC, ATi und nvidia sind da nicht die einzigen Kunden.


@whippersnapper
Selbst beim Profibereich hat man am Ziel mit dem Fermi vorbeigeschossen. Auch Firmen achten auf ihren Stromverbrauch, sei es nun bei Einzelplatzrechnern, Servern, Renderfarmen, der nötigen Kühlung per Klimaanlage. Selbst wenn man dann mit GGPU irgendwelche Berechnungen schneller hinkriegen würde ist die Leistung pro Watt meistens immer noch das entscheidende Kriterium und nicht immer das absolute Maximum.
 
Zuletzt bearbeitet:
So einfach ist es ja nun auch wieder nicht. Je komplizierter ein Chip, desto komplizierter auch das Fertigungsverfahren, samt Belichtung usw usw Fermi ist einfach zu kompliziert und zu groß - das ist einzig und allein nvidias Schuld.
Das ATis Chip kleiner ist hat recht wenig mit "Glück" zu tun, sondern viel mehr mit der Erfahrung und den Künsten der Entwickler, sowie einem anderen Konzept als nvidia. So einfach ist das.

Und was soll nvidia machen? Eine 55nm Variante vom Fermi bringen? Damit noch mehr Beschränkungen bzgl des Verbrauchs bestehen? Damit die Chipkosten noch höher werden?

TSMC hat natürlich eine gewisse Mitschuld, aber weder an Leistungsaufnahme noch Abwärme noch Leistung pro Watt / Tranisitor ist TSMC Schuld, sie sind "nur" daran Schuld das sie es nicht gebacken kriegen den 40nm Prozess für solche komplizierten Chips in den Griff zu kriegen. Auch wären keine 200W mit vollen 512 Einheiten zustande gekommen. Das liegt einzig und allein am nvidia Design und nicht am Fertigungsverfahren!

Ok das mag sein so genau weiß ich das nun nicht ich habe einfach vermutet das es so wäre ;)
Aber ich würde auch vermuten das tsmc schuld an der abwärme und dem energiebedarf hat da nicht genau genug gearbeitet wurde oder die qualität des wavers nicht den anforderungen entsprechen!
Bei mir im VW bauen wir die teile vom auto (motorhaube, dach usw) und da kannste manchmal mit einem und dem selben material mal mega probleme bekommen nur weil die güte um ein paar prozent schlechter ausfällt als sonst!
Material nr ist ein und die selbe aber mal ein wenig näher an der tolleranz und peng haste den ganzen tag nur ärger an der backe!
 
Zuletzt bearbeitet:
Die Architektur ist einfach nicht auf Stromsparen ausgelegt, da kann TSMC auch keine Wunder bewirken. nvidia ist durchaus bewusst das es zu Qualitätsschwankungen gibt, allein schon auf einem einzigen Wafer. Das ist bereits mit einberechnet in deren Planungen und das ist nicht erst seit gestern so. Sonst würden z.B. alle Chips gleich gut zum übertakten sein.

Es ist viel zu einfach jetzt TSMC noch weitere Probleme in die Schuhe zu schieben, obwohl es von nvidia verbockt wurde. Das einzige was man TSMC wie schon gesagt wirklich vorwerfen kann ist das sie behauptet haben das die Probleme bzgl des 40nm Prozesses behoben seien, was aber offenbar so nicht stimmte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh