Zu Besuch im Failure Lab bei NVIDIA: 10-nm-GPUs bereits im Test

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.224
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" alt="nvidia 2013" style="margin: 10px; float: left;" />Im Vorfeld der GPU Technology Conference 2016, <a href="index.php/news/allgemein/wirtschaft/38766-gtc-2016-nvidia-ist-laengst-kein-reines-geforce-unternehmen-mehr.html" target="_self">auf der unter anderem die neue Pascal-Architektur enthüllt wurde</a>, konnten einige ausgewählte Redaktionen das Failure Lab bei NVIDIA besuchen. Dabei handelt es sich um eine Einrichtung direkt bei NVIDIA im kalifornischen Santa Clara, die sicherstellen soll, dass es beim Design und anschließend in der Fertigung nicht zu Fehlern innerhalb des Chips kommt.</p>
<p>Wie wichtig dieses Thema ist, weiß NVIDIA sicherlich spätestens seit dem verspäteten Launch der Fermi-Architektur. Damals kam es...<br /><br /><a href="/index.php/news/hardware/grafikkarten/38893-zu-besuch-im-failure-lab-bei-nvidia-10-nm-gpus-bereits-im-test.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solange ich als Endabnehmer kein Produkt mit der "derzeitigen supertollen" (16nm) Node von TSMC kaufen kann, welche auch eine Mehrperformance gegenüber der alten Node mitsich bringt, ist für mich persönlich das Node-Rennen sowas von Schnuppe geworden...sieht man ja bei Intel: gleiche Performance bei gleichen Preisen im Desktopsegment und das seit Jahren.

Soll sich doch Apple darum kloppen.
 
Der Kollege heißt Blunty und nicht Buntay ^^
 
Ich glaube nicht, dass die reduzierte Speicheranbindung dort Thema war. Das war eine Design-Entscheidung die viel früher gefallen ist. Die Karte hat sich genau so verhalten, wie es vorgesehen war.
 
Die Karte hat sich genau so verhalten, wie es vorgesehen war.

Und leider auch die Kunden. Die haben die Dinger wie die Bekloppten gekauft, obwohl diese Designentscheidung die Karten nun nachweislich deutlich eher obsolet macht, als die Konkurrenz in Form der R9 390.
Denn obwohl die GPU der GTX970 eigentlich genügend Power hat, wird sie durch den "Krüppelspeicher" in einigen Spielen deutlich limitiert. Karten mit vollen 4GB oder mehr Speicher, erzielen da zuweilen selbst bei geringerer GPU Leistung bessere Ergebnisse.

Einzige Lösung ist dann, Speicherfressende Grafikfeatures zu deaktivieren oder zumindest zu reduzieren.

Ich bin schon jetzt gespannt darauf, wieviele Käufer einer GTX970 sich in den nächsten Monaten eine neue Karte mit mehr Speicher zulegen und zu welchen Spottpreisen die gebrauchten Karten dann verramscht werden.
Evtl. wäre das ne gute Gelegenheit für mich zu einem kleinen Leistungsupgrade für wenig Geld.
 
Eben, die Kommunikation mit dem Kunden war hier der Fehler.
 
Und leider auch die Kunden. Die haben die Dinger wie die Bekloppten gekauft, obwohl diese Designentscheidung die Karten nun nachweislich deutlich eher obsolet macht, als die Konkurrenz in Form der R9 390.

Nur gab es zu Release der 970 keine 390er AMD Konkurrenz ;)
Q9/14 verbucht die 970er als Release, die Designentscheidung zu Chipkastration ist also irgendwo vor Release getroffen wurden, denn es gibt nicht einen einzigen bekannten Fall einer nicht kastrierten Desktop 970er in freier Wildbahn.
Im Vergleich, die 390er kamen 06/15 -> das sind fast auf den Tag genau neun! Monate. Wie kann also die 390er Konkurrenz sein? Sie wurde es ab Release, keine Frage, aber da war A) das volle Ausmaß der Kastration hinlänglich bekannt und B) die halbe Lebenszeit des GM204 schon fast rum.

Auch halte ich es nach wie vor für extrem naiv zu glauben, dass voll angebundenen und wie normal nutzbare 4GB Modellen des GM204 oder auch anderen GPUs in ähnlichen Leistungsrahmen deutlich mehr Lebenszeit beschert wird. Der Drops wurde mit der halbwegs günstigen 390er angefangen zu lutschen und wird spätestens mit dem GP104/Polaris gelutscht sein, denn dann werden bei zunehmender Verbreitung der 8GB Karten in der Performance/HighEnd Klasse auch schnell Spieletitel folgen, die entsprechenden Bedarf danach haben. Wir sprechen hier immerhin um 100% mehr Speicher und damit einem deutlichen Sprung. Da kann sich jeder selbst ausrechnen was mit 4GB Modellen passiert, wenn mal echter Bedarf nach 5, 6 oder 7GB(+) besteht. Das der Umstand eher früher als später eintritt, zeigen HEUTE schon diverse Frametimemessungen so mancher neuerer Spiele -> da wird der GM204 oder eine 4GB Hawaii auch bei spielbaren FPS schon unruhig, die 970er knickt früh schon ein und der 3GB GK110 tut's auch häufiger schon nicht mehr mit voller Texturqualität. Ausgehend von letzterem wären das poplige 30% Reserve bis zum Problem ;)

Übrigens kann man an der Stelle noch einen ganz anderen Punkt einberufen, es liegt im Rahmen den möglichen, dass NV gezielt den GM204 nicht "zu" gut gebaut hat, damit der Nachfolger attraktiver wird ;) bist du nicht gerade UHD Gamer kommt man mit der GPU Power durchaus "noch" hin und auch sind signifikante Sprünge vorerst nicht zu erwarten... wie also Attraktivität herstellen? Effizienz? Punktet man schon, Features? Ist Maxwell auch gut aufgestellt, teils besser als die Konkurrenz. Also wie machen?
Das geht durchaus auch indem man in Situationen, wo man mehr Marktmacht hat und der Konkurrent nicht massiv Punkten kann, mit dem technisch möglichen hinterm Berg hält um das Nachfolgeprodukt besser aussehen zu lassen...
 
Mal eine Frage, wo kann man sich für das Werbeprogramm anmelden? Kriegst du da eine 970 am Schluss oder läuft das dann nach Beiträgen?

Noch einmal: Die GeForce GTX 970 bzw. die darauf verbaute GPU mit einem zum Teil langsam angebundenen Speicher war so geplant, das ist ja kein Fehler gewesen, sondern eine bewusste Entscheidung von NVIDIA. Der Fehler wurde darin gemacht, da man dies nicht kommuniziert hat.
 
Um wieder zum Thema zurückzukommen: Nvidia steht aktuell ganz gut da, wird aber mittelfristig Schwierigkeiten bekommen, ihre Vormachtstellung zu halten. AMD wird mit 500mm² Chipfläche das gleiche schaffen, was Nvidia mit 600mm² schaffen kann. Das liegt einfach an dem kleineren Fertigungsverfahren und den kommenden Techniken DX12 und Vulkan. Somit wird Nvidia sicherlich mit Hochdruck am nächsten Shrink arbeiten. Ob AMD das genauso ernst nimmt, weiß ich gerade nicht. Da las ich zuletzt, dass man erst mal einige Chips auf 14nm basieren lassen möchte. Ziemlich sicher ist die Zeit zum Ausruhen aber nicht da.
 
Noch einmal: Die GeForce GTX 970 bzw. die darauf verbaute GPU mit einem zum Teil langsam angebundenen Speicher war so geplant, das ist ja kein Fehler gewesen, sondern eine bewusste Entscheidung von NVIDIA. Der Fehler wurde darin gemacht, da man dies nicht kommuniziert hat.
Das selbst Wochen nach release immer noch nicht zum "kommunizieren" war wiederum aber auch kein Fehler, sondern bewusste Täuschung.

Das Thema wurde allerdings inzwischen schon ziemlich oft durchgekaut und hat nicht viel mit 10nm chips zutun.
Bis 10nm in gpus ankommen dauert es jedenfalls noch recht lange. Auf jeden Fall wird das nichts vor Intel werden.
 
Zuletzt bearbeitet:
Das selbst Wochen nach release immer noch nicht zum "kommunizieren" war wiederum aber auch kein Fehler, sondern bewusste Täuschung.

Keine Frage, da wurden viele Fehler auf Seiten von NVIDIA gemacht hinsichtlich der Kommunikation. Hätte man das direkt beim Launch kommuniziert, wäre das alles kein Problem gewesen.

Das Thema wurde allerdings inzwischen schon ziemlich oft durchgekaut und hat nicht viel mit 10nm chips zutun.
Bis 10nm in gpus ankommen dauert es jedenfalls noch recht lange. Auf jeden Fall wird das nichts vor Intel werden.[/QUOTE]

Ja, bis NVIDIA 10-nm-GPUs liefern wird, wird noch etwas dauern. Dennoch interessant, dass man hier offenbar schon erste Versuche mit der Fertigung gestartet hat.
 
Was ist daran besonders?

Läuft doch immer und überall so in der Branche. Intel hat auch schon ganz andere CPUs in der Mache, als das was uns da erzählt wird.

Man ist immer 2-3 Generationen weiter in der Entwicklung. Man kann so immernoch eingreifen und korrigieren im langen Entwicklungsprozess.
 
Na klar sind die immer 1-2 oder auch 3 Generationen weiter, als das was auf dem Markt ist. Wenn du mit den Architektur-Leuten über die aktuelle Architektur redest, ist das für die auch als würden sie über die Vergangenheit nachdenken "wie war das bei Pascal noch einmal ..." ;)

Die 10 nm wird man sicherlich auch mehr oder weniger bewusst in einem Nebensatz fallen gelassen haben.
 
Ich finde die Aussage etwas grenzwertig, das es kein Problem ist, weil ja so designed. Warum kreidet ihr dann bei Grafikkartentests die Lautstärke der Lüfter an oder die hohe Temperatur? Ist ja auch so designed und kann demnach kein Problem/Negativpunkt sein.
 
Darum geht es doch gar nicht. In so einem Testlabor stellen bewusste Designentscheidungen, die vielleicht später der Kunde als problematisch empfindet, doch kein Problem dar. Auch ist die Lautstärke eines Kühlers und das subjektive Empfinden des Kunden kein Thema für das Failure Lab. Es geht ausschließlich um technische Eigenschaften der Architektur, die sich anders Verhalten als spezifiziert.

mfg TommyB
 
Darum geht es doch gar nicht. In so einem Testlabor stellen bewusste Designentscheidungen, die vielleicht später der Kunde als problematisch empfindet, doch kein Problem dar.
Dass ein Teil des Speichers grundsätzlich langsamer angesprochen werden kann als der Rest, war ganz sicher ein bekanntes Problem und wurde auch intern von den Entwicklern so genannt..
Man hat sich nur entschieden das so beizubehalten, weil man sonst hätte weniger weglasern können.
 
Da ist was dran, geht schon auch um so Dinge wie Unternehemskultur usw. in diesem Zusammenhang ja eindeutig .... und dazu kann man auch eindeutig eine Haltung zu haben ...
 
Zuletzt bearbeitet:
Klar kann man das - aber man sollte dann auch bei den Tatsachen bleiben.

Es ist nunmal kein Fehler an der Karte - die wollten es so :)
 
Da ist was dran, geht schon auch um so Dinge wie Unternehemskultur usw. in diesem Zusammenhang ja eindeutig .... und dazu kann man auch eindeutig eine Haltung zu haben ...

Nein. Hier geht es um das Failure Lab und nicht um irgendeine Unternehmenskultur oder ethischen Normen oder Werte oder sonstwas was ein Hersteller nach Meinung irgendwelcher Leute zu erfüllen hat.
Alashondra formuliert es zwar harsch aber so ist es.


mfg TommyB
 
Eigentlich bin ich überhaupt nicht gläubig, aber:

Lieber Gott, lass es nie wieder zu so einem Theater um eine Grafikkarte kommen!!!

Wie kann man sich denn in JEDEM beschissenen Thema mit der GTX 970 beschäftigen? Hier geht es um etwas komplett anderes in diesem Thread.
Demnächst wird auch im Kaffeeautomaten-Kaufberatungs-Thread über die GTX 970 hergezogen.
Geht's euch noch gut?
 
Eigentlich bin ich überhaupt nicht gläubig, aber:

Lieber Gott, lass es nie wieder zu so einem Theater um eine Grafikkarte kommen!!!

Wie kann man sich denn in JEDEM beschissenen Thema mit der GTX 970 beschäftigen? Hier geht es um etwas komplett anderes in diesem Thread.
Demnächst wird auch im Kaffeeautomaten-Kaufberatungs-Thread über die GTX 970 hergezogen.
Geht's euch noch gut?
Es ist einfach frustrierend dass Nvidia ungestraft sowas abziehen kann...
Foren wie diese sind dann noch zu kleines Ventil.
 
Vergleich es doch mit VW. Der Abgsasskandal ist auch eine Schweinerei. Dennoch bauen sie gute Autos.
Das gleiche sehe ich bei der 970. Und nun :btt2:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh