NVIDIA vor Kepler noch mit einem Fermi-Shrink auf 28 nm

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.021
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Sowohl <a href="http://www.amd.de">AMD</a> als auch <a href="http://www.nvidia.de">NVIDIA</a> arbeiten derzeit an der nächsten GPU-Generation. Ob sich dabei auch in architektonischer Hinsicht etwas tut, ist nicht in voller Breite der Produktserien sichergestellt. <a href="index.php/news/hardware/notebooks/19678-amds-und-nvidias-28-nm-gpus-fuer-den-mobilbereich-enthuellt.html">Ende August tauchten bereits erste Gerüchte auf</a>, dass NVIDIA gegen Ende des Jahres neue GPUs für den mobilen Bereich vorstellen wird, die ein Shrink der aktuellen Fermi-Varianten darstellen. Auch für die <a...<p><a href="/index.php?option=com_content&view=article&id=19856&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn sie das tun, das heisst dann ja nicht unbedingt automatisch das die 28nm Fermi auch verkauft werden?
Genauso bei AMD. Man will ja nur feststellen ob die Teile dann auch funktionieren, wie sie sich verhalten und wo möglicherweise noch Probleme bestehen.
Ist ja auch keine schlechte Idee, versucht man sich gleich an einer neuen Architektur im 28nm Verfahren weiß man am Ende gar nicht woran es liegt wenn der chip nicht richtig funktionieren sollte.
Oder ist es so, das wenn man gerade schön am 28nm Fermi produzieren ist, immer gleich so eine große Ausbeute hat\haben muss, das man am Verkauf nicht vorbei kommt..?
 
Der Rubel muß rollen :d... für mich sieht das eher so aus das Kepler noch Zeit braucht.
 
Ich denke auch das Kepler etwas mehr Zeit wie angegeben braucht wenn Nvidia sowas macht...
Und was springt am ende raus?
Kaum mehr Performance... außer Nvidia taktet die 28nm GTX580 auf 1000MHz was ich aber bezweifel ;)
 
Der Grund ist doch offensichtlich (m.M. nach):

NV verdient mit den aktuellen Modellen immer noch sehr gut (auch die Grafikkartenhersteller beklagen sich nicht),
also warum das nicht noch weiter ausbauen und (aus-)nutzen!?

Um so eher man Kepler auf dem Markt wirft würde man sich ja selbst schaden.

Es gibt keinen Grund Kepler - jetzt schon - auf dem Markt zu bringen,
gerade wenn man doch Techniken wie SLI an den Mann/Frau näher bringen will (meinem Gefühl nach werden es mehr und mehr Nutzer).

Die Umstellung auf 28mm macht durchaus Sinn bei einer bestehenden Technologie,
wenn die Geschichte zuverlässig läuft kann man sich auf Kepler konzentrieren.
 
Zuletzt bearbeitet:
Ich denke auch das es sehr sinnvoll ist einen 28nm Fermi zu bauen genauso wie einen 28nm Cayman zu bringen seitens AMD!
Wenn das gut rennt und man eine höhere ausbeute bekommt warum nicht!
Leistungsmässig wäre es natürlich zu wünschen wenn diese GPUs dann auch 20-30% Mehr takt erlauben würden!
Grade bei einer GTX590 oder HD6990 wäre es doch top wenn die dinger in 28nm produziert werden weil sie dann eigentlich kühler sein sollten und auch deutlich weniger verbrauchen bei höherer taktraten!
Stellt euch mal vor eine GTX590 mit richtung 1Ghz :d
 
Zuletzt bearbeitet:
Ich denke Kepler ist noch lange nicht fertig oder hat mit gravierenden Problemen zu kämpfen und der 28nm Fermi ist einfach eine Notlösung.
 
Das bezieht sich ja primär auf die Mobilen GPUs, kann schon sein, das NV hier nen 28nm Fermi Shrink @ Mobile macht.
 
Ein shrink ist immer gut weil wenn alles klappt die ausbeute erhöt werden kann und man mehr gewinn erzielt!
 
Wenns ein 1:1 Shrink ist, dann werden wir einen halb so großen Chip haben. Aber irgendwie hab ich mich an die Größe von Chips gewöhnt. Vor allem könnte man mit größeren Chips eine höhere Effizienz fahren.

Beispiel: Kleiner Chip hochgetaktet verbraucht mehr Saft als ein großer Chip unter Standard-Takt (wenn beide jetzt die gleiche Leistung haben). Von daher mag ich lieber die größeren Chips, da "fühl" ich mich wohler beim Kauf. Wobei das natürlich eher ne subjektive Sache ist.
 
Ist bei Intel ähnlich
Erstmal alte Architektur (Tick/DIE Shrink) in neuen Strukturen testen und erfahrung sammeln, danach kommt (Tock) überarbeitete Architektur im kleineren Prozess.
 
Es gibt keinen Grund Kepler - jetzt schon - auf dem Markt zu bringen,
gerade wenn man doch Techniken wie SLI an den Mann/Frau näher bringen will (meinem Gefühl nach werden es mehr und mehr Nutzer).

Dann könnte man auch sagen Intel bräuchte Ivy Bridge nicht auf den Markt zu bringen. Aktuelle Entwicklungen auszubremsen macht aber auch keinen Sinn wie man sieht. Stillstand ist Rückschritt ;)

Das bezieht sich ja primär auf die Mobilen GPUs, kann schon sein, das NV hier nen 28nm Fermi Shrink @ Mobile macht.

Die alten Gerüchte beziehen sich auf die mobilen GPUs. Das neue nicht mehr.
 
Ein shrink ist immer gut weil wenn alles klappt die ausbeute erhöt werden kann und man mehr gewinn erzielt!

Das ja nur die halbe Wahrheit...
Ein Produkt zu shrinken kostet genau so Entwicklungsaufwand und somit Geld. Und ob die alte GPU Generation diesen Aufwand im Desktop Markt wieder rein spielen kann, wo doch die neuen Produkte vor der Tür stehen, halte ich für fraglich. Des weiteren scheint es zumindest was dieses Jahr angeht Probleme bei TSMC zu geben, was 28nm angeht.

Beispiel: Kleiner Chip hochgetaktet verbraucht mehr Saft als ein großer Chip unter Standard-Takt (wenn beide jetzt die gleiche Leistung haben). Von daher mag ich lieber die größeren Chips, da "fühl" ich mich wohler beim Kauf. Wobei das natürlich eher ne subjektive Sache ist.

Das ist irgendwie Quark ;)
Wieso sollte der kleine Chip höher takten? Das macht keinen Sinn. Shrinkt man ein Produkt, so bleiben die Ausführungseinheiten in der Anzahl identisch zum Vorgänger. Bei gleichem Takt wird der shrink also idR auch weniger verbrauchen bei gleicher Leistung.

Ebenso ist Standardtakt nirgends definiert.
 
Also es wäre natürlich super für AMD, wenn Nvidia ihre neue Architektur erst später auf den Markt bringen kann. Ich denke wir sollten einfach abwarten.
 
Dann könnte man auch sagen Intel bräuchte Ivy Bridge nicht auf den Markt zu bringen. Aktuelle Entwicklungen auszubremsen macht aber auch keinen Sinn wie man sieht. Stillstand ist Rückschritt ;)


Aber interne Entwicklung und das was extern (auf dem Markt) gemacht wird,
sind aber ein paar unterschiedliche Schuhe.

Solange ATI nichts schnelleres anbietet, tut es für NV nicht Not was zu veröffentlichen was vielleicht schon längst fertig ist.

Klar hinter den Kulissen forscht man natürlich eifrig weiter..

Hat sich Ivy nicht auch schon längst verschoben?

Wenn es Intel nötig gehabt hätte, gäbs heute schon ein 2700K - aber wozu!?

Ich finde schon das man da Ähnlichkeiten reininterpretieren könnte,
ist aber natürlich alles wilde Spekulation!

Ich geb Dir aber Recht: Stillstand ist Rückschritt!

Bei Apple bin ich mir aber absolut sicher,
immer ein Produkt auf dem Markt was die Kundschaft zufriedenstellt, aber immer noch genug Potential nach oben offen lässt für Verbesserungen.
Bestes Beispiel : das Ipad!

ein Hersteller der von Anfang an DAS Perfekte Produkt veröffentlicht,
wie will er denn da innerhalb eines Jahres was besseres vorzeigen?

Das jährliche Veröffentlichungen Geld in die Kassen spülen zeigt am besten der Software-Markt:

Winzip 15.5 / O&O Defrag 14 usw.

Wenn es immer unter gleichen Namen/Nr. laufen würde,
gäb es bestimmt weniger Käufer.
 
Zuletzt bearbeitet:
Ich glaube kaum, daß sich Nvidia oder Intel sich es leisten können, ein Produkt, daß schon Unsummen an Entwicklungskosten produziert hat, künstlich zurückzuhalten, nur weil die Konkurrenz nicht da ist. Wenn man schon einen Vorsprung hat, dann hält man den nicht nur, sondern baut diesen in der Regel aus, damit man Reserven hat, wenns mal nicht so gut läuft.
 
Das ja nur die halbe Wahrheit...
Ein Produkt zu shrinken kostet genau so Entwicklungsaufwand und somit Geld. Und ob die alte GPU Generation diesen Aufwand im Desktop Markt wieder rein spielen kann, wo doch die neuen Produkte vor der Tür stehen, halte ich für fraglich. Des weiteren scheint es zumindest was dieses Jahr angeht Probleme bei TSMC zu geben, was 28nm angeht.

Also ich glaube kaum das das mehr kostet als wenn ich einen neuen chip kommplett neu entwickeln muss!
AMD macht das auch mit dem shrink bei der HD6970 welche dann als HD7870 in 28nm auf den markt kommen wird!
Also bringt man erstmal die alte architektur in 28nm und später dann den highend wenn die probleme aus der welt sind!
Ich denke NV wird das genauso machen erstmal die GTX650 und GTX660 alias Fermi GTX570 und GTX580 und später wenn alles läuft dann den kracher Kepler!!
Das ist sicher die antwort auf AMDs taktik weil die werden das sicher nicht anders machen! Weil ein geshrinkter Cayman sicher etwas schneller als die GTX580 sein wird und NV kann gleich mit einer GTX660 konntern ;)
 
das kann man jetzt weiterspinnen bis zum erbrechen....der chip ist fertig sonst könnten sie ihn nicht auf "alte" PCBs pappen :d wenn da jetzt was nicht "läuft" läuft es nimmer mehr..die sehen vieleicht jetzt schon einen Überschuß in "nicht so guten Kepler chips" und da gehen sie eben so raus.
 
Glaube nicht das ein shrink einer GTX580 1 zu 1 übernommen wird.
Das läuft meist auf abgespeckte Varianten hinaus.
Speicher Interface beschnitten usw.
 
Zuletzt bearbeitet:
Du kannst jetzt an Kepler nichts mehr ändern, der steht. Da kann man nicht auf die schnelle noch was ändern, außer "Feinschliff"..Kühlung..etc..und vorallem auch Treiber testen...
 
Zuletzt bearbeitet:
Die Frage, die ich mir zurzeit stelle, ist eine ganz andere: Würde so eine 28nm GTX580 (einfach mal der Annahme halber) mit einer 40nm 580 im SLI funktionieren? Gabs ja damals bei der 260 auch wenn ichs noch richtig weiß, ne 55 und 65nm GPU...
 
Die Frage, die ich mir zurzeit stelle, ist eine ganz andere: Würde so eine 28nm GTX580 (einfach mal der Annahme halber) mit einer 40nm 580 im SLI funktionieren? Gabs ja damals bei der 260 auch wenn ichs noch richtig weiß, ne 55 und 65nm GPU...

Das wäre kein Problem, so lange es eben die gleiche Karte ist.
 
Super, dann hätt ich bei ner zweiten 580 Phantom in 28nm demnach auch keine Probleme mit dem Netzteil und die Abwärme wär auch kleiner. Also, her damit! :drool:
 
@Jousten
Die Konstalation wird denke ich mal ein Traum bleiben.
Da gebe ich jetzt schon Brief und Siegel drauf das das Teil wenn es den so kommen sollte ein 256 Bit Interface verpasst bekommt.
Wieso sollte NV da den in Midrange noch gross Kohle in ein 384 Bit Interface stecken die Lebensdauer eines solche refreches wäre ja nur von kurzer Zeit da Kepler kurz drauf erscheint.
 
Zuletzt bearbeitet:
Also ich glaube kaum das das mehr kostet als wenn ich einen neuen chip kommplett neu entwickeln muss!
AMD macht das auch mit dem shrink bei der HD6970 welche dann als HD7870 in 28nm auf den markt kommen wird!

Das hab ich nicht gesagt...
Aber man entwickelt eine neue Generation und entwickelt die alte Generation gleichsam weiter. Das sind zwei Arbeitsschritte, die man hätte in einem vereinen können, nämlich die neue Generation einfach in mehreren Ausbauformen zu bringen.
Die Einheiten zu kastrieren und den Chip neu zu designen, das sich der Spaß schlussentlich ausgeht, wäre ein leichtes im Vergleich dazu eine vollständig vorhandene Technik zu shrinken und dann ebenso die nötigen Kastrationsschritte usw. durchzuführen.

Für mich klingt das alles irgendwie eher danach, man will die Zeit überbrücken. Schließlich gibts Fermi (GF100) nun auch schon wieder seit 1,5 Jahren, bis Kepler kommt, sind die zwei Jahre voll. Und die Leistung ist nicht sonderlich gestiegen.

Mit einem 28nm Fermi shrink könnte man zumindest die gewinnträchtige Einstiegs/Mittelschicht mit neuen Karten versorgen und somit den Drang zu Kepler based Mittelklassekarten aufschieben. Was Luft nach hinten verschafft.
Dieser Schritt macht aber eben genau dann keinen Sinn, wenn eben der Nachfolger soweit komplett ist, das man kurze Zeit nach dem 28nm Shrink diesen nachlegt.


Mich wundert halt, das NV irgendwie doch andere Wege einschlägt. Bis dato hat man in Sachen Mittelklasse bei Release neuer Generationen immer etwas verhaltener Reagiert.
G80 kam ganz ohne Mittelklasse. Es wurden deutlich später erst Karten nachgeschoben.
Beim G200 degradierte man einfach G92 Chips zur Mittelklasse und dessen kleinere Ableger zur Einstiegsklasse.
Fermi based Einstiegskarten waren ebenso später dran und kamen nach und nach.
Es ist irgendwie verwunderlich, das man Arbeit in einen Shrink steckt, wo doch jeder auf zeitnahmen Kepler Release wartet. -> man könnte vermuten, Kepler wird noch ne ganze ganze Weile brauchen. Also nicht Jan. oder Feb. sondern was in Richtung Mai/Juni oder noch später...
 
mich würde ein weiterer fermi aufguss freuen! GTX570 bringt mir zuwenig mehrleistung und GTX580 is mir zu teuer!
also bitte her mit ner GTX670 für unter 300€, dann bin ich dabei!
 
wir hatten schon genug fermi aufguss!
dann wären 480 580 660 die selbe karte, wird zeit für kepler
 
@Jousten
Die Konstalation wird denke ich mal ein Traum bleiben.
Da gebe ich jetzt schon Brief und Siegel drauf das das Teil wenn es den so kommen sollte ein 256 Bit Interface verpasst bekommt.
Wieso sollte NV da den in Midrange noch gross Kohle in ein 384 Bit Interface stecken die Lebensdauer eines solche refreches wäre ja nur von kurzer Zeit da Kepler kurz drauf erscheint.

Ich vermute das nVidia damit evtl die Mittelklasse der Kepler-Generation testen möchte.

Dann gibts ne Umbenennung und fertig ist der Laden...
 
wtf ... Kepler erst mitte des Jahres wegen einer Systemumstellung^^
Ich hatte mich schon gefreut im Februar 1-2 GTX680 mein Eigen nennen zu können.
Dann muß mein 5870er CF ja noch ein dreiviertel Jahr knuspern. :kotz:
 
Und was ist daran so schlimm? Reicht dir die Performance des HD5870er-CF (was ca. HD6950er-CF Niveau darstellt) nicht mehr aus?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh