GTC 2010: NVIDIA gibt Ausblick auf zukünftige GPUs

Hoffendlich macht die Katze Huang keinen Bockmißt, ich will endlich mal ein 1 1/2 Jahre ein und die selbe Karte im Rechner haben, das kann ja kein Schwein mehr bezahlen :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ist zudem nicht gänzlich undenkbar, wenn man sich mal den Vorgänger-Chip GT200 der GeForce GTX 200 Serie ansieht: Dort gab es 240 Shader-Einheiten, 64 Textureneinheiten und ein 512 Bit DDR Speicherinterface – wenn man diesen Chip von den Hardware-Einheiten her verdoppelt, ist man faktisch beim GF110-Chip zu den vorgenannten Daten.

Das spricht aber nur den 1. der von mir genannten Punke an, was ist mit dem Rest?
Außerdem: Meinst du nicht auch, dass Typen bei Nvidia sich irgendwas dabei gedacht haben, als sie bei dem Fermi die TUs (im Vergleich zu GT200) so stark beschnitten haben?

Es quakt wie eine Ente, es läuft wie eine Ente und es sieht wie eine Ente aus... ;)
 
@Powerplay
GF110 mit 768SE neuer Chip mit 768 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 550-650mm² größer als GF100 und damit auch höhere Verlustleistung, Zielmarkt dieses Grafikchips wären dann eher die DualChip-Lösungen von AMD
Potential gegenüber GeForce GTX 480: ca. +50%
Diese Variante wäre die geilste mal sehen wer am Ende doch noch das Renen macht bei den Highend Chips.
Vieleicht ist NV ja pünktlicher als AMD.
 
Das spricht aber nur den 1. der von mir genannten Punke an, was ist mit dem Rest?
Außerdem: Meinst du nicht auch, dass Typen bei Nvidia sich irgendwas dabei gedacht haben, als sie bei dem Fermi die TUs (im Vergleich zu GT200) so stark beschnitten haben?

Es quakt wie eine Ente, es läuft wie eine Ente und es sieht wie eine Ente aus... ;)

hmmm der Fermi war doch eigentlich total für den server gadacht!
 
hmmm der Fermi war doch eigentlich total für den server gadacht!
Wenn du damit den GF100 meinst, dieser sollte eher die Eierlegende Wollmilchsau werden: High End Spiele-GPU und eine Hochleistungs-GPGPU in einem. Hohe Spielleistung war also doch schon ein Primärziel.

Aber selbst die reinen "Spiele-Fermis" nach dem GF104-Vorbild, also alle außer GF100, haben ein Shader/TU-Verhältniss von 6/1 bei ihren SMs und nicht 4/1 wie bei diesem Pseudo-GF110.
 
Ja lassen wir uns überraschen!
3DCenter vermutet das der fermi mit steigender shader /TU vieleicht besser scaliert aber wie gesagt lassen wir uns überraschen!
Ich wäre auf jedenfall nicht abgeneigt von amd wieder auf NV zu wechseln. aber dafür sollte sie schon ein würdiger nachfolger für meine HD5970 werden und das ist ne harte nuss..
 
und wie bekannt ist war eine 2900 xt karte trotz verspätung deutlich langsamer als eine 8800 gtx
Zu Zeiten der 2900XT gab es doch noch gar keine 8800 GTX, sondern nur die 8800 GTS 320, und das war bekanntlich 'ne Krücke, der die 2900XT davonlief.

Die 8800 GTX (und deren Sondermodell 8800 Ultra) kam später, und müsste sich daher mit der HD 3870 und der HD 3870 Atomic oder deren Nachfolger messen. Letztere habe ich immer noch im Einsatz, und die Karte schlägt selbst zwei 8800 Ultra im SLI ohne Krach zu machen.

Und nein, ich verkaufe sie nicht - auch nicht wenn Du ganz lieb Bitte sagst!
 
Zu Zeiten der 2900XT gab es doch noch gar keine 8800 GTX, sondern nur die 8800 GTS 320, und das war bekanntlich 'ne Krücke, der die 2900XT davonlief.

Die 8800 GTX (und deren Sondermodell 8800 Ultra) kam später, und müsste sich daher mit der HD 3870 und der HD 3870 Atomic oder deren Nachfolger messen. Letztere habe ich immer noch im Einsatz, und die Karte schlägt selbst zwei 8800 Ultra im SLI ohne Krach zu machen.

Und nein, ich verkaufe sie nicht - auch nicht wenn Du ganz lieb Bitte sagst!

diese ironie :shot:
aber warum reagiert ihr noch auf turbo??? :eek:

Realitätsverlust?

liest du die ironie nicht heraus????
 
Hört sich für mich nach einer Ente an:

1. 128 TUs wäre ein totaler Overkill.

2. Passt das Shader/TU-Verhältniss nicht zu den anderen GF1x0 Chips. 32/4 bei GF100 und 48/8 bei GF104-108. Nvidia müsste also eigens nur für diesen einen Chip neue SMs designen. Klingt unwahrscheinlich, da zu aufwändig, erst recht für ein Nischenprodukt (und das sind die High End GPUs nun mal).

3. Kommt die Größe nicht hin. Selbst wenn man nur den GF104 auf 512 Shader aufbläst, kommt man bereits auf ~490mm². Und da fehlen noch die zusätzlichen TUs und ROPs, welche ja noch weitere Transistoren und damit auch Fläche mit sich bringen.

Zu 1) Wären sie nicht unbedingt. Zwar würde sich das Verhältnis von SPU zu TMU wieder radikal ändern, aber sowas wie einen Overkill gibt es deswegen nicht gleich.

Zu 2) Dann würde sich der GF100 auch nicht lohnen. Sollte der GF110 ungefähr so kommen wie im moment in der Gerüchteküche prognostiziert gibt es keinen GF100 mehr...

Zu 3) Das kann man so pauschal nicht sagen. NV kann dafür an anderer Stelle sparen oder die Die-Size durch ein besseres Layout kleiner bekommen. Das kostet zwar alles Geld, aber da der CHip mindestens nen halbes Jahr auf dem Markt bleibt dürfte es sich wohl lohnen.
 
@Powerplay
GF110 mit 768SE neuer Chip mit 768 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 550-650mm² größer als GF100 und damit auch höhere Verlustleistung, Zielmarkt dieses Grafikchips wären dann eher die DualChip-Lösungen von AMD
Potential gegenüber GeForce GTX 480: ca. +50%
Diese Variante wäre die geilste mal sehen wer am Ende doch noch das Renen macht bei den Highend Chips.
Vieleicht ist NV ja pünktlicher als AMD.

Diese karte wäre meine, wobei die 512 shader variante mir auch reichen würde.
Eigtl sollte die GTX 260 nur die Zeit zum Fermi überbrücken und ne GTX 480 war geplant, ich steh aber nunma nicht auf kastrierte chips und das ist die GTX 480 nunmal, ich hoffe es dauert nich allzulange bis meine GTX 260 aufs Physx Karten Altenteil verwiesen wird
 
Zuletzt bearbeitet:
@Neurosphere
Das kostet zwar alles Geld, aber da der CHip mindestens nen halbes Jahr auf dem Markt bleibt dürfte es sich wohl lohnen.
Ich kann mir nur schlecht vorstellen das wir neue 28Nm Karten vor Weinachten 2011 sehen.
Wenn NV ihre Karten jetzt noch bringen würde schätze ich mal das sie damit noch gut ein Jahr lang Geld machen können.
MFG
 
uiuiuiui hmm ob das der midlife kicker ist?
es bleibt spannend :d
 
Das sie den Fermi kommplett überarbeiten müssen war klar da sie sonst gegen einen 480 4D shader AMD chip keine chance haben würden! Ich bin mal gespannt wer dann da der schnellere sein wird aber ich tipp mit 15% wie gewohnt für NV!
 
Zu 2) Dann würde sich der GF100 auch nicht lohnen. Sollte der GF110 ungefähr so kommen wie im moment in der Gerüchteküche prognostiziert gibt es keinen GF100 mehr...
Beim GF100 hatte man aber keine Wahl, er war nun mal der erste Chip der neuen Generation. Ob er sich nun lohnt oder nicht, er ist da und wird deshlab auch verkauft.

Zu 3) Das kann man so pauschal nicht sagen. NV kann dafür an anderer Stelle sparen oder die Die-Size durch ein besseres Layout kleiner bekommen.
Ich habe als Referenz bereits schon den "Sparchip" GF104 genommen. Was soll Nvidia da noch wegsparen?
Und wenn besseres Layout möglich gewesen wäre, dann hätte man es doch bestimmt schon bei den "Massen-Chips" GF104-108 eingesetzt? Da diese in rauhen Mengen hergestellt werden, und die Gewinnmargen pro Chip in dieser Klasse relativ klein sind, zählt da jeder Quadratmillimeter.

Das kostet zwar alles Geld, aber da der CHip mindestens nen halbes Jahr auf dem Markt bleibt dürfte es sich wohl lohnen.
Wirklich lohnen?
Für ein Chip welches vielleicht NUR ein halbes Jahr auf dem Markt bleibt? Zumal wir hier von einem (riesen-) großen High End Chip reden, oder mit anderen Worten: hohe Entwicklungskosten plus hohe Herstellungsrisiken und das Ganze gepaart mit geringen Absatzmengen. An diesen Chips wird generell kein großes Geld verdient, selbst unter besten Umständen und davon kann man hier ja wohl kaum sprechen.
 
ich denke du bedenkst eins nicht, NVs ganze strategie des marketings basiert auf dem WIR haben den besten und schnellsten chip, da der GF100 nicht komplett überzuegen konnte und man die 6970 knotern MUSS, ist es doch sehr warscheinlich denke ich
 
ich denke du bedenkst eins nicht, NVs ganze strategie des marketings basiert auf dem WIR haben den besten und schnellsten chip, da der GF100 nicht komplett überzuegen konnte und man die 6970 knotern MUSS, ist es doch sehr warscheinlich denke ich
Hier ist wohl ein kleines Missverständniss vorhanden:
Meine Zweifel gelten nicht der Ankündigung, Nvidia würde an einem GF100 Nachfolger arbeiten, sondern den angegebenen Eckdaten.

Ist durchaus möglich, dass Nvidia an einem GF110 (oder was auch immer) werkelt, aber diese "Informationen" von 3DCenter halte ich nun mal für aus den Fingern gesogen.
Wie schon gesagt: Die angebliche Chipgröße passt vorne und hinten nicht. Und die komplette Abkehr von den bereits existierenden SM-Designs ist unlogisch, da gerade für einen schnellen "midlife kicker" zu (zeit-) aufwändig und kostspielig. Ein GF110 auf der Basis der GF104-108 SMs (schnell und "billig") würde Sinn machen, aber so einer nicht.
 
Hier ist wohl ein kleines Missverständniss vorhanden:
Meine Zweifel gelten nicht der Ankündigung, Nvidia würde an einem GF100 Nachfolger arbeiten, sondern den angegebenen Eckdaten.

Ist durchaus möglich, dass Nvidia an einem GF110 (oder was auch immer) werkelt, aber diese "Informationen" von 3DCenter halte ich nun mal für aus den Fingern gesogen.
Wie schon gesagt: Die angebliche Chipgröße passt vorne und hinten nicht. Und die komplette Abkehr von den bereits existierenden SM-Designs ist unlogisch, da gerade für einen schnellen "midlife kicker" zu (zeit-) aufwändig und kostspielig. Ein GF110 auf der Basis der GF104-108 SMs (schnell und "billig") würde Sinn machen, aber so einer nicht.

ein doppelter GF106 wäre auch denkbar, zurzeit kursieren mal wieder so einige gerüchte..
 
Beim GF100 hatte man aber keine Wahl, er war nun mal der erste Chip der neuen Generation. Ob er sich nun lohnt oder nicht, er ist da und wird deshlab auch verkauft.

Natürlich, aber wenn ich einen besseren Chip bei gleicher Größe hinbekomme gilt doch für diesen das gleiche oder?

Ich habe als Referenz bereits schon den "Sparchip" GF104 genommen. Was soll Nvidia da noch wegsparen?
Und wenn besseres Layout möglich gewesen wäre, dann hätte man es doch bestimmt schon bei den "Massen-Chips" GF104-108 eingesetzt? Da diese in rauhen Mengen hergestellt werden, und die Gewinnmargen pro Chip in dieser Klasse relativ klein sind, zählt da jeder Quadratmillimeter.

GF110 hat aber mit GF104 wohl weniger zu tun als mit GF100

Wirklich lohnen?
Für ein Chip welches vielleicht NUR ein halbes Jahr auf dem Markt bleibt? Zumal wir hier von einem (riesen-) großen High End Chip reden, oder mit anderen Worten: hohe Entwicklungskosten plus hohe Herstellungsrisiken und das Ganze gepaart mit geringen Absatzmengen. An diesen Chips wird generell kein großes Geld verdient, selbst unter besten Umständen und davon kann man hier ja wohl kaum sprechen.

Jup, er muss sich lohnen. Würde er das nicht einhalten, würde es ihn nicht geben.
 
ein doppelter GF106 wäre auch denkbar, zurzeit kursieren mal wieder so einige gerüchte..
Ein Verdoppelung ist in 40nm nicht machbar, aber eine Vergrößerung bis zu 50% wäre vielleicht drinn.


Natürlich, aber wenn ich einen besseren Chip bei gleicher Größe hinbekomme gilt doch für diesen das gleiche oder?
Meine Zweifel gelten nicht der Ankündigung, Nvidia würde an einem GF100 Nachfolger arbeiten, sondern den angegebenen Eckdaten.



GF110 hat aber mit GF104 wohl weniger zu tun als mit GF100
Und was habe ich gesagt? Gerade WEIL der angebliche GF110 mit den beiden bereits existierenden Fermi SM-Designs nur so "wenig zu tun hat", macht es diese Angaben so unwahrscheinlich.

Jup, er muss sich lohnen. Würde er das nicht einhalten, würde es ihn nicht geben.
Q.E.D.
 
Aber warum zum Geier 580? Warum nicht 490/495, ist doch letztlich auch ein Fermi Chip?! :hmm:
 
Zuletzt bearbeitet:
Aber warum zum Geier 580?
Auf die schnelle fallen mir da zwei Möglichkeiten ein:

a) Hat sich irgendein Schreiberling so ausgedacht.

b) Inoffizielle Projektbezeichnung der Karte.
Z.B. weil sie 576 Shader hat, mit 12 SMs nach der GF104-108 Art. Oder 18 GF100 SMs, aber das wäre weniger wahrscheinlich.
 
Auf die schnelle fallen mir da zwei Möglichkeiten ein:

a) Hat sich irgendein Schreiberling so ausgedacht.

b) Inoffizielle Projektbezeichnung der Karte.
Z.B. weil sie 576 Shader hat, mit 12 SMs nach der GF104-108 Art. Oder 18 GF100 SMs, aber das wäre weniger wahrscheinlich.

würde sagen A....
 
ich freu mich auf die Vorstellung, wenns so gut wird wie beim fermi....mit dem dicken schwatten GAGA verschnitt...wir haben uns hier beeimert vor Lachen :d
 
Ein Verdoppelung ist in 40nm nicht machbar, aber eine Vergrößerung bis zu 50% wäre vielleicht drinn.

Mit GF106 schon, aber sinnlos...







Und was habe ich gesagt? Gerade WEIL der angebliche GF110 mit den beiden bereits existierenden Fermi SM-Designs nur so "wenig zu tun hat", macht es diese Angaben so unwahrscheinlich.

Eben nicht. Ohne Änderungen wird man die Probleme die Fermi nunmal hat nicht in den Griff bekommen. 128 TMUs zu 512 SPUs wären radikal, aber deshalb nicht gleich unmöglich. Die Quellen aus denen jetzt solche Spekus (abseits eines GF104 mit mehr GPCs) kommen haben in der Vergangenheit auch öfter richtig gelegen.


Menschenverstand und sei es nur Marketing.


Übrigens besteht ja auch die Möglichkeit das man Bereiche wieder aus dem Chip auslagert, den Cache reduziert usw. Vielleicht kann man auch den Integrationsgrad erhöhen und so den Chip kleiner machen. Das ist natürlich alles nur gestochere Meinerseits, soll aber mal zeigen das man nicht einfach immer sturr Dreisatz rechnen darf. Der RV870 besitzt zum Vergleich auch ca 10-15% mehr Transistoren pro Flächeneinheit.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh