GTC 2010: NVIDIA gibt Ausblick auf zukünftige GPUs

Ich werde gleich mit anderen Journalisten ein Treffen mit Jen-Hsung haben und da werde ich genau die Aufspaltung des Marktes in den professionellen Bereich und in Karten für den Desktop einmal ansprechen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich werde gleich mit anderen Journalisten ein Treffen mit Jen-Hsung haben und da werde ich genau die Aufspaltung des Marktes in den professionellen Bereich und in Karten für den Desktop einmal ansprechen.

Bin mal gespannt ob Nvidia sich da verleiten lassen wird etwas mehr durchblicken zu lassen.

Schwer vorzustellen das sie da schon Input über kommende Strategien preisgeben aber "we will see";)
 
Habt ihr das mit dem GF110 gelesen????
KLICK
 
Ja da bin ich ja mal gespannt ob ich neugierig bin:fresse:

Ist das der "Kick in the Ass" von dem Mister Huang geredet hat

Naja ich habe mal eben etwas gerechnet und die Karte wäre dann 130% schneller als eine GTX460!
Dadurch wäre sie auch einen hauch schneller als die HD5970 nur wenn AMD ne Dual HD6000 bringt reicht das wieder nicht aus!
aber geil wäre das auf jedenfall weil da brauchste dann keine SLI oder Crossfire profile! aber ich will zwei GPUs also zwei GF110 :d

Edit: die karte wird doch sicher an die 340watt verbrauchen oder was meint ihr? Was im vergleich zu einer langsameren HD5970 (290Watt) auch ok wäre!
dann noch OC von 30-40% und es wäre die macht!
Die 30-40% sage ich nur weil meine HD5970 sich um 37,9% übertakten lässt mit wakü natürlich :d
 
Zuletzt bearbeitet:
Bei unangetasteten Taktverhältniss zur 460er

Ja das würde auch reichen weil es ist dann auch die single gpu schlecht hin! So hatte ich mir den Fermi auch dann im vergleich zur ATI gedacht! eine GPU die zwei schluckt!
 
Ja das würde auch reichen weil es ist dann auch die single gpu schlecht hin! So hatte ich mir den Fermi auch dann im vergleich zur ATI gedacht! eine GPU die zwei schluckt!

Die Frage ist halt ob bei diesem Shaderausbau die Taktrate der 460er gehalten werden können ohne dabei in TDP Bereiche zu rutschen die nicht mehr in der Norm liegen

Auch wenn das Enthusiasten eher weniger stören dürfte:fresse2:
 
Zuletzt bearbeitet:
Die Frage ist halt ob bei diesem Shaderausbau die Taktrate der 460er gehalten werden können ohne dabei in TDP Bereiche zu rutschen die nicht mehr in der Norm liegen

Auch wenn das Enthusiasten eher weniger stören dürfte:fresse2:

Gibt dafür nen extra thread :d
Also eigentlich sollte das klappen weil wenn die wirklich 340watt verbrauchen sollte muss man die eben mit nem 3slot kühler bauen weil wäre ja auch eh egal da eine karte schon so derbe stark ist das man keine zweite braucht!
Das ist wie mit meiner HD5970 so eine karte reicht aus... ok wakü muss drauf und dann max OC :d
 
Man darf aber nicht vergessen, dass sie sich noch an die Spezifikationen halten müssen und die liegen bei maximal 300 Watt. Alles andere würde aber auch nicht der aktuellen Entwicklung entsprechen, sie wollen ja weg von diesem Stromfresser-Image.
 
Man darf aber nicht vergessen, dass sie sich noch an die Spezifikationen halten müssen und die liegen bei maximal 300 Watt. Alles andere würde aber auch nicht der aktuellen Entwicklung entsprechen, sie wollen ja weg von diesem Stromfresser-Image.

Ja das schon nur wenn man zwei 8pin stecker anbringt sollte das doch gehen oder??
Die GTX480 braucht doch auch 320Watt wäre aber bedeutend langsamer!
Meine HD5970 braucht sicher auch lang mehr als 300Watt mit den 1,25V@1Ghz und das mit 6Pin und 8Pin!
P.s. stromfresser kann man ja dann auch nicht so einfach sagen wenn die karte gut 30% schneller wäre als eine HD5970@stock und dabei 50Watt mehr zieht!
 
Zuletzt bearbeitet:
oh man wer sich ne 5970 oder vergleichbare Fette Karten in den rechner pflanzt, hat auch ein dementsprechendes NT drinne, und wird auch wissen das es das aus der dose ziehen kann was da drauf steht...
 
Die Anzahl der Stromstecker ist auch nicht das Entscheidende, sondern der letztendlich dabei herauskommende Verbrauch. Auf der Karte können auch vier 8-Pin PCI-Express-Anschlüsse sein.
 
Steht da echt 10x mehr Performance als Fermi?:fresse: Selbst wenn nvidia das technisch hinbekommt, glaube ich nicht, dass es gleich solche Kepler-Karten geben wird. Wenn eine Firma so einen technologischen Sprung macht, dann werfen sie doch immer eine kastrierte Version auf den Markt, die die Konkurrenz grade so ausreichend weit übertrumpft. Wenn die dann nachzieht, hat man den Joker noch im Ärmel. Ausserdem sind kastrierte Karten evtl. günstiger zu produzieren und die Margen besser. Realistisch wäre daher m.E. max. die doppelte Leistung.
 
http://www.heise.de/newsticker/meldung/GTC-Nvidia-Boss-offenbart-Gruende-fuer-Fermi-Verspaetung-1094698.html schrieb:
Doch auch das Management der verschiedenen Entwicklungsbereiche machte Huang für den Fehlschlag verantwortlich. Demnach hat jede Entwicklergruppe zwar ihre Arbeit gemacht, um die Interconnects hat sich aber keine in ausreichendem Maße gekümmert. Einen generellen Verantwortlichen für die "Fabric" zwischen den Chip-Einheiten habe es nicht gegeben. Aus den Fehlern habe man die Lektion aber nun inzwischen gelernt. Dennoch könne man auch bei den kommenden Grafikchips Kepler und Maxwell nicht für den erklärten Zeitplan garantieren, schließlich laut Huang niemand vor zukünftigen Fehlschlägen nicht gefeit.

Jeder weiß, daß es immer mal zu unvorhergesehenen Problemen kommen kann. Das betifft so ziemlich alles, nicht nur Chipdesign und -fertigung. Daß Herr Huang diese Tatsache aber für die künftigen Chips gesondert in Anspruch nimmt, kann durchaus als Wink mit dem Zaunspfahl gesehen werden.
 
Jeder weiß, daß es immer mal zu unvorhergesehenen Problemen kommen kann. Das betifft so ziemlich alles, nicht nur Chipdesign und -fertigung. Daß Herr Huang diese Tatsache aber für die künftigen Chips gesondert in Anspruch nimmt, kann durchaus als Wink mit dem Zaunspfahl gesehen werden.
Er wird halt wissen, dass man sich da ambitionierte Ziele setzt (was ja durchaus OK ist) und die eventuell nicht ganz erreicht. Das wird nicht bedeuten, dass sie schon mit einer Verspätung planen, aber sie ist nunmal nicht ganz unwahrscheinlich.

Jedenfalls freut es mich, dass Nvidia hier Angaben in Performance/Watt macht, denn soetwas wie die GF100 tue ich mir bestimmt nicht an.
 
Da magst du schon recht haben das Huang da primär die Profikarten im Sinn hatte wenn er ausschliesslich die DP Performance erwähnt,nur werden Ableger dieser Tesla/Quadro Karten auch unweigerlich im Highendgamermarkt sich wieder finden.

Es sei denn Nvidia würde sich mit Kepler bzw Maxwell dazu entschließen zweigleisig zu fahren bei der Entwicklung,was schwer vorzustellen ist

Das ändert aber an der Tatsache nix das sich die Werte auf den Profibereich bezogen haben... Wie es im Gaming Endkundenmarkt kommt, steht in den Sternen.
Nur mal so als Beispiel, wenn man ausgehend von der SP Leistung der aktuellen Fermi Karten einen Vergleich zum G200 zieht, stellt man fest das aufgrund von Architekturischen Änderungen dort sogut wie kein Sprung nach oben gemacht wurde. Dennoch hat sich die DP Leistung zwischen diesen Generationen gewaltig verbessert.

Unterm Strich bleibt wie oben schon erwähnt zu sagen, das die Leute lesen sollten bevor sie posten, einfach anhand der Überschrift "NV gibt Ausblick über zukünftige GPUs" irgendwelchen "Reis" im Bezug auf die Desktop Modelle von sich zu geben ist irgendwie nicht das Gelbe vom Ei...

In diesem Sinne :btt: sonst muss ich hier durchwischen...
 
Zuletzt bearbeitet:
Maxwell soll ca. 15 DP GigaFlops pro Watt haben, das bedeutet bei einer 250Watt TDP Karte/GPU 3750GigaFlops DP! NV geht von ca. 10x mehr DP Leistung als GF100 aus und das ist in 4 Jahren sehr wohl zu erreichen und im normalen entwicklungs-rahmen da die Aktuelle DP Leistung so wie so noch nicht in einem mega "hoch" ist!

Zum Vergleich: GF100 hat ca. 7x mehr DP Leistung als G200
Man sollte dabei aber bedenken, G200 hatte lediglich ein paar wenige dedizierte Shader für Double Precision. Die Performance war dabei unterirdisch. Selbst die alte Radeon 3000er Serie bot da mehr. Bei Fermi hat nVidia nun ebenfalls endlich alle Shader Double Precision fähig gemacht. Daher auch der vergleichsweise grosse Sprung zwischen G200 und Fermi. Normalerweise sind die Sprünge zwischen 2 Generation deutlich kleiner. Moore's Law lässt grüssen.


Ich könnt was auf den Augen haben, aber im Newspost steht was von 40x zum Tesla (warscheinlich aktueller Fermi Tesla) für Maxwell. Die 10x beziehen sich auf Kepler.
Das 40x bezieht sich wohl auf den ursprünglichen Tesla. Auf der Folie von nVidia unter dem Jahr 2007 angegeben.
 
Das mit dem fermi fehlstart ist zwar schade das die fermi karten nicht gleich ende 2009 rausgekommen sind aber das ist ati auch mit dem r600 damals passiert und wie bekannt ist war eine 2900 xt karte trotz verspätung deutlich langsamer als eine 8800 gtx und brach unter zuschaltung von aa extrem in der leistung ein.
 
Und was willst du uns damit sagen ? Und inwieweit gehört das zum topic ???

Willst du uns jetzt schon darauf vorbereiten dass Kepler wieder später kommt und, so wie Thermi, trotzdem schlechter ist als die schon früher gelaunchte Konkurrenz oder was ?? Oder wie ?? Oder was hat das hier zu suchen ?
 
Was ich damit sagen will?ganz einfach.es ist so das nicht nur nvidia fehler passieren und es verzögerungen gibt sondern auch der konkurenz,das ist ein ganz normaler werdegang.also sollte man bei kritik an nvidia auch hier den ball flach halten.das ist auch nicht off topic auch wenn germe versucht wird es so hinzustellen um wieder ein grund zu haben.man liest ja die abneigung schon in der schreibweise gegenüber nvidia mit solchen dummen bezeichnungen wie thermi.es heist fermi!

---------- Beitrag hinzugefügt um 09:39 ---------- Vorheriger Beitrag war um 09:34 ----------

Ps:keiner weis genau wann und wie keppler kommt,also sind solche aussagen von wegen später als die konkurenz ohne jegliche substanz!
 
Das 40x bezieht sich wohl auf den ursprünglichen Tesla. Auf der Folie von nVidia unter dem Jahr 2007 angegeben.

Das würde ich aber als unwarscheinlich erachten. Auch wenn dort explizit Tesla steht.
Stimmen könnte es, aber wer bitte zieht einerseits für die nächste Generation Leistungsvergleiche zur aktuellen und für die übernächste Generation dann zur letzten?
Das macht wenig Sinn.

Und wie hier schon im Thread gesagt wurde, die DP Leistung hat sich ja vom G200 zum Fermi extrem gut verbessert.
Wenn man beim G200 von gefühlten 70GFlops/sec in DP ausgeht und das mal 40 nimmt, kommen auch nur 2800GFlops/sec raus, was nichtmal ansatzweise den aktuellen Fermi mal 10 für Kepler entspricht.
In meinen Augen wiederspricht sich das alles selbst...

EDIT:
So jetzt beruhigen sich mal wieder alle und kommen zum Thema zurück...

:btt:
 
Zuletzt bearbeitet:
So also laut 3D Center soll der nun aktuell in den startlöchern wartende GF110 über 512shader, 128Textureinheiten und 512Bit verfügen und sein tapout gehabt haben!
Der chip soll nur zwischen 430-480mm² groß sein und den GTX480 mit 30% schlagen!
Der GF110 soll sich wohl auch besser takten lassen als der eigentliche GF100 welcher schon teils brutale OC ergebnisse erreicht!
Ich hoffe das NV dann mal nen echten fermi hat wie wir ihn uns herbeigesehnt hatten!

Klick

P.s. vieleicht packt es Nv ja einen würdigen G92 nachfolger zu bringen der eine grandiose leistung bei geringem verbrauch geboten hat aber das kann ich eher nicht glauben!
 
Zuletzt bearbeitet:
Sehr schön sehr schön :d

Mal schaun wie die dann wirklich werden, ist vielleicht eine überlegung werd meine beiden 470er zu verkaufen. Aber bin derzeit sehr zu frieden ;)
 
Sehr schön sehr schön :d

Mal schaun wie die dann wirklich werden, ist vielleicht eine überlegung werd meine beiden 470er zu verkaufen. Aber bin derzeit sehr zu frieden ;)

Naja du hast ja auch zwei :d
Wenn der GF110 wirklich 30% schneller wird wäre der auf jedenfall schonmal so schnell wie meine HD5970@stock wenn dann noch mehr oc drin ist im vergleich zum GF100 ,welcher mit wakü so bei 30% oc packt, dann kann ich mir vorstell das der chip so bei 1Ghz packen kann und damit die leistung meiner 1Ghz HD5970 erreicht dabei aber keine multigpu probs macht!
 
So also laut 3D Center soll der nun aktuell in den startlöchern wartende GF110 über 512shader, 128Textureinheiten und 512Bit verfügen und sein tapout gehabt haben!
Der chip soll nur zwischen 430-480mm² groß sein und den GTX480 mit 30% schlagen!

Hört sich für mich nach einer Ente an:

1. 128 TUs wäre ein totaler Overkill.

2. Passt das Shader/TU-Verhältniss nicht zu den anderen GF1x0 Chips. 32/4 bei GF100 und 48/8 bei GF104-108. Nvidia müsste also eigens nur für diesen einen Chip neue SMs designen. Klingt unwahrscheinlich, da zu aufwändig, erst recht für ein Nischenprodukt (und das sind die High End GPUs nun mal).

3. Kommt die Größe nicht hin. Selbst wenn man nur den GF104 auf 512 Shader aufbläst, kommt man bereits auf ~490mm². Und da fehlen noch die zusätzlichen TUs und ROPs, welche ja noch weitere Transistoren und damit auch Fläche mit sich bringen.
 
Hast du auch gelesen was 3Dcenter dazu sagt??

Die eigentliche Frage ist aber natürlich, wie nVidia aus einem solchen Chip mehr Performance herausholen will, wenn die Rechenleistung gar nicht oder nur eher geringfügig (über einen höhere Takt) steigt – eigentlich wäre dies unlogisch. Allerdings ist die Quelle der neuen Informationen zum GF110-Chip vertrauenswürdig – es ist dieselbe, welche schon die früher von uns notierten Spezifikationen zu den AMD-Chips Barts und Cayman genannt hatte, die sich nunmehr augenscheinlich als korrekt herausstellen. Daß die angepeilte Mehrleistung nur über eine höhere Texturierpower und mehr Speicherbandbreite kommt, ist zudem nicht gänzlich undenkbar, wenn man sich mal den Vorgänger-Chip GT200 der GeForce GTX 200 Serie ansieht: Dort gab es 240 Shader-Einheiten, 64 Textureneinheiten und ein 512 Bit DDR Speicherinterface – wenn man diesen Chip von den Hardware-Einheiten her verdoppelt, ist man faktisch beim GF110-Chip zu den vorgenannten Daten.
 
Wenn die Karten 2011 nur halb so gut werden wie die Fermi Karten, werde ich mir
wider ne neue Karte Kaufen ;)
 
Zuletzt bearbeitet:
Hätte jetzt lieber ne GTX 475 mit nem Vollausbau vom GF104 gewünscht, auf die Tesselation kommts mir ja net so drauf an.
Und wer weiß was diese neue 490 oder 495 als Dual GPU wieder kosten wird, geschweige denn aus der Steckdose ziehen...:(
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh