GTC 2010: NVIDIA gibt Ausblick auf zukünftige GPUs

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.123
<p><img style="float: left; margin: 10px;" alt="NVIDIA_GTC" height="100" width="100" src="images/stories/logos/NVIDIA_GTC.jpg" />Erstmals gibt <a href="http://www.nvidia.de">NVIDIA</a> auch einen exklusiven Ausblick auf die kommenden GPUs und nennt dabei auch erste Codenamen. Fermi erreicht aktuell fast 2 GFLOPS Dual-Precission-Performance pro Watt. 2011 soll Kepler folgen. Kepler soll zwischen 4 und 6 GFLOPS Dual-Precission-Performance pro Watt erreichen. Im zweiten Quartal 2011 will NVIDIA erste Prototypen ausliefern. Für die zeitliche Lücken zwischen jetzt und Kepler erwähnt Jen-Hsun noch einen "mid life kicker", über den man aber sonst nichts weiter verraten wollte. Für 2013 ist Maxwell geplant, der zwischen 14 und 16 GFLOPS Dual-Precission-Performance pro Watt...<p><a href="/index.php?option=com_content&view=article&id=16609&catid=60&Itemid=203" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hört sich ja schon mal einigermaßen brauchbar an... ;)

frag mich nur wies 2011 und 2013 mit preis / abwärme/ lautstärke funktioniert...
 
Na klar... und wenns nicht so hinhaut fängt der gute Mann wieder an zu schwitzen.... :lol:
 
Wollen tun sie immer viel, aber können nicht immer...
 
Na kommt, wenigstens hat er nichts selbst zusammengeschraubtes mitgebracht ;)
 
ich bin schon gespannt was Nvidia 2011 zeigen kann, wenn die gute Karten bauen kauf ich mir sofort eine :)
 
Fermi 2009 :rolleyes:
Interresant ist doch eigentlich nur der "mid life kicker", alles andere ist doch noch theoretische Theorie
 
Hier habt ihr euren Maxwell 4Way-SLI Dummy, mit einstellbarem GFLOP-Booster...
heizungtsep.jpg
 
Zuletzt bearbeitet:
Für 2013 ist Maxwell geplant, der zwischen 14 und 16 GFLOPS Dual-Precission-Performance pro Watt
na na na da geht der grüne Konzern aber sehr optimistisch mit der erwarteten Rechenleistung bis 2013 um:shot:

Das würde ja selbst das Mooresche Gesetz weit aushebeln
 
Zuletzt bearbeitet:
Dieser Traumtänzer sollte mal seinen Entwicklerstab und seine Marketingabteilung inkl. sich selbst abschaffen... der glaubt doch selbst net was er da erzählt.

Sollense lieber mal bei der Entwicklung des gf104 weitermachen und net schon wieder in der Ferne Ziele setzen die sie mit ihrem Komplexitätswahn niemals oder nur mit Unkosten erreichen können...

oder wollen die das 2013 jeder nen 1KW-Netzteil nebst Standard-Wakü extra im Rechner hängen hat nur um die "grüne" GPU zu füttern?

Man Man Man... da krieg ich schonwieder nen gewellten Hals wenn ich sowas lese :wall:
 
Zuletzt bearbeitet:
Echt traurig was hier wieder abgeht.

Aber wehe man sagt etwas gegen die amd karten, dann wird man gleich gesteinigt :rolleyes:
 
freut euch doch wenn die Entwicklung voran geht, ein großer Sprung wäre super
 
@Karlmay: Es hat nix mit abgehen zu tun... es hat einfach damit zu tun das er wieder mit Monsterzahlen um sich wirft und im Endeffekt alles nur wieder ne große Seifenblase sein wird.

Das hat die Vergangenheit doch gezeigt - ich selber würde mich freuen wenns ordentlich vorwärts geht, aber net um jeden Preis so wie es der "grüne" Riese macht.
 
Das ist imo nur auf den Putz hauen.

Mit weiteren Die Shrinks und Takterhöhung ist bis 2013 jedenfalls nicht ein solcher Sprung möglich.

Und eine völlig anderst aufgebaute Architektur weg von den üblichen Shaderunits ist schwer vorstellbar
 
@Karlmay
Hast du auch was zum Thema beizutragen oder kannste dich nur darüber ausheulen wie gemein "alle" zu deinem Lieblings Grafikchiphersteller sind? :rolleyes:

Das einzige was traurig ist, ist dein Kommentar + das du hier versuchst irgendeinen AMD vs nvidia Müll abzulassen

@Topic
Absolutes Wunschdenken von der Marketingabteilung samt Herrn Jen-Hsun. 2013 wird wenn es gut läuft das 22nm Verfahren für Grafikchips anlaufen, das muss erstmal erreicht werden, da erstmal 28nm überhaupt Marktreife erreichen muss.

Das was da zu sehen ist sind höchstens Planspiele und "Hallo Presse, wir haben hier auch noch was" - mehr nicht.
 
evtl. setzt Nvidia in Zukunft auf eine andere GPU Shader Architektur die mehr Power bei kleiner Fläche bieten kann, möglich das Nvidia schon simulationen durchgeführt hat und beeindruckt ist, es ist nur eine zeitfrage bis das ganze Markttauglich wird, unmöglich ist es nicht, woher wollt ihr wissen was Nvidia die ganzen Jahre macht? Sicher hat man noch andere Teams zur verfügung die nicht nur an Fermi der vom G80 abstammt beteiligt sind, ich selber sehe fermi nur als Zwischenschritt.
 
Zuletzt bearbeitet:
@Karlmay: Es hat nix mit abgehen zu tun... es hat einfach damit zu tun das er wieder mit Monsterzahlen um sich wirft und im Endeffekt alles nur wieder ne große Seifenblase sein wird.

Das hat die Vergangenheit doch gezeigt - ich selber würde mich freuen wenns ordentlich vorwärts geht, aber net um jeden Preis so wie es der "grüne" Riese macht.

Ja das kann sein dass die zahlen wieder fern von der Realität sind, aber man wird eh sehen was die zukunft bringt ;)

Und derjenige der unter mir geschrieben hat, wird zu 99% wieder müll sein den ich dank ignor nicht lesen muss :d :d
 
xD, ja dann setze ich den Müll mal fort, wenn sich sonst niemend traut :d
Ich finde es gut von Nvidia dass sie sich mehr um die Performance pro Watt kümmern und ebenso dass sie auf eine neue Architektur hinarbeiten. Mit Fermi ham die aus meiner Sicht nicht sonderlich überzeugt, da helfen auch Refreshs mit selber Architektur nicht viel.
Blöderweise brauche ich aber noch ne Übergangekarte bis Kepler und bin mir da unentschlossen... Vielleicht wird dieser mid life kicker was... Zumindest keine ATI (hab gedacht ich geb ATI mal wieder ne Chance nach GTX 280 SLI aber die 5970 ging wegen ColdBug zurück). Ist halt besch***** dass nicht gesagt wurde wann die ca in 2011 kommen sollen und BFBC2 an nem 22"er mit ner ATI 2600xT macht nicht so viel Spaß (die 2 GTX280er sind verkauft)...
 
Zuletzt bearbeitet:
Hier sind sich ja einige sehr sicher mit dem was sie schreiben ;) Auf keinen Fall sollte man alles blauäugig glauben, aber ihr scheint ja alle direkt neben einem Werk von TSMC zu wohnen ;)

28 nm sind der kommende Schritt und der ist naher, als man glauben mag. Warum dann also nicht 2013 auf 22 nm sein? Diese Performance-Faktoren von 10x und 40x kann man mal getrost bei Seite legen, das ist klar. Das sind Simulationen, die auf Grundlage aktuellen Designs mit Shrink einberechnet werden und einen Faktor X bekommen um zukünftige Entwicklungen zu berücksichtigen.
 
An alle Pessimisten,
ich erwähne nochmals gerne den G80, niemand wollte es glauben und BÄM war die Grakawelt ordentlich durcheinander gerüttelt und mal ehrlich vom Tesla zu Maxwell das 40fach halte ich für realistisch;-)

Desweiteren Bekommen die nV anhänger immer derbst einen auf den Deckel wenn die mal was über AMD sagen, aber die AMD jünger dürfen sich hier auslassen wie sie wollen doer wie?

Wartet erstmal ab und urteilt dann. Wie ich sowas nicht abkann, über was zu urteilen was mann nicht kennt.

Und das aller härteste ist das hier *OTTO NORMAL* Menschen die Leistungsfähigkeit der Entwicklung und des Maketig in Frage stellen... Absolut Nogo.... Die jungs machen ihre Arbeit und ende aus!

Eagle
 
Zuletzt bearbeitet:
[...]28 nm sind der kommende Schritt und der ist naher, als man glauben mag. Warum dann also nicht 2013 auf 22 nm sein?
Weil mit jeder Verkleinerung die Ansprüche enorm steigen, sowohl was Anlagen, Material und Verfahren angeht. Dazu werden die Chips noch komplexer als sie es jetzt schon sind.

Man sieht es ja sehr gut am 40nm Verfahren. Wie lange ist es jetzt in der Massenfertigung? Seit ~ 1,5 Jahren (Nov / Dez 2008) ?
Die Ausbeute der Chips ist trotz Optimierungen des Prozesses noch immer recht bescheiden und offenbar wohl noch weit vom Optimum entfernt. Da nützt es auch nichts zu sagen das TSMC sich auf 28nm konzentriert und aus Fehlern des 40nm gelernt hat. 28nm bringt wieder ganz andere Fehler mit sich aus denen man dann wohl für den 22nm Prozess lernen wird.

TSMC wollte schon lange die Probleme behoben haben. Bei 28nm wird es nicht leichter werden, 22nm geht schon langsam auf die Grenze des bisher machbaren zu.

Also, denke ich, wird der 22nm Prozess im absoluten Optimalfall 2013 bei TSMC im Probelauf gehen - und das ist noch lange hin bis zur Marktreife (hier eher Produktionsreife).
 
Hier sind sich ja einige sehr sicher mit dem was sie schreiben ;) Auf keinen Fall sollte man alles blauäugig glauben, aber ihr scheint ja alle direkt neben einem Werk von TSMC zu wohnen ;)

28 nm sind der kommende Schritt und der ist naher, als man glauben mag. Warum dann also nicht 2013 auf 22 nm sein? Diese Performance-Faktoren von 10x und 40x kann man mal getrost bei Seite legen, das ist klar. Das sind Simulationen, die auf Grundlage aktuellen Designs mit Shrink einberechnet werden und einen Faktor X bekommen um zukünftige Entwicklungen zu berücksichtigen.

Ein äusserst optimistischer Faktor X muss das derzeit aber sein wenn man sich die Weiterentwicklung der Rechenperformance in den letzten Jahren ansieht und dann diese Werte von 14-16Gflops in doppelter Genauigkeit wäre das ein Quantensprung in der Rechenleistung.

Apropos "Quanten",experimentieren sie vielleicht mit Quanten GPUs herum,das es Huang zu dieser Aussage getrieben hat:asthanos:
 
Also ich habe auf den Fermi gehofft und musst nach der entäuschung zu ATI greifen und nun hoffe ich auf den Kepler so das NV da was richtig krasses bringt und ich wieder ne NV karte kaufe aber dann SLI :d

@Eagelone19
also wegen AMD vs NV
ich finde einfach das die AMD karte die zur zeit bessere karte ist da hat NV mit dem fermi leider nicht so das super produkt gebracht das ist halt meine meinung daher habe ich auch eine HD5970 allerdings finde ich den AF filter der ATi irgendwie nicht so doll obwohl er angeblich gleich sein soll...!

Nun hoffe ich aber auf den kepler und wenn der besser als die AMD produkte ist bin ich auf jedenfall dabei ;)
Es sei denn die Single GPU von NV verbraucht wieder mehr als zwei AMDs die dann auch schneller sind weil dann meide ich den kepler!
 
Zuletzt bearbeitet:
@Eagelone19
also wegen AMD vs NV
ich finde einfach das die AMD karte die zur zeit bessere karte ist da hat NV mit dem fermi leider nicht so das super produkt gebracht das ist halt meine meinung daher habe ich auch eine HD5970 allerdings finde ich den AF filter der ATi irgendwie nicht so doll obwohl er angeblich gleich sein soll...!

Nun hoffe ich aber auf den kepler und wenn der besser als die AMD produkte ist bin ich auf jedenfall dabei ;)

Das ist auch [gesundes] argumentieren, da hat keiner was gegen ;-) Aber Boah nV Maketing Scheisse, Entwicklung scheisse ist einfach nur Niveaulos und absolut Nogo, wie ich finde:wink:
 
Bin mal gespannt wann NV den Kepler in rennen schickt weil 2011 ist ja lang! Ich denke der wird gegen den amd 7000 antreten müssen
 
Das war auch mein Gedanke. Muss man jetzt zu Kepler und Maxwell auch jeweils ein Jahr hinzurechnen? Scheint ein realistischerer Zeitplan zu sein.

Nun ja, zumindest hat nVidia wohl erkannt, dass Energieeffizienz ein wichtiger Faktor ist. Immerhin ein Schritt in die richtige Richtung.
 
Ja ich glaube man hat da den Soft-Launch auf der GTC 2009 genommen ;)
 
kepler - hammer name, physik *schwelg* :d
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh