GTC 2010: NVIDIA gibt Ausblick auf zukünftige GPUs

Astronomie halt, bei Intel sind es amerikanische Städte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja denn die Quadro Fermis sind ja schon 2009 auf denn Markt oder ?
Bin mal gespannt wann NV den Kepler in rennen schickt weil 2011 ist ja lang! Ich denke der wird gegen den amd 7000 antreten müssen
2011
ist ihn 100Tage 16 Stunden und 6 Minuten ;) Also so lang ist das auch wieder ned
Desweiteren Bekommen die nV anhänger immer derbst einen auf den Deckel wenn die mal was über AMD sagen, aber die AMD jünger dürfen sich hier auslassen wie sie wollen doer wie?

Wartet erstmal ab und urteilt dann. Wie ich sowas nicht abkann, über was zu urteilen was mann nicht kennt.

Eagle
Ja ist ja klar, AMD ist der brave underdog der keinem was böses will und sich immer an die Regeln hält und Nvidia/Intel sind die großen pösen pösen konzerne die AMD sabotieren und generell ziemlich gemein sind ;)
 
Zuletzt bearbeitet:
Erinnert mich alles an den CPU-Markt, in dem Produkte schon Jahre vor ihrem erscheinen benannt werden.

Interessanter als Kepler an sich finde ich erstmal:

HWL-News schrieb:
Für die zeitliche Lücken zwischen jetzt und Kepler erwähnt Jen-Hsun noch einen "mid life kicker", über den man aber sonst nichts weiter verraten wollte.

Ich denke mal nicht das man damit einen vollen GF100 meinen wird, das wäre einfach zu wenig im Berreich der Leistungssteigerung. Andererseits ging es gerade dort um Cuda und DP-Leistung, was auch gegen einen Chip auf GF104 Basis mit 3 GPCs sprechen würde, weil diese einfach keine Leistung in DP besitzen.
 
was ich mich frage was der mid kicker wird??
wird es eine 485 geben???
mann mann mann will nimmer warte ich flippe noch aus

das erklaert es (auszug von cb)
Dabei bezieht sich Huang aber einzig auf die Double-Precision-Performance und nicht auf die allgemeine Geschwindigkeit.
dieser satz fehl in dem text
 
Zuletzt bearbeitet:
Astronomie halt, bei Intel sind es amerikanische Städte.

OMG jetzt verfolgen mich schon die kepler Gesetze und Maxwell mit seinen beschi** Gleichungen auch noch im virtuellen Leben und nicht nur im Studium :d Argh

Zum Thema: Joar dann mal los Nvidia, ich würde mich freuen wenn die Karten halten was der Chinese verspricht.

MFG Jubeltrubel
 
Ich bin deiner meinung nv hat mit dem G80 und dem G92 ( der G92 ist meiner meinung die beste GPU gewesen) wirklich was sau gutes gehabt und der G200 war da naja meiner meinung nach schon zu hungrig im vergleich zum G92 und der gebotenen mehr leistung!
Sehe ich ähnlich. Der G92 war seit dem G80 eigentlich das effizienteste Design von nVidia. Problem ist nur, das Design war einfach veraltet (kein Double Precision Support, keine Tessellation). Dh, irgendwas musste man für zukünftige Anforderungen machen. Nur ist das mit Fermi halt nicht wirklich gelungen. Scheinbar vor allem begründet durch das fehlerhafte Transistordesign. AMD hatte im Gegensatz dazu schon frühzeitig die Probleme von TSMCs 40 nm Prozess mit dem RV740 erkannt und beseitigt.
 
Die GTX 460 ist nen Schritt in die richtige Richtung und hat sogar meine Graka-Empfehlung im Midend-Bereich (5770 Lower Mid, 5850 upper Midend) abgelöst... weils ENDLICH mal wieder ne vernünftige Karte ist.
Was heißt da endlich ? Soweit ich weiß ist nur die GTX480 nicht das gelbe vom ei
 
Weil die 460er auf dem gf 104 und nicht dem gf 100 basiert? Die gf 100er interessieren mich net die Bohne einfach wegen ihres Stromhungers, auf die direkte Leistung umgemünzt haben die gegen die ATI-Pendanten keine Schnitte.

Beim gf 104 aka GTX 460 sieht das wieder anders aus - somit top und akzeptiert... wo ist da das Problem?
 
Sehe ich ähnlich. Der G92 war seit dem G80 eigentlich das effizienteste Design von nVidia. Problem ist nur, das Design war einfach veraltet (kein Double Precision Support, keine Tessellation). Dh, irgendwas musste man für zukünftige Anforderungen machen. Nur ist das mit Fermi halt nicht wirklich gelungen.

Naja, du lässt den G200 außer acht bei dem eigentlich nur das G92 Design genommen wurde und man all das dranpappte (Tesselation mal dahingestellt), resultat war ein riesiger Chip.

Scheinbar vor allem begründet durch das fehlerhafte Transistordesign. AMD hatte im Gegensatz dazu schon frühzeitig die Probleme von TSMCs 40 nm Prozess mit dem RV740 erkannt und beseitigt.

Naja, das ist übertrieben positiv gedacht. Wenn man sich ansieht wie es mit der Verfügbarkeit der neuen Chips aussah ist "beseitigt" doch etwas sehr euphorisch.

Zu den neuen Karten bei NV kann man nur sagen das man abwarten muss was da kommen wird. Evtl geht der Weg ja auch in eine getrennte Entwicklung für Konsumenten und den Profi bzw gewerblichen Markt. Zwar wären die Kosten sehr hoch, aber am Ende würden für beide Seiten bessere Chips auf den Markt kommen. Man sieht ja was aus dem GF100 an sich rauszuholen ist wenn man mal alles was nicht nötig ist für Zocker beiseite lässt.
 
AMD hat momentan einfach die besseren Karten... sowohl Leistung/Preis Technisch als auch im entsprechenden Verbrauchsvergleich.

Amen to that. Und sie verkaufen die Dinger zu nem fairen Preis. Konnte man von den G80 GPUs damals nicht behaupten.... :d

Möge das Zuflamen meiner einer beginnen.

@topic: Kann ja schon sein dass das alles so geplant ist wie der CEO das darlegt, aber ich glaube dass das a) sehr blauäugig ist und das natürlich auch so sein muss. (Ist ja überall so, der Boxer der vor kurzem gegen Klitschko wieder mal Prügel kassiert hat hat auch vorher dick getönt, gehört eben dazu, ist Marketing und Unterhaltung !) und b) in der kurzen Zeit eher NICHT möglich ist.... denke da eher an 2015 oder 2016, aber nicht 2013.
 
1. Spricht der Typ nur über die Dual Precision, was eigentlich rein gar nichts über die Graphikleistung der GPUs aussagt. Und somit den 99% der Privatkunden ziemlich egal sein kann.

2. Kann man einzig und allein die Angaben zum Kepler auch nur halbwegs ernst nehmen. Eine Verdopplung der Effizienz zum Fermi ist mit einem Shrink und etwas Architekturoptimierung nicht wirklich ein Wunderwerk, somit realistisch und eigentlich was man von einer neuen Generation erwarten sollte.


Beim Maxwell handelt es sich dagegen nur um heiße Luft und jede Menge Wunschdenken von Huang. Die hätten anstatt der 14-16 fachen Effizienz genauso gut auch von 120-160 sprechen können, das sind auch nichts weiter als ein paar erfundene Zahlen.
Zum einem redet man hier schließlich von einem Fertigungsverfahren, das momentan allein auf dem Papier existiert. Nicht einmal TSMC selbst kann garantieren, dass sie die 22nm 2013 auch wirklich massentauglich bereit haben werden.
Und was Maxwell selbst angeht, so kann man nicht einmal das behaupten. Ganze drei Jahre vor der geplanten Einführung (also 4 realistische), wird sich die GPU momentan gerademal in der allerfrühesten Etwicklungphase befinden. Und um eine derartige Steigerung auch nur theoretisch möglich zu machen, wird man eine komplett neue Architektur präsentieren müssen. Es ist deshalb einfach unmöglich jetzt schon irgendwelche handfeste Prognosen über die endgültige Leistung/Effizienz zu geben, r600 und Larrabee sind da prominente Beispiele dafür.
 
Zuletzt bearbeitet:
Naja, du lässt den G200 außer acht bei dem eigentlich nur das G92 Design genommen wurde und man all das dranpappte (Tesselation mal dahingestellt), resultat war ein riesiger Chip.
Ich habe den G200 nicht ausser Acht gelassen. Ich sehe den G92 trotzdem um einiges effizienter.

Naja, das ist übertrieben positiv gedacht. Wenn man sich ansieht wie es mit der Verfügbarkeit der neuen Chips aussah ist "beseitigt" doch etwas sehr euphorisch.
Beim Transistordesign geht es nicht um Verfügbarkeit. Hier bringst du etwas durcheinander. Du sprichst maximal von Defektraten der Fertigung. Ich spreche vom thermischen Verhalten des Designs.
 
[...] Eine Verdopplung der Effizienz zum Fermi ist mit einem Shrink [...]

Ein Shrink ist kein Garant für eine bessere Effizienz bzw geringeren Verbrauch, was man ja sehr schön an den Verbrauchswerten der nvidia Modelle gesehen hat die statt im 65nm dann im 55nm Verfahren gefertigt wurden.
Dort hat es lediglich den Vorteil gebracht das der G92b (55nm) gegenüber dem G92(65nm) billiger produziert werden konnte, am Verbrauch tat sich 0,0 - zT war der Verbrauch sogar höher als bei den 65nm Modellen.

Es muss also mehr gemacht werden als nur ein Shrink und "etwas" Archtekturoptimierung um gleich eine Verdoppelung der Effizienz herbeizuführen.
 
Nur mal als kleines Rechenbeispiel.

Die Angaben beziehen sich ja auf den Fermi/Tesla in aktueller Form.
Heist wie haben 515 GFlops/sec bei DP. Wir haben 225W TDP und wir haben ca. 2GFlops/W.

Wenn wir jetzt mal rechnen:
Kepler will 10x schneller sein, und eine Effizienzsteigerung von 4-6 GFlops/W erfahren. Heist das soviel wie:
515*10 = 5,150TFlops/sec in DP (10x mehr Leistung)
5150/4-6 = 1287,5W - 858,33W TDP (4-6GFlops/W)

Beim Maxwell siehts folgendermaßen aus:
515*40 = 20,600TFlops/sec in DP (40x mehr Leistung)
20600/14-16 = 1471,4W - 1287,5W TDP (14-16GFlops/W)


Ich glaube an derartige Zahlen glaubt NV selbst nicht. Denn das was sie dort bringen ist insich schon inkonsistent. Denn unabhängig von der Architektur oder der Umsetzung kann es in meinen Augen keine Leistungssteigerung von 10x geben beim Kepler wenn sich die Effizienz der GPU ansich nur um den Faktor 2-3 verbessert (im Gegensatz zur aktuellen Fermi Tesla Top Karte)
Derartiger Leistungsbedarf ist einfach auf einer Grafikkarte (bzw. GPGPU Karte) nicht händelbar/kühlbar.
 
ich glaube min. die hälfte wissen oder begreifen nicht das es in dieser grafik um DP GigaFlops pro Watt geht und verstehen die grafik allgemein nicht ;)

Lesen + Verstehen + Begreifen ist halt nicht so einfach ;)

Edit:

Nur kurz erklärt:

Maxwell soll ca. 15 DP GigaFlops pro Watt haben, das bedeutet bei einer 250Watt TDP Karte/GPU 3750GigaFlops DP! NV geht von ca. 10x mehr DP Leistung als GF100 aus und das ist in 4 Jahren sehr wohl zu erreichen und im normalen entwicklungs-rahmen da die Aktuelle DP Leistung so wie so noch nicht in einem mega "hoch" ist!

Zum Vergleich: GF100 hat ca. 7x mehr DP Leistung als G200

DP hat nichts mit SP zu tun, DP Leistung ist für den Gaming Bereich völlig unwichtig!
 
Zuletzt bearbeitet:
Ja denn die Quadro Fermis sind ja schon 2009 auf denn Markt oder ?
Ich mag mich irren, meine aber von ersten Quadro Fermis erst gehört zu haben als 400er schon auf dem Markt waren
2011
ist ihn 100Tage 16 Stunden und 6 Minuten ;) Also so lang ist das auch wieder ned
Wäre Kepler schon für Anfang 2011 geplant wäre vermutlich die Marketing Maschinerie von nv schon auf hochturen laufen bzw die ersten Gerüchte die Runde machen, daher halte ich mitte bis 3 Quartal 2011 eher für wahrscheinlich was dann als Gegner ja AMD 7k bedeutet
 
Ich mag mich irren, meine aber von ersten Quadro Fermis erst gehört zu haben als 400er schon auf dem Markt waren

Nicht ganz. Auf der GTC 2009 stellte man die Fermi-Architektur auf Basis des professionellen Einsatzgebietes vor. Da war von den Desktop-Karten noch nicht die Rede.
 
Ein Shrink ist kein Garant für eine bessere Effizienz bzw geringeren Verbrauch, was man ja sehr schön an den Verbrauchswerten der nvidia Modelle gesehen hat die statt im 65nm dann im 55nm Verfahren gefertigt wurden.
Wenn man es ordentlich macht, dann schon.
Und von 65 auf 55 ist nur ein halber Schritt, ein voller wäre von 65 auf 45 (oder 80>55>40>28 usw.), somit kann man davon auch nur die Hälfte erwarten.

Zum Vergleich: GF100 hat ca. 7x mehr DP Leistung als G200
Aber ganz im Gegensatz zu dem G200, ist GF100 von Anfang an speziell auf GPGPU und DP ausgelegt worden. Und diesen Trick kann man nun mal nur ein einziges Mal durchziehen.
 
Zuletzt bearbeitet:
65 auf 55nm brachte nichts, es ist so wie so der selbe prozess und da weis man aber schon seit jahren!


da läst sich noch viel machen zb. only full speed DP Einheiten da hätte man mit einem schlag schon die doppelte Leistung und wenn man noch die ALU anzahl verdoppelt ist man bei der 4fachen DP Leistung als es jetzt GF100 hat ;)

und die NV angaben beziehen sich immer noch auf GigaFlops pro Watt

NV könnte auch einfach mit einen besonders energie sparenten chip kommen der nicht mal so viel mehr DP Leistung hat ;)

sagen wir mal Kepler hat 1000GigaFlops DP bei 200Watt schon das würde die NV angabe von 5GigaFlops DP pro Watt erfüllen ;)
 
Zuletzt bearbeitet:
Nur um so einen effizienten Chip, wie du ihn beschreibst auf den Markt zu bringen, muss nVidia schon gehörig entwickeln. Da bringt es ein aufgemöbelter Fermi nicht.
 
Kepler soll ja in 28nm kommen, fermi ist noch in 40nm das ist ca. faktor 2 kleiner!
 
Zuletzt bearbeitet:
Nur weil du den Fertigungsprozess änderst bedeutet nicht gleich, dass du auch eine Effizient um den Faktor X hast. Das sind alles theoretische Hochrechnungen.
 
Nochmal für ALLE: hier geht es um NVIDIA und den Ausblick auf zukünftige GPUs. Sonst nichts! Haltet euch daran.
 
Ich hoffe das Nvidia mal wieder n Knaller auf die Bevölkerung loslässt wie damals bei dem Release der 8000er Reihe.
Das würde den für uns Käufern interessanten Preiskrig anheizen.
Aber alles in allem hoffe ich nur das Nvidea wieder interessante Lösungen und echte Alternativen hat.
Nicht wie aktuell das ich für die gleiche Leistung mehr zahlen muss, sowhl bei kauf als auch bei der Stromrechnung.
 
Maxwell soll ca. 15 DP GigaFlops pro Watt haben, das bedeutet bei einer 250Watt TDP Karte/GPU 3750GigaFlops DP! NV geht von ca. 10x mehr DP Leistung als GF100 aus und das ist in 4 Jahren sehr wohl zu erreichen und im normalen entwicklungs-rahmen da die Aktuelle DP Leistung so wie so noch nicht in einem mega "hoch" ist!

Ich könnt was auf den Augen haben, aber im Newspost steht was von 40x zum Tesla (warscheinlich aktueller Fermi Tesla) für Maxwell. Die 10x beziehen sich auf Kepler.
Deine Rechnung steht auf wenn man 10x für Maxwell nimmt und dann eine Effizienzsteigerung um den Faktor 7-8 nimmt, wie sie für Maxwell auf dem Plan steht.
So stehts dort aber nicht... ;)
Heist also die es wiederspricht sich selbst... Denn 40x Leistung vom aktuellen Fermi Tesla Produkt bei 14-16GFlops pro Watt macht weit über 1000W TDP bzw. Leistungsaufnahme. Das kann sich selbst NV nicht leisten sowas zu bauen...

Ich hoffe das Nvidia mal wieder n Knaller auf die Bevölkerung loslässt wie damals bei dem Release der 8000er Reihe.
Das würde den für uns Käufern interessanten Preiskrig anheizen.
Aber alles in allem hoffe ich nur das Nvidea wieder interessante Lösungen und echte Alternativen hat.
Nicht wie aktuell das ich für die gleiche Leistung mehr zahlen muss, sowhl bei kauf als auch bei der Stromrechnung.

Leute ihr solltet nicht immernur die Überschriften lesen sondern auchmal die News dazu...
Es geht hier weder um den Gamingmarkt noch um irgendwelche alternativen zu im Moment verfügbaren Karten auf dem Gamingmarkt...
Das ganze ist der Profibereich, da zählen andere Sachen und da gibt es auch keine Preiskampf wie im Gamingmarkt. Da wird gezahlt für die Leistung und wenn das tausende von Euro kostet... :rolleyes:
 
Leute ihr solltet nicht immernur die Überschriften lesen sondern auchmal die News dazu...
Es geht hier weder um den Gamingmarkt noch um irgendwelche alternativen zu im Moment verfügbaren Karten auf dem Gamingmarkt...
Das ganze ist der Profibereich, da zählen andere Sachen und da gibt es auch keine Preiskampf wie im Gamingmarkt. Da wird gezahlt für die Leistung und wenn das tausende von Euro kostet... :rolleyes:

Da magst du schon recht haben das Huang da primär die Profikarten im Sinn hatte wenn er ausschliesslich die DP Performance erwähnt,nur werden Ableger dieser Tesla/Quadro Karten auch unweigerlich im Highendgamermarkt sich wieder finden.

Es sei denn Nvidia würde sich mit Kepler bzw Maxwell dazu entschließen zweigleisig zu fahren bei der Entwicklung,was schwer vorzustellen ist
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh