GTC 2012 Keynote: Kepler, GK110 und jede Menge Tech-Demos (Update)

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.945
<p><img src="images/stories/logos/gtc2012-neu.jpg" width="100" height="100" alt="gtc2012-neu" style="float: left; margin: 10px;" />Heute hat Jen-Hsun Huang die GTC 2012 eröffnet. Der Fokus der hauseigenen Messe liegt natürlich auf dem GPU-Computing und der CUDA-Schnittstelle. Besonders stolz ist man auf die Tatsache, dass bereits in zahlreichen Supercomputern GPUs zum Einsatz kommen. GPUs nehmen also auch im professionellen Umfeld eine immer wichtigere Rolle ein. Neben der Tatsache, dass die Hardware sich für solche Anwendungen eignet, spielt aber auch die Unterstützung auf Seiten der Software eine wichtige Rolle. Die Verbreitung von CUDA wird durch die freie Verfügbarkeit und die Nutzung auf verschiedenen Plattformen begünstigt (Windows, OS X, Linux).</p>
<p>{jphoto...<p><a href="/index.php?option=com_content&view=article&id=22522&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann kommt der GK110 also als GTX 780 Anfang 2013 als Konkurenz zur dann neuen HD 8970.
 
Ich denke auch das GK110 im Desktop & HPC Markt eingesetzt wird.
Wenn die Konkurrenz (8970) im Jahr 2013 z.b. 40% schneller als die GTX680 wäre, dann braucht Nvidia mit Sicherheit GK110.
Ich glaube nicht das nvidia extra ein neues DIE für den Desktop Markt entwickelt.
 
Zuletzt bearbeitet:
Die GTX 680 ist nur so erschienen weil die HD 7970 zu schwach war.
Das hätte aber keinerlei Einfluss auf die Tesla-Variante des GK110 und diese kommt auch nicht vor dem 4. Quartal. Nvidia hat einfach noch zu viele Probleme mit 28nm, um den GK110 jetzt schon (profitabel) fertigen zu können, sieht man ja schon an der (relativ) schlechten Verfügbarkeit des GK104 (alias GTX680). Und letztere GPU ist immerhin schon fast zwei Monate auf dem Markt, also gute 3-4 Monate in Massenproduktion.
 
Ich denke mal sie hätten sonst wahrscheinlich so lange warten müssen wie damals mit der GTX 480. Das hat ja auch ewig gedauert.

Aber sie schienen sehr erfreut darüber zu sein das die HD 7970 doch nicht so schnell wie erwartet war, und so konnten sie dann den Perfomance Chip releasen.
 
Aber sie schienen sehr erfreut darüber zu sein das die HD 7970 doch nicht so schnell wie erwartet war, und so konnten sie dann den Perfomance Chip releasen.
Und ob sie sich darüber erfreut waren, das hat sie schließlich vor einer Riesenblamage bewahrt.

Passend dazu, gerade auf Heise gefunden:
"...GK110-GPU wird im Maximalausbau 2880 Shader-Rechenkerne haben. Das bestätigte Sumit Gupta, zuständig für den HPC-Bereich bei Nvidia... So soll GK110 maximal 15 SMX-Cluster mit jeweils 192 Kernen enthalten. Im Tesla-Bereich sollen allerdings zunächst Varianten mit 13 oder 14 SMX-Clustern zum Einsatz kommen. ...Der Speicher wird mit 384 Bit angesteuert..."

Zumindest bei den Tesla wird es also selbst am Ende des Jahres nur verkrüppelte 110er geben, bei Desktop wird es sich noch zeigen müssen. Na immerhin gibbets 384bit und 3GB RAM (desktop).
 
7,1Milliarden Transoístoren o_O ... das wäre dann im vergleich zu Tahiti ein riesen Monster
 
Und ob sie sich darüber erfreut waren, das hat sie schließlich vor einer Riesenblamage bewahrt.

schon klar, für NV ne Blamage und für ATI natürlich nichts dergleichen??? Die sind ATI einfach um vieles voraus, halt wie Intel, nur fällt das zugeben noch schwer, lg
 
Und ob sie sich darüber erfreut waren, das hat sie schließlich vor einer Riesenblamage bewahrt.
.

Hust hust Mutmaßen ist nicht wissen

Zudem wer ist denn hier der Blamierte,der jenige der mit seinen Mittelklassechip gegen nen aufgepumpten 7970 antreten kann,oder der jenige der sein Speicher und Interfacemonster nicht entsprechend absetzen kann in der Performance?!

Mit Big K sehe es noch trauriger aus,zumal dieser zum jetzigen Zeitpunkt,für den GeForce Sektor eh uninteressant ist,da man mit GK104 sehr gut in der Lage ist,die Top Ten zu besetzen
 
Klar, also wenn man bei 'nem Rennen als letzter ins Ziel kommt, sagt man einfach: "Ich bin nicht letzter! Ich dachte nur die anderen seien besser, deshalb habe ich mich nicht angestrengt.". Das klingt nicht nur logisch, sondern beweist auch allen, dass man total der King ist...

Mal ehrlich, wer glaubt Marketing???
 
Der blamierte ist wer nicht liefern kann im 28nm prozess. Und da gehts NV noch viel schlechter als AMD. Kohle wird bei den kleineren Karten gemacht. Und da schauts ganz mau aus.
Das der GK 110 Desktop später kommt ist da nur logisch.
 
Hust hust Mutmaßen ist nicht wissen

Zudem wer ist denn hier der Blamierte,der jenige der mit seinen Mittelklassechip gegen nen aufgepumpten 7970 antreten kann,oder der jenige der sein Speicher und Interfacemonster nicht entsprechend absetzen kann in der Performance?!

Mit Big K sehe es noch trauriger aus,zumal dieser zum jetzigen Zeitpunkt,für den GeForce Sektor eh uninteressant ist,da man mit GK104 sehr gut in der Lage ist,die Top Ten zu besetzen
Sicher sind es Mutmaßungen, schließlich gibt es von Nvidia zum diesem Thema nichts als schweigen. Aber wie heißt es doch so schön: Auch keine Antwort ist eine Antwort. ;)

Von aufgepumpt kann bei dem Tahiti ja wohl kaum sprechen, ist der ja auch nur ~20% größer als der GK104, welcher ja dafür auf den größten Teil des GPGPU Ballasts verzichten darf/muss.
Um die Leistungsfähigkeit der beiden Architekturen zu vergleichen, taugt der Pitcairn deshalb wesentlich besser. Also die GTX 680 vs. 7870, mit Berücksichtigung der Chipgröße.
Ergebnis: Der GK104 ist ~39% größer als Pitcairn (294 zu 212mm^2), und bietet dafür 39% mehr Leistung (laut CBs Rating @FullHD 4/16). Also praktisch perfekter Gleichstand zwischen GCN und Kepler! Berücksichtigt man den etwas höheren Takt der 680, schneidet GCN sogar noch etwas besser ab..

Darüber zu spekulieren, wie es mit den "Big K" aussehen würde ist ziemlich sinnlos, da es nun mal keinen "Big K" gibt. Für das Jahr 2012 ist der GK104 Nvidias größte Desktop-GPU, so sehen die Tatsachen nun mal aus.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh