NVIDIA spricht über die 28-nm-Fertigung von Kepler

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.021
<p><img style="float: left; margin: 10px;" src="images/stories/logos/nvidia.gif" alt="nvidia" width="100" height="100" />Das NVIDIA mit "Kepler" bzw. der GK104-GPU bei der Effizienz einen Schritt in die richtige Richtung gemacht hat, zeigte bereits der <a href="index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html" target="_blank">erste Test der GeForce GTX 680</a>. Da NVIDIA nicht einfach nur einen Shrink einer bestehenden Architektur auf eine kleinere Fertigung vollzogen hat, sind die Einsparungen und Optimierungen beim Stromverbrauch also nicht einfach nur auf die kleineren Transistoren zurückzuführen. Dennoch geht NVIDIA in einem <a href="http://blogs.nvidia.com/2012/04/the-impact-of-process-technology-on-keplers-efficiency/?sf4011658=1"...<p><a href="/index.php?option=com_content&view=article&id=22337&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit GPGPU im Chip wäre die Effizienz wieder dahin. Verwette ich meinen Hintern für.
 
Mit GPGPU im Chip wäre die Effizienz wieder dahin. Verwette ich meinen Hintern für.

Das sehe ich ähnlich. Sie haben schlichtweg etwas weggelassen und verkaufen das dann als Effizienzsteigerung. Ich kann bei einem Auto auch den Rückwärtsgang weglassen, spare Gewicht und somit Benzin. Das ist aber ganz bestimmt nicht gleichzusetzen mit Effizienzsteigerung ;).
 
lol, nur weil der amd-chip dieses unnütze fünfte rad (für gamer) dran hat müsst ihr diesen cleverer designten (für gamer, weil kein unnützes fünftes rad mitgeschleppt werden muss) madig machen?

get a life...
 
lol, nur weil der amd-chip dieses unnütze fünfte rad (für gamer) dran hat müsst ihr diesen cleverer designten (für gamer, weil kein unnützes fünftes rad mitgeschleppt werden muss) madig machen?

get a life...

autovergleiche ftw :fresse:

nein das ist als ob man das 4te rad wegnimmt und dann davon ausgeht das es dem kunden nicht auffällt das das auto schief steht und aufm boden schleift
 
lol, nur weil der amd-chip dieses unnütze fünfte rad (für gamer) dran hat müsst ihr diesen cleverer designten (für gamer, weil kein unnützes fünftes rad mitgeschleppt werden muss) madig machen?

Das Problem daran ist, dass NVidia den "clever designten" Chip mit dem GF110 vergleicht, der das eben auch intus hatte. Dadurch sieht sogar jeder noch so verblendete Fanboy, dass das nur Marketinggeblubber ist.
So ganz nebenbei mussten sich die AMD Karten früher andauernd die Kritik anhören, dass sie in dem Bereich nicht so gut sind. Kaum ist AMD da besser als NVidia, ist das Thema auf einmal irrelevant und sogar unnütz...:rofl:
 
Das ist ja alles gut und schön, aber mich interessiert eher wann es für den Endkunden auch mal aus P/L-Sicht vorran geht. Hätt ich das gewusst hätt ich 2009 eine 5870 gekauft...
 
lol, nur weil der amd-chip dieses unnütze fünfte rad (für gamer) dran hat müsst ihr diesen cleverer designten (für gamer, weil kein unnützes fünftes rad mitgeschleppt werden muss) madig machen?

get a life...

Jetzt zeig mir mal bitte die Stelle an der ich einen Vergleich mit AMD gezogen habe!? Es ging in dem Artikel um Effizienz und deren (Nicht-)Steigerung. Mein Beispiel bezog sich ausschließlich auf Nvidia-Interna (meinetwegen zur Vorgänger-, bzw. Vorvorgänger Generation).
Dein albernes "get a life"-Gedöns kannst du für dich behalten. Wenn du keinen sachlichen Beitrag von dir geben kannst, dann frage ich mich wo dein "Life" ist, wenn du schon solche Kommentare anbringen musst.
 
Zuletzt bearbeitet:
Mit GPGPU im Chip wäre die Effizienz wieder dahin.

Da liegst du falsch.

Allein das stark vereinfache, jetzt statische scheduling bei Kepler bringt ordentlich was.
Auch das die SMs jetzt nicht mehr mit Hotclock betrieben werden, senkt grade die Leakage deutlich.
Dann werden die ALUs auch nicht mehr zum Video Encoding herangezogen, weil sie dafür zu verschwenderisch waren,
dafür gibts jetzt wieder eine extra Einheit, wobei AMD hier eigentlich viel stärker gefordert wäre.

Denn zb. bei CB braucht das Gesamtsystem im Verbrauchstest "Blu-ray-Wiedergabe (H.264)" mit einer GTX 680 grade mal 85W (idle 68W) ggü. 137W im Falle der 7970 (idle 66W).
Dh. die Geforce gönnt sich, dank "NVENC" nur 17W über idle, wo die Radeon ganze 71W über ihren idle Wert liegt.
- Test: Nvidia GeForce GTX 680 (Seite 17) - ComputerBase
 
Da liegst du falsch.

Allein das stark vereinfache, jetzt statische scheduling bei Kepler bringt ordentlich was.
Auch das die SMs jetzt nicht mehr mit Hotclock betrieben werden, senkt grade die Leakage deutlich.
Dann werden die ALUs auch nicht mehr zum Video Encoding herangezogen, weil sie dafür zu verschwenderisch waren,
dafür gibts jetzt wieder eine extra Einheit, wobei AMD hier eigentlich viel stärker gefordert wäre.

Denn zb. bei CB braucht das Gesamtsystem im Verbrauchstest "Blu-ray-Wiedergabe (H.264)" mit einer GTX 680 grade mal 85W (idle 68W) ggü. 137W im Falle der 7970 (idle 66W).
Dh. die Geforce gönnt sich, dank "NVENC" nur 17W über idle, wo die Radeon ganze 71W über ihren idle Wert liegt.
- Test: Nvidia GeForce GTX 680 (Seite 17) - ComputerBase

Deiner Theorie wird der BigK dann an die 80% schneller sein als die 680?:coolblue:
 
"mit der 1. Generaion" - Absatz zwischen den beiden Bildern.
 
lol, nur weil der amd-chip dieses unnütze fünfte rad (für gamer) dran hat müsst ihr diesen cleverer designten (für gamer, weil kein unnützes fünftes rad mitgeschleppt werden muss) madig machen?
Was soll daran cleverer sein? Während AMD in aller Ruhe den fertigen Tahiti für professionelle Lösungen vorbereiten kann und Entwicklungsressourcen bereits in die nächste Generation steckt, ist Nvidia damit beschäftigt, einen komplexen, kostspieligen und schwierig zu fertigenden Kepler mit GPGPU zu designen. Hilfreich ist das bestimmt nicht, um den Entwicklungsrückstand zur Konkurrenz aufzuholen. Ganz im Gegenteil.


Da liegst du falsch.
Nein, falsch war die Aussage von CH4F keineswegs. Mit GPGPU wäre GK104 auf jeden Fall ineffizienter in Spielen. Die Frage ist halt nur, um wie viel.

Denn zb. bei CB braucht das Gesamtsystem im Verbrauchstest "Blu-ray-Wiedergabe (H.264)" mit einer GTX 680 grade mal 85W (idle 68W) ggü. 137W im Falle der 7970 (idle 66W).
Dh. die Geforce gönnt sich, dank "NVENC" nur 17W über idle, wo die Radeon ganze 71W über ihren idle Wert liegt.
- Test: Nvidia GeForce GTX 680 (Seite 17) - ComputerBase
Da hast du was falsch verstanden. NVENC ist ein Encoder. Der ist dafür da, um Videomaterial in ein bestimmtes Format umzuwandeln. Das entsprechende AMD Pendant nennt sich VCE. Für Wiedergabe ist hingegen ein Decoder von Nöten. Bei AMD zB über UVD.
Es war in der Vergangenheit schon so, dass Nvidia bei Blu-Ray Wiedergabe oft sparsamer ist. Gerade wenn man die grösseren Modelle vergleicht. Das hat also nichts mit dem GK104 zu tun. Woran das genau liegt, kann ich dir auch nicht sagen. Gut möglich, dass AMD Takt und Spannung noch zu hoch ansetzt. Die Blu-Ray Wiedergabe bei kleineren Radeons oder Llano ist zB recht sparsam.
 
Zuletzt bearbeitet:
@mr.dude
Ok, dann hat AMD da noch ne grundlegende Baustelle offen.

Aber das GK110 Design ist sicher schon fertig, allein die Fertigung wird hier noch keine brauchbare Yield abwerfen.
Die GTX 680 kostet schon 500€, wo soll da erst ein Chip mit mehr als der doppelten Fläche landen?

@Blediator16
Keine Ahung wo GK110 vom Speed her landen wird, eine pauschale Aussage ist eh schwer, ohne Eckpunkte wie Auflösung und Kantenglättungseinsatz.
Aber wenn man sieht wie GK104 an der Bandbreite hängt, könnte man bei GK104 mit einem breiterem SI allein sicher nochmal 10-20% rausholen.
Wenn jetzt GK110 also nochmal ca. 50% mehr ALUs (2304) und ca. 80% mehr Bandbreite (512bit @ 2500MHz) bekommt,
würde es mich nicht überraschen, wenn dass für mindestens +60% ggü. GK104 reicht in Full HD.
Mit steigender Auflösung (2D/3D Surround) wird sich GK110 sicher immer weiter absetzen können, dank seines breiten SI.
 
Zuletzt bearbeitet:
Was soll daran cleverer sein? Während AMD in aller Ruhe den fertigen Tahiti für professionelle Lösungen vorbereiten kann und Entwicklungsressourcen bereits in die nächste Generation steckt, ist Nvidia damit beschäftigt, einen komplexen, kostspieligen und schwierig zu fertigenden Kepler mit GPGPU zu designen. Hilfreich ist das bestimmt nicht, um den Entwicklungsrückstand zur Konkurrenz aufzuholen. Ganz im Gegenteil.
immer mit den füßen unterm tisch bleiben, da darf dann gestampft werden.
bist du echt so gestrickt schon wieder auf krampf tahiti schön zu reden? es gibt bei beiden firmen größere entwicklerteams die sich jeweils um projekte kümmern. die entscheidung kepler in nem früheren punkt zu spalten und jedes projekt (gk104 für den spiele-markt, gk110 vielleicht für alles) für sich zu entwickeln hat soweit absehbar sehr gut gefruchtet. gk104 ist in seinem bereich wesentlich effizienter und wie sie sich in gpgpu gegenüberstehen sehen wir erst wenn die karten draußen sind. du behauptest ja amd würde es so viel leichter fallen... tja, mist aber auch dass ihr chip schon n viertel jahr für gamer verkauft wird aber noch kein professionell ableger.
und jetzt grab nich gleich wieder den kriegs-klappstuhl aus, sätze die mit "hätte gk104 noch mehr gpgpu-parts..." anfangen oder enden sind humbug. er braucht es nicht, gibt genug leute die ihn auch so kaufen und in dieser form ist er für die leute einfach effizienter weil das mehr an transistoren nicht gefüttert werden muss. mit der argumentation kommt der nächste um die ecke und hyped dann matrox oder via oder sis oder weiß der geier weil "aber mir gefallen nur rosa pcbs...". das ist auf einer stufe mit diesem gpgpu-quatsch.
 
^^ Lustig, so schnell wird aus einer GF110 vs. GK104-Diskussion ein AMD vs. Nvidia-Streit. :fresse:

Am Thema vorbei, Leute! Ihr müsst euch auch nicht andauernd wiederholen - derartiges Geblubber kann man mittlerweile in jedem zweiten NV/AMD-Thread lesen. Meint ihr also, es interessiert noch irgendwen hier??
Also, mich als (meist stillen) Leser nervt es inzwischen extrem! Also bitte...
 
^^ Lustig, so schnell wird aus einer GF110 vs. GK104-Diskussion ein AMD vs. Nvidia-Streit. :fresse:

Am Thema vorbei, Leute! Ihr müsst euch auch nicht andauernd wiederholen - derartiges Geblubber kann man mittlerweile in jedem zweiten NV/AMD-Thread lesen. Meint ihr also, es interessiert noch irgendwen hier??
Also, mich als (meist stillen) Leser nervt es inzwischen extrem! Also bitte...
Zustimmung. Sowas ist absolut kindisch. Aber schau es dir mal an: es hat exakt 3 Posts gedauert bis sich der erste persönlich angegriffen gefühlt hat und wieder Rot vs. Grün ausruft... . Eine sachliche Diskussion ist hier echt aussichtslos.
 
ihr zwei exemplarisch definiert euch über die produkte, warum sonst ist es der inhalt eurer signatur und dann kotzt sowas an?
andere fühlen sich von anderen sachen belästigt und brechen keine meuterei mit "das stört bestimmt noch gaaaanz viele andere die meiner meinung sein müssen"...

anyway, die karte zeigt einfach mal wieviel man mit ner guten anpassung sparen kann. sie bringt die leistung einer neuen generation (dafür muss man wohl ne vergleichskarte ranziehen, daher amd, ne 670 mit gpgpu ist nicht verfügbar zum vergleich) und dann legen die klageweiber los und behaupten es wäre keine neue sache weil der unterschied ja nur dies und das wär...
also eigentlich war die disskusion beim ersten kommentar zuende und der 2 setzte nur noch einen drauf mit dem sinnbefreiten auto-vergleich. glückwunsch :)
 
Mit GPGPU im Chip wäre die Effizienz wieder dahin. Verwette ich meinen Hintern für.

"Mit GPGPU im Chip springt der Osterhase 3Meter hoch"

Ist ne Begauptung die ebenso nicht passt wie die Pauschalaussage darüber

Mit GPGPU im Chip kann man mit DP Shadern ebenso auch "simple" SP Aufgaben ergo Grafik berechnen und wenn deren Basis ebenso Kepler Architektur ist,verwette ich nen roten Pavianarsch darauf das "Big K" nicht signifikant schlechter dasteht bei der Effizenz wie GK104.
 
es gibt bei beiden firmen größere entwicklerteams die sich jeweils um projekte kümmern.
Trotzdem gibt es keine unbegrenzten Ressourcen. Und wie du dir denken kannst, sind 2 Designs nun mal aufwändiger als eines.

die entscheidung kepler in nem früheren punkt zu spalten und jedes projekt (gk104 für den spiele-markt, gk110 vielleicht für alles) für sich zu entwickeln hat soweit absehbar sehr gut gefruchtet.
Man war ein Quartal später als die Konkurrenz dran, obwohl der GF110 sogar leicht früher als Cayman kam. Vom grossen Kepler ist bisher noch gar nichts zu sehen. Wo genau hat denn die Abspaltung gut gefruchtet?

gk104 ist in seinem bereich wesentlich effizienter und wie sie sich in gpgpu gegenüberstehen sehen wir erst wenn die karten draußen sind. du behauptest ja amd würde es so viel leichter fallen... tja, mist aber auch dass ihr chip schon n viertel jahr für gamer verkauft wird aber noch kein professionell ableger.
Wesentlich effizienter als was? GF110? Jup. Tahiti? Jein. Und der Unterschied ist, dass du Tahiti schon für GPGPU kaufen und einsetzen kannst. Selbst wenn es ihn noch nicht als professionellen Ableger gibt. Was kannst du denn vom grossen Kepler schon kaufen? Es geht gar nicht darum, den GK104 schlecht zu reden. Was fühlst du dich denn gleich so angegriffen? Aber deine Behauptung, er wäre cleverer designt als Tahiti, ist schlichtweg Quatsch.
 
Trotzdem gibt es keine unbegrenzten Ressourcen. Und wie du dir denken kannst, sind 2 Designs nun mal aufwändiger als eines.

nVidia arbeitet seit G92/GT200 an zwei Designs basierend auf der gleichen Architektur. :wink:

Man war ein Quartal später als die Konkurrenz dran, obwohl der GF110 sogar leicht früher als Cayman kam. Vom grossen Kepler ist bisher noch gar nichts zu sehen. Wo genau hat denn die Abspaltung gut gefruchtet?

Nun - man hat die schnellste Single-GPU und es wird spekuliert, dass in 7h der Doppeldecker angekündigt wird, den es angeblich ab 10.05 zu kaufen geben soll.

Was bitte hat AMD's Fermi-Kopie ihnen gebracht?

Wesentlich effizienter als was? GF110? Jup. Tahiti? Jein. Und der Unterschied ist, dass du Tahiti schon für GPGPU kaufen und einsetzen kannst. Selbst wenn es ihn noch nicht als professionellen Ableger gibt. Was kannst du denn vom grossen Kepler schon kaufen? Es geht gar nicht darum, den GK104 schlecht zu reden. Was fühlst du dich denn gleich so angegriffen? Aber deine Behauptung, er wäre cleverer designt als Tahiti, ist schlichtweg Quatsch.

Und? Man kann auch seit 2 Jahren Fermi kaufen. Wieso hätten die Leute also 2 Jahre warten sollen? :confused:
 
nVidia arbeitet seit G92/GT200 an zwei Designs basierend auf der gleichen Architektur.
AMD arbeitet meist sogar an 3-4 Designs auf Basis der gleichen Architektur. ;) Darum ging es nicht. Diese scheinbare Abspaltung wie zwischen GK104 und GK110 bzw zwischen Gaming und Computing Design gab es bei Nvidia vorher zumindest nicht in dieser Form.

Nun - man hat die schnellste Single-GPU
Ja, mit wahnsinnigen 5% Vorsprung oder so in Spielen, weil man 3 Monate mehr Zeit hatte, an der Taktschraube zu drehen. Beim Computing wird die GTX 680 ja selbst vom Vorgänger teils ziemlich versägt. Von der HD 7970 will ich da gar nicht erst anfangen. Ist natürlich wahnsinnig beeindruckend und fruchtbar. :rolleyes: Aber gut, um den GK104 geht es weniger. Es geht vielmehr um den grossen Kepler, der wohl noch länger auf sich warten lässt.

Was bitte hat AMD's Fermi-Kopie ihnen gebracht?
Welche Fermi Kopie? Ich sehe keine.

Und? Man kann auch seit 2 Jahren Fermi kaufen.
Es geht aber nicht um Fermi, sondern um Kepler und SI.
 
Zuletzt bearbeitet:
Amen Dude... eh hier ist doch wieder voll der Kindergarten...

Leute jetzt kommt wieder runter und geht raus Grillen oder sonstwas!!!
 
AMD arbeitet meist sogar an 3-4 Designs auf Basis der gleichen Architektur. ;) Darum ging es nicht. Diese scheinbare Abspaltung wie zwischen GK104 und GK110 bzw zwischen Gaming und Computing Design gab es bei Nvidia vorher zumindest nicht in dieser Form.

Seit bald 5 Jahren macht es nVidia:
G92 <> GT200
GF1x0 <> GF1xx

Vorallem G92 und GT200 ist doch mit dem Vorgang jetzt identisch.

Ja, mit wahnsinnigen 5% Vorsprung oder so in Spielen, weil man 3 Monate mehr Zeit hatte, an der Taktschraube zu drehen. Beim Computing wird die GTX 680 ja selbst vom Vorgänger teils ziemlich versägt. Von der HD 7970 will ich da gar nicht erst anfangen. Ist natürlich wahnsinnig beeindruckend und fruchtbar. :rolleyes: Aber gut, um den GK104 geht es weniger. Es geht vielmehr um den grossen Kepler, der wohl noch länger auf sich warten lässt.

Ersten sind es ca. 10% und zweitens sind 10% nach 2 Monaten und 3 Wochen deutlich besser als 20% nach 14 Monaten. :asthanos:

Und GPGPU? Really? Luxmark bencht man einmal, danach hat man das Interesse verloren. Selbst im Winzip ist es fast egal, was für eine AMD-Grafikkarte man drin hat. :rolleyes:


Es geht aber nicht um Fermi, sondern um Kepler und Tahiti.

Nö. Es geht darum, dass man angeblich mit Lahmiti doch so schön auf dem GPGPU Zug aufspringen könnte. Dumm nur, dass die, die wirklich interesse haben, dass schon in den letzten Jahren mit Fermi und Cuda getan haben. Die, die also erstmal auf dem Lahmiti-Zug wollen, sind Gamer.
Also nochmal: Was hat AMD's Fermi Kopie ihnen gebracht?
 
Du musst mir mal ernsthaft erklären wo bitteschön Tahiti ne Fermi Kopie ist? :rolleyes:

Menschenskinder halte doch mal einfach den Ball flach - gegen Dude verlierst du sowieso was Fachwissen angeht :wall:
 
Du musst mir mal ernsthaft erklären wo bitteschön Tahiti ne Fermi Kopie ist? :rolleyes:

Menschenskinder halte doch mal einfach den Ball flach - gegen Dude verlierst du sowieso was Fachwissen angeht :wall:

Okay, wenn man den Umbau auf die skalare Rechenarchitektur, das hierarchische Cache-System, den unified L2-Cache etc. ignoriert, dass ist Slow Island keine Fermi (GF100) kopie.
 
Rofl du bist echt witzig... also hat nVidia ja von AMD kopiert das sie jetzt Shader = Baseclock laufen lassen hm :stupid:

Junge Junge :lol:
 
Rofl du bist echt witzig... also hat nVidia ja von AMD kopiert das sie jetzt Shader = Baseclock laufen lassen hm :stupid:

Junge Junge :lol:

Hm:
nVidia -> AMD -> nVidia ... Oh...

Soetwas nennt man "Back to the roots". Aber du kannst mir gerne die AMD Architektur zeigen, die eine skalare Rechenarchitektur besaß und vor G80 rauskam.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh