nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Gerade veröffentlicht auf PCGH

Auf einem Bild bei PCInlife sind zwei neue SKUs zu Nvidias GK106 aufgetaucht. Die sogenannten "Stock Keeping Units" kennzeichnen immer die genaue Zugehörigkeit einer GPU zu einem spezifischen Produkt. Während von zwei SKU-Nummern bereits zwei zugeordnet werden können, ist die Zuordnung der zwei neuen Nummern noch nicht möglich. Nach Vermutungen könnte es sich um eine GTX 655 oder eine GTX 650 Ti handeln.

Laut der Grafik ist bisher lediglich bekannt, dass beide Versionen, GK106-250 und GK106-200, über zwei Gigabyte GDDR5-Speicher verfügen werden und der GK106-250 über ein 192-Bit-Speicherinterface verfügt, während der GK106-200 ein 128-Bit-Interface hat. Die GK106-400 kann derzeit eindeutig der Geforce GTX 660 zugeordnet werden, während der GK106-875 in einer professionellen Variante der Quadro-Serie Verwendung finden. Ob die beiden Varianten tatsächlich in einer Geforce GTX 655 und GTX 650 Ti ihren Platz finden, bleibt allerdings lediglich eine Spekulation.


Ist zwar nicht High-End aber immerhin gibts was neues :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich frage mich nur in welche Richtung da die Verbesserungen gehen sollen.

Die SMX dürften bei den reinen Desktopchips wohl keine nennenswerte Überarbeitung erfahren, evtl Detailverbesserungen oder Handdesign um ein paar Transistoren zu sparen. Caches usw aufzustocken, was vielleicht auch ein paar Prozent bei Alltagsanwendungen wie Spielen etc bringt werden wohl kaum kommen. Evtl werden die Chips einfach ein bisschen größer als bisher um die Spanne bis zu einem beschnittenen GK110 etwas kleiner werden zu lassen.
 
Lange kann es ja wohl auch nicht mehr dauern, ich bin schon gespannt was da kommt im Prinzip wirds aber so ablaufen wie du schon gesagt hast.
 
Von GK110 erfahren wir wohl erst auf der SC2012 in Salt Lake City was neues. Im Oktober bekommen ein paar early access, das wars erst mal. Bis dahin werden immer und immer wieder die selben slices durchgekaut :d
 
Naja, im Prizip sind ja auch fast alle Infos schon frei zugänglich. Takt und Anzahl der SMX für die Geforce wird man eh erst Anfang 2013 erfahren.

Soll auf der SC2012 offiziel Release sein?
 
Nein. Jedenfalls ist nichts bekannt. Es wird ein paar workshops und keynotes bzgl. GPGPU geben an deren Rand K20 eine Rolle spielt. Ich zapf aber noch mal n paar Quellen in Kanada an =) Wenn es was gibt, dann wohl sowas wie Anzahl der Cluster und vllt. konkrete Flop-Angaben.
Momentan ists relativ still. Dafür bewegt sich gerade das Mobilsegmenz umso mehr. Tegra 3 @28nm steht noch aus ^^
 
900 MHZ wäre schon nicht schlecht für so eine grosse GPU.
 
Jo verstehe schon durch 3GB weniger für den Desktop könnte auch noch ein bissel mehr kapazität bei 250W frei werden.
Ja mal schauen was am Ende auf dem Papier stehen bleibt.
 
Zuletzt bearbeitet:
Naja, 3GB wären auch erstmal nicht schlecht und würden wohl erstmal reichen. Wenn die 6GB version (die wohl sicherlich auch kommen wird) kaum teurer wird:fresse: wirds wohl so eine xD (obwohl es eigentlich unnötig wäre^^)
 
900 MHz trotz allen 15 aktiven SMX? Schwer zu glauben. Vielleicht 300W TDP?

Edit:
AnarchX aus dem 3DC hat angemerkt, dass K20 keine 15 SMX bekommt, eher 13 oder 14. Steht im K20 Whitepaper.
 
Zuletzt bearbeitet:
vllt wird GK110 doch effizienter als GK104, trotz mehr Shader und GPGPU-zeug? (Die 28nm Fertigung bleibt ja nicht stehen...)

Stimmt... 13/14 SMX passen wesentlich besser zu den 250 Watt...
 
Zuletzt bearbeitet:
Jup, das K20 keinen vollen GK110 bekommt hat NV schon am Anfang bekannt gegeben.


900 MHz für die Tesla wäre aber schon ziemlich krass. Allerdings ist es auch nicht unmöglich das die Geforce mit weniger SMX kommt.
 
Allerdings ist es auch nicht unmöglich das die Geforce mit weniger SMX kommt.

Du meinst also, wieder ein Update, wie bei der GTX 580 zu haben? Könnte sein. Allerdings spricht der Name GK110 für mich dagegen. Diesesmal hat nvidia vllt auch nicht solche probleme mit dem High-End Chip.
 
egal, solange das teil so 2013 als gtx780 kommt

sieht ganz gut aus :)
 
Du meinst also, wieder ein Update, wie bei der GTX 580 zu haben? Könnte sein. Allerdings spricht der Name GK110 für mich dagegen. Diesesmal hat nvidia vllt auch nicht solche probleme mit dem High-End Chip.

denke auch nicht das der beschnitten kommt, evtl haben sie sich auch komplett gegen den release entschieden weil dieses jahr noch wieder ein GTX 480 desaster geworden wäre und so haben sie sich glecih auf den gk 110 konzentriert
 
Du meinst also, wieder ein Update, wie bei der GTX 580 zu haben? Könnte sein. Allerdings spricht der Name GK110 für mich dagegen. Diesesmal hat nvidia vllt auch nicht solche probleme mit dem High-End Chip.

denke auch nicht das der beschnitten kommt, evtl haben sie sich auch komplett gegen den release entschieden weil dieses jahr noch wieder ein GTX 480 desaster geworden wäre und so haben sie sich glecih auf den gk 110 konzentriert

Der GK110 der in der Tesla eingesetzt wird, wird auf jeden Fall beschnitten und ich bezweifen das es bei der Geforce groß anders sein wird. Außerdem, was macht man dann die 1-1,5 Jahre bis Maxwell?

Entscheident wird hier nicht sein was man bringen kann, sondern was AMD bringt und wie man reagieren muss. Ein deaktivierbares SMX dürfte die Yields ordentlich steigen lassen und man kann die Zeit bis Maxwell überbrücken und eine evtl. schnellere AMD bis dahin kontern.
 
bezweifle ich, warum nur grad so schneller sein mit beschnittenen einheiten wenn man amd deklassieren könnte und noch mehr geld verlangen kann (als beispiel)
 
Bei AMD ist doch aktuell nichtmal in der Gerüchteküche was im Busch!?

Ich denke mal nicht, das da vor 20/22nm was groß schnelleres kommen wird. AMD hat ihr Pulver meine ich schon verschossen. Eben mit der GHz Edition der HD7970... Man liegt damit auf 680GTX Niveau und macht den seitens NV erkauften Vorsprung durch den doch überraschend hohen Takt (mitunter auch durch den quasi immer anliegenden Turbo) wieder wett...
Eventuell sehen wir aber noch nen Refresh ala HD4890 oder HD6970 mit etwas mehr Performance, wo auch immer man die dann herholen mag. Gänzlich ne Steigerung, wie man sie von nem GK110 aktuell erwartet, glaube ich derzeit nicht, das das was wird.

Clevererweise könnte NV natürlich wiederum stark die Konservativ Schiene fahren und GK110 nur so schnell wie nötig machen. Im Moment ist man im HighEnd Bereich ja so nicht unbedingt im Zugzwang ;)
Sprich ich könnte mir gar ne GK110 mit ~250W TDP vorstellen. Gemessen am GK104 mit seinen ~180/195W (Spiele/Furmark) verbrauch wären das immerhin ~38/28% mehr Zuwachs. Ausgehend von ca. gleicher Effizienz pro Energieeinsatz (was schon sportlich wäre) wäre der Vorsprung zur GTX 680 immernoch stattlich. Man würde aber wiederum seinerseits der 690er keine Konkurenz machen und könnte bequem mit den Preisen spielen. Und ausgehend vom GF110 Vorgänger wäre man immernoch über dem Durchschnitt an Leistungssteigerung im HighEnd Bereich.

50%+ mehr Leistung halte ich nach wie vor für deutlich übertrieben... Auch wenn das sicher wieder einige nicht hören wollen :fresse:
Und ich gehe sogar soweit, das ich sage, der prozentuale Mehrgewinn pro Shadereinheit bzw. pro Shadercluster (SMX) nimmt mit stiegender Anzahl immer weiter ab. Also ob da nun volle 15 SMX oder nur 14 aktiv sind, wird wohl den Kohl nicht fett machen. Könnte aber der Ausbeute deutlich in die Karten spielen ;) analog dazu siehe GTX 670 vs. 680 bei gleichem Takt. CB bescheinigt ~9% mehr Leistung für die 680er bei 14% mehr ALUs. Zwischen 14 und 15 SMX wären es 7% mehr ALUs. Im Dreisatz gerechnet also ~4% mehr Leistung ohne Abzug der sinkenden Effizienz! Das ist gar nix und lässt sich bei den K20 Taktraten bequem durch den Takt regeln.

bezweifle ich, warum nur grad so schneller sein mit beschnittenen einheiten wenn man amd deklassieren könnte und noch mehr geld verlangen kann (als beispiel)

Weil dann niemand mehr das Geld bezahlt!?
Bist du bereit 750€+ (geschätzt) auszugeben, nur weil die Karte anstatt sagen wir ~20-30% eben sagen wir 50%+ schneller als die Konkurenz wäre?
Das machen vllt ein paar ganz wenige, aber mit dehnen verdient man kein Geld. Den Status der schnellsten Karte hat man so oder so inne. Sei es durch die 690er oder eben durch den kommenden GK110.

Und schaut man sich das ganze mal aktuell an. In Sachen Beliebtheit dürfte eine 660TI oder 670er weit höher liegen als eine 500€ 680er respektive 1000€ 690er ;)
Das läuft viel eher getreu dem Motto, so wenig wie möglich aber so viel wie nötig. Noch dazu legt man sich sonst noch selbst die Latte zu hoch an für die nächste Generation, welche wiederum geschätzt Anfang/Mitte 2014 auf dem Plan stehen dürfte. Was ausgehend von Q1-Q2 2013 dann noch ein Jahr wäre.
 
Zuletzt bearbeitet:
fdsonne du machst nen fehler, wir reden hier nicht vom midrange segment, sondern big kepler der wohl 600 ocken kosten wird, und ja ich lgaube wer 600 euro fürne graka ausgibt, gibt auch 750 aus wenn er dafür noch mehr power bekommt

wir reden hier vom enthusiasten segment, der high end clientel, nicht den pappnasen die überlegen ob sie nicht doch die HD 7850 der GTX 660ti vorziehen weil sie 40 euro sparen können...
 
Zuletzt bearbeitet:
ich nicht, ich kaufe mir ne high end karte und behalte die ca 2 jahre (GTX 580 direkt bei release gekauft und warte nun auf kepler) bzw solange bis was kommt das min 80% schneller ist. Sehs einfach nicht ein für kaum mehrleistung dann wieder geld rauszuwerfen
 
fdsonne du machst nen fehler, wir reden hier nicht vom midrange segment, sondern big kepler der wohl 600 ocken kosten wird, und ja ich lgaube wer 600 euro fürne graka ausgibt, gibt auch 750 aus wenn er dafür noch mehr power bekommt

wir reden hier vom enthusiasten segment, der high end clientel, nicht den pappnasen die überlegen ob sie nicht doch die HD 7850 der GTX 660ti vorziehen weil sie 40 euro sparen können...

Wenn das so strikt wäre, müssten die 680er weggehen wie warme Sämmeln. Gleiches gilt für die 690er. Das ist aber bei weitem nicht so. Die 670er trifft da schon eher den Geschack... Einfach weil ~10% weniger Leistung bei über 20% weniger Geldeinsatz deutlich mehr im Rahmen liegen. In einigen Shops kostet die 680er genau so viel wie zu Release (meine Zotacs 680er kosten bei Alternate, wo ich kaufte, nach wie vor 499€)
Es gibt scheinbar nichtmal die Ambitionen der Händler sich hier gegenseitig im Preiskampf zu unterbieten um Kunden zu fangen... Wohl weil keine Nachfrage vorhanden ;)

Und wie gesagt, HighEnd Käufer sind keines wegs nur die, welche absolut nicht aufs Geld schauen. Auch wenn die Masse derer, die zumindest immernoch etwas auf P/L Wert legen mit steigendem Preis immer kleiner wird, zählt am Ende immernoch die gebotene Leistung für das Geld. Und bekanntermaßen sackt das P/L Verhältnis immer tiefer, um so höher man in der Preisskala kommt ;)

Mich wundert aber nach wie vor, das es sich so hält. Schaut man sich mal in Sachen CPUs, RAM, Boards usw. um, so bekommt man für das, was früher mal Mainstream war, heute so viel Performance, das man dicke zwei drei Jahre hinkommt. Im GPU Bereich steigen die Preise aber seit RV770/G200(b) immer weiter an. Ich denke nicht, das sich das so ewig weiter führen lässt. ;)

@fd du bist schlecht informiert ;)

Eine erste Prognose zu "Sea Islands" aka AMDs Radeon HD 8000 Serie | 3DCenter.org alles natürlich auch Spekus, aber wohl machbar. Die Codenamen im Treiber sind aber Fakt.

@GA-Thrawn, wer 600 Öcken für ne Grafikakrte ausgibt macht das nen 3/4 Jahr später auch wieder ;)

Mhh OK, das muss mir entfallen sein :fresse:
Wobei mir der letzte Satz da nicht so recht zusagt. Denn das dort geschriebene basiert ja dann scheinbar rein auf Schätzungen... Nichtmal ansatzweise auf irgendwelchen Gerüchten bzw. Newsfetzen oder ähnlichem.
Mit den Daten selbst macht es auch den Eindruck, als wäre das oben benannter etwas aufgebohrter Tahiti XT (analog HD4890 oder HD6970)... Macht mir damit nicht den Eindruck, als würde man GK110 die Show stehlen können. Und wenn AMD wieder früher dran ist, bleibt NV ebenso die Zeit zum "optimieren"...
 
Gerade bei Compute hat Nvidia ordentlich aufzuholen. Es gibt schon ein paar Titel, in denen Tahiti 30% schneller ist als GK104. Da braucht es schon die 50% für Nvidia, um wirklich überall klar vorne zu liegen.
 
GK104 ist aber in meinen Augen auch nicht darauf ausgelegt ;)
Die DP Performance im Vergleich zur SP Performance scheint auch etwas "mager" :fresse: Das konnte GF110 schon mal besser. Und GK110 wird da denke ich ansetzen...

Ich bin halt gespannt, was NV für Kompromisse eingeht. Volle 15 SMX bei Taktraten von ~900-1000MHz werden es denke ich nicht werden. Das lässt sich wohl nicht in 300W reindrücken. Aber mit 13, vllt 14 SMX und ~900MHz drüfte man denke ich reale ~250W Verbrauch hinbekommen. Das sollte bei ähnlicher Skalierung in ~40%+ zur 680er resultieren. Eventuell hier und da etwas mehr. -> und wäre in meinen Augen schon ziemlich ordentlich.

Wie schauts eigentlich mit dem Turbo aus? Gibts da neuere Infos, das der wieder bei sein wird?
Ich meine irgendwo mal was vernommen zu haben, wo man sagte, den wirds nicht geben, aber das war meine ich auf die Tesla Karten bezogen...
 
Zuletzt bearbeitet:
Den Turbo werden wir ganz sicher nie mehr los.
Ich könnte mir vorstellen, dass GK110 in Härtefällen (Bandbreitenknappheit + Computeschwäche) etwa doppelt so schnell wie GK104 werden könnte.
 
Ansich find ich den Turbo ja nicht unbedingt verkehrt. Unsinnig wird es in meinen Augen nur dann, wenn man massiv niedrige Basistaktraten ansetzt und den Turbo aufreißt. (analog der 670er) wo dann teilweise 925MHz Basis vs. 1,2GHz Turbo stehen. Klar für den Kunden gut, aber dann hätte man auch gleich den hohen Takt fahren können, da der Turbo so eh fast immer anliegt :fresse:
Und runterdrücken des Taktes bei zu wenig Last funkt ja nebenher immernoch.

Ich hätte mir da eher etwas mehr Sensibilität des Turbos gewünscht... Mit meinen 680er hab ich idR wirklich gerade Taktlinien, selbst ohne minimale Aussetzer nach unten. Obwohl die Auslastung teils gut schwankt. Da gibts noch einiges an Optimierungsspielraum ;)

Eventuell war aber der aktuelle Turbo bei GK104 nur Mittel zum Zweck? Sprich um GK104 die letzten Prozente zu entlocken?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh