nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn das wirklich stimmt, dann bin ich offiziell schockiert XD
 
ht4u hatte damals auch keine GK104 von nVidia erhalten. Aber umso besser fiel deren Review aus, da die nicht unter Druck standen. Wenn ich da so an cb&co denke :hmm: Nicht das deren Arbeit schlecht wäre, aber die gehen mir nie Tief genug in die Materie. Benchmarkbalken sind für mich schon seit ein paar Jahren kein wichtiger Indikator mehr. Sonst hätte ich eine HD7970 GHE.

Am WE sperr ich für euch noch mal Augen und Ohren auf (falls es nix neues gibt) :) Stressige Woche bisher gehabt...
 
Außerdem will ich eine Titan und der Preis ist angesichts der Gewogenheit meiner Großeltern ziemlich wumpe. Meine Kumpels auf dem Schulhof werden mich dann wieder fragen, ob ich in die NVidida-Fraktion eintreten will (mit Veröffentlichung in der Schülerzeitung):fresse2:
Tja, so ist das wohl, wenn man das Geld nicht selbst verdienen muss... .:rolleyes:
 
Auf jeden Fall! :)

Hoffen wir mal, dass Oma und Opa das gewährleisten können.
Am besten, das Geld niemals direkt zur Verfügung stellen und die Hardware auf den eigenen Namen bestellen (wer zahlt, bestimmt ;)) !
 
Seit wann darf man nicht sagen, dass man die Karten testet? Weiß ich nichts von. Nichts zur Grafikkarte sagen ist aufgrund des NDA klar.

Wenn du die Karte testest und sagst, das du die Karte testest, dann sagst du auch gleichsam was zur Karte... Somit geht das also nicht. ;)
Es wird laufen wie immer, nämlich das irgendwo irgendwelche Dinge bekannt werden und dann die ein oder andere Redaktion ggf. diese Sachen noch bestätigt. Vollends bescheid weis man erst nach NDA Fall.

Vor allem sind vorherige Leaks auch zum Teil gar nicht interessant. Ich erinnere noch an Karten, die mit weniger Takt oder teildeaktiviert zu den Redaktionen gingen. Oder an Treiber, die die Leistung nicht entfaltet haben...
Was bringen uns falsche Infos?
 
1. März wird wohl nicht stimmen und 140% wäre schwach. Mit diesem 730er Takt wärs aber auch kein Wunder. Hoffentlich erneut en brutalo Fake!
 
Naja...die Angaben entsprechen GENAU denen des K20X!
Also denke ich im Consumer-Bereich werden die wohl Richtung 900MHz und 1000MHz boost gehen!
 
Die Tabelle ist Unsinn. GK114 soll bis auf den Quadratmillimeter genau so groß sein wie GK104? Und eine TDP von 250W haben, aber GK110 hat 15W weniger? Mit 30% mehr Rechenleistung und 50% mehr Bandbreite soll die GTX780 nur 20% schneller sein als die GTX680? Und Die 780 Ti trotz kaum mehr Rechenleistung und klar weniger Bandbreite schneller? Usw. usf.
 
An die Fachmänner hier wird eine einzige Titan die Auflösung schaffen: 5760x1200 BF3 alles auf Ultra und 60fps :)
 
AMD will wohl Treiberbedingt optimieren und kann derzeit mit GTX 680 und Co sehr gut mithalten, teils gar deutlich.
Somit sind sie für den Verkauf mit dem Spielebundle bestens aufgestellt.
Der Titan wird seine Käufer finden,- sicherlich ,- nur für den Preis weitaus weniger als NV lieb sein kann.

Somit werden die Karten wohl doch erst zu Jahresende Neu gemischt, ausser dem Titan welche das NonPlus Ultra darstellt.
 
An die Fachmänner hier wird eine einzige Titan die Auflösung schaffen: 5760x1200 BF3 alles auf Ultra und 60fps :)

Lässt sich wohl erst sagen wenn echte test vorliegen und die karte auch wirklich im verkauf landet.
Bei diesen setting wird wohl auch die neue Generation ziemlich was zu tun haben. Ob da noch 60fps drin sind muss man abwarten.
 
An die Fachmänner hier wird eine einzige Titan die Auflösung schaffen: 5760x1200 BF3 alles auf Ultra und 60fps :)

Ganz klar nein !!! -> SLI muss her

---------- Post added at 11:47 ---------- Previous post was at 11:46 ----------

AMD will wohl Treiberbedingt optimieren und kann derzeit mit GTX 680 und Co sehr gut mithalten, teils gar deutlich.
Somit sind sie für den Verkauf mit dem Spielebundle bestens aufgestellt.
Der Titan wird seine Käufer finden,- sicherlich ,- nur für den Preis weitaus weniger als NV lieb sein kann.

Somit werden die Karten wohl doch erst zu Jahresende Neu gemischt, ausser dem Titan welche das NonPlus Ultra darstellt.

Sagte ich doch die ganze Zeit. Die Preis werden niedriger, der Leistung angepasst. Der Preis der GTX690 bleibt hoch, wird eher zulegen
 
Hätte ja sein können, weil hier viel geschrieben wird das die Titan schneller als eine GTX690 sein soll, aber wahrscheinlich mit ner Auflösung die unter der ist was meine wäre.

Zur Zeit ne GTX 275 & GT520 damit ich drei Monitore Betreiben kann, für Erweitertes Desktop
 
Die Tabelle kommt der Realität verdammt nahe. Gut gemacht.

eigentlich nicht...
Wo sollen denn bitte 1920 ALUs und ein 384Bit SI in die selbe Größe und Transistoranzahl passen, wie es heute GK104 zeigt?
Auch macht wie schon angesprochen die TDP Einstufung wenig Sinn. Vor allem die GK110 mit 235W vs. 250W des gezeigten GK114!? Und dann noch 250W für alle GK114 Karten, obwohl die 760TI ner 680er mit weniger Takt entspricht, die heute schon nur 195W Einstufung hat -> schmarn.
Ebenso sind poplige 2,5% mehr ALU Rechenleistung für so nen riesen Chip? Für was?
Hätte man nen GK114, der genau so ausschaut, braucht man keinen GK110, der nicht schneller ist, weniger Bandbreite hat usw.

PS: die Pixelfüllraten ergeben sogar rechnerisch schon keinen Sinn.
Wenn bei ner 760Ti 32ROPs bei 925MHz 29,6GPixel/s ergeben, dann können nicht 925MHz und 48ROPs der 770er "nur" 33,3GPixel/s ergeben. Sondern müssten 44,4GPixel/s sein.
33,3GPixel/s wären entweder 32ROPs bei 1040,xMHz oder 48ROPs bei 693,75MHz.

Im übrigen dürfte die Stafflung des SI viel eher Sinn ergeben, wenn man anstatt 384Bit eben 320Bit nimmt. Und den VRAM auf 2,5GB erhöht. Was dann 40ROPs entspricht.
Aber selbst 40ROPs wären bei 925MHz schon 37GPixel/s... Und somit über den Angaben der Tabelle.

Summa Sumarum, eher Fake als Wahrheit. ;)
 
Ich glaub langsam, unser aeugle weiß gar nichts und wollte uns veraeugeln. Nix für ungut, aber das ist mein Eindruck.
 
Das sagte ich ja von Anfang an ;)
Wer dediziert Infos hat, der prahlt damit nicht rum. -> meine Meinung. Da er aber prahlt, Dinge zu wissen, liegt für mich die Vermutung nahe, das er wenn überhaupt genau so viel weis, wie die Masse hier ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh