nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
NV stellt sich mit dem hochtaktenden GK104 in meinen Augen selbst Steine in den Weg. Wohl auch ein Grund, warum GK110 erst später kommt... Somit bleibt mehr Luft zum optimieren.

Das war aber auch schon beim GF104/114 so, den konnte man ja auch leicht höher takten als den GF100/110 und konnte so zumindest die GTX470/560TI-448 leicht überholen. Eigtl. war das auch beim G92 als 8800GT so, der war ja auch trotz weniger an allem knapp an der 8800GTX dran und deutlich schneller als die 8800GTS 640.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das war aber auch schon beim GF104/114 so, den konnte man ja auch leicht höher takten als den GF100/110 und konnte so zumindest die GTX470/560TI-448 leicht überholen. Eigtl. war das auch beim G92 als 8800GT so, der war ja auch trotz weniger an allem knapp an der 8800GTX dran und deutlich schneller als die 8800GTS 640.

Nur war bei bis dato allen anderen Karten vorher eben HighEnd zuerst am Markt. Mittelklasse/Performance dafür aber teils deutlich später.
Ein deutlich später erscheinender GK110 mit nur unwesentlich mehr Performance ist eine Entäuschung sondersgleichen ;)

Und genau an der Stelle macht es sich NV selbst schwer. GK104 mit weniger Takt hätte mehr Luft nach oben geboten für den GK110. Da aber GK104 offensichtlich mit mehr Takt gekommen ist, als ursprünglich mal geplant war (nämlich 900-950MHz), was inkl. Turbobetrachtung durchaus 10-15% sind, rückt GK110 immer näher. Es ist wie seit wenigen Generationen schon nicht das technisch machbare die Grenze, sondern viel eher die Leistungsaufnahme. Bei maximal spezifizierten 50%+ vom GK104 ausgehend bleiben eben auch nur 50% Luft. Oder aber, man steigert die Effizienz dazu noch... Was ich persönlich für unwarscheinlich halte, weil eben HighEnd nie effizienter war, als Performanceklasse.
 
Man kann aber beim GK110 die Effizienz gegenüber dem GK104 evtl. noch steigern durch Optimierung am Chip und an der Fertigung, so dass der Taktratennachteil nicht so stark ausfällt (wegzaubern kann man ihn nicht). Ich denke daher nicht dass der GK110 durch die Kühlung soviel mehr gegenüber dem GK104 benachteiligt wird, als der GF110 gegenüber dem GF114.
Aber deshalb ja auch die andere Aufteilung der SMX: So holt man überdurchschnittlich mehr Shadingpower raus, ohne dass die viel platzfordernderen TMUs unnütz im gleichen Maß mitwachsen. Das die Texturfüllrate nicht so wichtig ist, zeigt sich daran, dass die GF110-basierten Karten stets (deutlich) schneller sind als die GTX560Ti, auch wenn diese sogar mehr Texturfüllrate als die GTX580 hat (die GTX275, 280 und 285 haben übrigens auch mehr, tlw. schon die G92-Vollausbau Karten 8800GTS 512, 9800GTX+ und GTS250).
Außerdem hat der GK110 wie schon der GF100/110 viel mehr die CUDA-Performance im Blick als der GK104 und da sind Shader halt offenbar wichtiger.
 
Zuletzt bearbeitet:
Ailuros schrieb:
Und um es etwas deutlicher zu machen ich hab sogar Zweifel dass es 110 desktop noch dieses Jahr auf Regale schafft.

Hmm, nicht gerade positiv. Aber wie es scheint geht Tesla im Q3 erstmal vor.
 
Werden Spiele nicht immer shaderlastiger? TMUs sind wichtig, aber so wichtig, dass hier GF114 übermäßig auholen kann ggü. GF110 bzw. GK104 ggü. GK110? Glaub ich weniger. Ein, zwei Spiele aus einem Parcour von 10 (Zahlen frei erfunden)...selbst wenn, wie wichtig wäre sowas?
 
Jap, G200(b) und GF104/114 zeigen, das TMUs und und damit die Texturfüllrate nicht so ausschlaggebend sind, beide haben nämlich tlw. (deutlich) mehr als de GF100/110-basierten Karten.

Es ist also eher die Shaderleistung, die in modernen Games zähl, was auch ein Grund ist, warum Nvidia seit dem G80 das Verhältnis von ALUs zu TMUs immer weiter nach oben schraubt (natürlich muss die Texturfüllrate auch mithalten, der ursprüngliche G80 konnte z.B. nur halb so viele Texturen adressieren wie filtern, was mit dem G92 behoben wurde). ATI/AMD hat das auch schon früh gesehen und daher schon beim RV530/535, R580(+) und RV570 die Anzahl der ALUs pro Pixelpipeline von 1 auf 3 erhöht, weshalb sich entsprechende Karten wesentlich besser gehalten haben als die mit R520 oder G71.
Aus dem gleichen Grund hat man dann wohl auch bei Einführung der unified Shader auf die VLIW5-Architektur gesetzt mit gewaltiger theoretischer Shaderleistung, die allerdings selten effizient genutzt werden kann, weshalb AMD die theoretisch mögliche Shaderleistung in letzter Zeit eher zurückschraubt, um eine höhere effektive zu erreichen.
Und da sehe ich auch den Grund, warum der GF110 so viel schneller als der GF114 ist und es eine gute Strategie ist, beim Highend-chip vor allem die Anzahl der ALUs zu erhöhen, ohne die Zahl der TMUs unnötig mit in die Höhe zu treiben.
Immernoch sehr wichtig scheint aber auch die Pixelfüllrate zu sein: Darin sehe ich einen Grund, warum die HD7870 so nah an die HD7950 kommt bzw. warum die Barts-Modelle so nah an die Cypress-Modelle herankamen bei ungleich niedrigerer Shaderleistung und Texturfüllrate, während die HD5830 durch die Halbierung der ROPs im Übermaß beschnitten war.
 
What will be the "big" Kepler? ~ OBR-HARDWARE

Some tasty info ive got today. Its about a "big" Kepler chip based "Gaming" card. Info is not too detailed, but some little details are quite interesting. Launch month is ........ber! and is not December or November :) Chip is really big but smaller then GF110. Membus is 512-bit with 4GB od GDDR5. There are really lot of CUDAs :) with fair performance gain above GK104. Source are talking about 20-25 percents above GeForce GTX 680. It seems legit to me ... but will see
 
September oder Oktober, Nov und Dez schließt er ja aus...
 
20-25% wären ne ziemliche Lachnummer und hören sich nach:

Wenn man mal drüber nachdenkt das der nächste Prozess sogar bis 2014 auf sich warten lassen könnte, wäre es nichtmal abwegig das erstmal nen teildeaktivierter GK110 kommt (was positiver Weise gleich die Yields ordentlich erhöht), der vielleicht ~30% schneller ist wie GK104 und man dann nen halbes Jahr später nochmal nachlegt und einen Chip bringen kann der vielleicht noch hier und da optimiert wird und nochmal 15-20% drauf legt. Nen halbes Jahr später kann dann Maxwell kommen im neuen Prozess.

an...
 
Ich hab mir für momentan mal die Radeon 7870 geholt und wart nun auf den Big K, mal schaun ob der was wird ansonsten kann ich mir ja noch immer eine zweite 7870 holen.
 
Boa, ich hab so ein Bock auf die GK110 dafür würde ich meine GTX580 SLI auflösen.
Denke 1x 780er (denke so werden die GK110 heißen?!) GTX ist gleich SLI 580er :d zumindest erhoffe ich mir das :)
 
vom Spielegefühl der GTX680 wird halt behauptet das sie sich anfühlt wie ne GTX590, nur ohne MR. GK110 wird schon ne Ecke besser gehen, also kann man schon davon ausgehen.
 
7 Mrd. Transistoren für GK110?! xD

S0642 - Inside Kepler
Stephen Jones ( CUDA Developer, NVIDIA )
Lars Nyland ( Senior Architect, NVIDIA )

In this talk, individuals from the GPU architecture and CUDA software groups will dive into the features of the compute architecture for “Kepler” – NVIDIA’s new 7-billion transistor GPU. From the reorganized processing cores with new instructions and processing capabilities, to an improved memory system with faster atomic processing and low-overhead ECC, we will explore how the Kepler GPU achieves world leading performance and efficiency, and how it enables wholly new types of parallel problems to be solved.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9260218&postcount=296

Das wär schon extrem - dann würde ich sofort wieder zwei Karten zum Launch kaufen. :fresse:
 
Zuletzt bearbeitet:
klar sie springen von 3 Milliarden auf 7 Billion, ja ne is klar und die Karte macht in BF Ultra dann ihre 1200 FPS oder wie :d
Das wär ca genauso wenn Intel jetzt von 6 Core direkt auf 64 Cores springen würde, und alles dazwischen auslassen würde :wall:

Grüße
Sharie
 
Zuletzt bearbeitet:
Okay na dann :d
Dann könnte es aber auch die GTX 690 Dual sein, denn vom gk100 steht da nichts im Post und die 7 Milliarden wären realistisch...


Grüße
Sharie
 
Klingt gut :fresse:

Aber irgendwas um die 6-7Mrd. Transistoren muss es ja wohl werden. Sonst macht das Teil nicht wirklich viel her :fresse:
Es wäre halt ca. ne Verdopplung der Schaltungen. Ein großer Batzen davon wird sicher für Caches und anderes im GPGPU Bereich drauf gehen.
Spekulativ stehen doch immernoch GK104 * 1,5 im Raum!? Was die Ausführungseinheiten angeht!?
 
eigendlich ist ja nur wichtig was unterm Strich bei rum kommt für den Anwender. Wichtiger werden die Karten sicherlich für Bencher als für Zocker. Bei letzterem muß man eben für sich selbst abwägen ob die Leistung zur GTX680 groß genug für nen Umstieg sein wird.
 
Neja wie gesagt, um hinten ordentlich was rumzubringen muss unter der Decke auch ordentlich vorhanden sein. Die spekulierten +50% an Ausführungseinheiten klingen für mich da ziemlich "mager", auch wenn das meckern auf aller höchstem Niveau ist :fresse:
 
Es schwirren 3072CC, 192 TMUs, 64 ROPs und ein 512bit Interface durch den Raum. Bei der Transistorenzahl sollte das hinkommen. Das Ding sollte seine Leistung auch besser auf die Straße bringen. Doppelte GTX580 Performance bei 250W :d
Na Spass beiseite, das wird er nicht ganz schaffen. Auf 250W bezogen erwarte ich ca. 70-80%
 
Wie soll das gehen!?
Ausgehend von Kepler in Klein (GK104) mit ~200W bleiben bei 250W gerade mal 25% Spielraum. Wenn da 70-80% Mehrleistung rum kommen, wäre das Teil massiv effizienter als der kleine Bruder, welcher offensichtlich mehr auf den Desktopmarkt ausgerichtet ist ohne den ganzen GPGPU Balast. Und das ganz es bis dato noch nie, das absolutes HighEnd am Ende der Fahnenstange massiv effizienter war, als der kleine Bruder.
Zwar bleibt mehr Zeit zum optimieren, das ist dieses mal deutlich von Vorteil. Aber schaut man mal in die Vergangenheit, so zeigt sich dort, das selbst die Refreshs den Effizienznachteil der HighEnd Produkte nicht vollständig aufheben konnten. In meinen Augen absolut unwarscheinlich, das dies hier so wäre...

Ich spekuliere nach wie vor auf ca. 20-30% größer der 680er. In Extrem Settings vllt etwas mehr. Und selbst diese Steigerung wäre bei 25% mehr Leistungsaufnahme schon eine 1:1 Effizienzskalierung.

In GPGPU Anwendungen könnte das aber vllt hinkommen. Zumindest wenn die Ausführungseinheiten stimmen... Da ist auch Takt nicht primär so wichtig, wie meine Messungen von damals mir bestätigten.
 
Zuletzt bearbeitet:
Ich glaube GK104 ist nicht so effizient, wie er sein könnte. Der wurde ja hochgeprügelt, um gegen Tahiti zu bestehen. Vielleicht werden es auch 270 oder 280W, aber mehr sollte es nicht sein.
 
Sowohl AMD als auch NV kochen nur mit Wasser. Ich halte es für unwarscheinlich das einer der beiden da massiv effizientere GPUs bauen kann, als der andere, wo es doch in der Vergangenheit immer ähnliches Niveau war, zumindest wenn man gleiche Basis betrachtet.

GK104 arbeitet zumindest in Games effizienter als Tahiti, ist aber etwas ineffizienter als PitCairn. Die Kette setzt sich 1:1 zusammen, wenn man sich die Marktauslegung und die Transistoren bzw. die eigentliche Leistung anschaut.
Ein in dem Maß deutlich effizienterer Chip als GK110 wäre mit 6-7Mrd. Transistoren im Effizienzbereich von PitCairn als reines Desktop Produkt und mit gerade mal 1/3 der Transistoren und ohne viel GPGPU Balast. -> das halte ich für unwarscheinlich.
Und das die 7000er im Vergleich zu den Vorgängern ordentlich in Sachen Effizienz zugewonnen haben, ist ja nicht von der Hand zu weisen. Einen massiven Effizienzpatzer seitens AMD kann man hier denke ich bedenkenlos ausschließen. Bleiben also nur zwei Möglichkeiten, entweder ist der Spekulatius zu GK110 deutlich zu hoch angesetzt, oder aber, NV platziert ein echtes Effizienzmonster :fresse:
 
nur falsch ausgedrückt?
wenn hochgeprügelt das Falsche Wort wäre macht das Sinn. Ich glaube in GK104 steckt jede menge Potential an Takt, man kommt nur nicht dran. Vielleicht auch gut so, denn das würde die Effizienzsteigerung zu GK110 in Games nur schmälern. Wie es in sachen OC bestellt sein wird mit GK110 bleibt noch abzuwarten. Ich denke die werden auf das bestehende System mit aufbauen.
 
Sowohl AMD als auch NV kochen nur mit Wasser. Ich halte es für unwarscheinlich das einer der beiden da massiv effizientere GPUs bauen kann, als der andere, wo es doch in der Vergangenheit immer ähnliches Niveau war, zumindest wenn man gleiche Basis betrachtet.

GK104 arbeitet zumindest in Games effizienter als Tahiti, ist aber etwas ineffizienter als PitCairn. Die Kette setzt sich 1:1 zusammen, wenn man sich die Marktauslegung und die Transistoren bzw. die eigentliche Leistung anschaut.
Ein in dem Maß deutlich effizienterer Chip als GK110 wäre mit 6-7Mrd. Transistoren im Effizienzbereich von PitCairn als reines Desktop Produkt und mit gerade mal 1/3 der Transistoren und ohne viel GPGPU Balast. -> das halte ich für unwarscheinlich.
Und das die 7000er im Vergleich zu den Vorgängern ordentlich in Sachen Effizienz zugewonnen haben, ist ja nicht von der Hand zu weisen. Einen massiven Effizienzpatzer seitens AMD kann man hier denke ich bedenkenlos ausschließen. Bleiben also nur zwei Möglichkeiten, entweder ist der Spekulatius zu GK110 deutlich zu hoch angesetzt, oder aber, NV platziert ein echtes Effizienzmonster :fresse:

40% für 7000 vs 6000 bei der Effizienz ist zwar schön, aber so richtig deutlich ist das imo nicht. Liegt aber wohl auch am Binning und den hohen Spannungen.
Die Frage ist, ob AMD weitere Einheiten gut auslasten kann und ob sie endlich mal das Frontend verbessern - und wie sich das auf die Effizienz auswirkt.
Ggü. GF114 erreicht GK104 ca. eine 70% bessere Perf/W. Wenn man das auf GF110 -> GK110 ummünzen könnte, wäre das schon nice.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh