nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
mhm glaube der hat zuviel drogen genommen. Dann passiert sowas schonmal.

Aber davon ab, wenn mich so grüne männchen entführen würden( die sehr wahrscheinlich wie wir aussehen würden), würde ich erstmal gucken was die für ne technik haben. Ich meine nen Grafikchip mit der Leistung von 1000X GTX 780 wäre schon was feines. Dann muss man die noch überzeugen so eine zu bekommen und dann ist das aufrüsten eh erstmal für ne Zeit vorbei. Hoffentlich haben die auch x86 und die Hardware muss mit Windows Kompatibel sein oder unsere Spiele mit ihrem System. Obwohl die hätten bestimmt auch etwas bessere Spiele :d. Mhm vielleicht sitzen wir ja schon alle bei denen und Spielen unser Spiel des Lebens(ala Matrix) ;). Muss sagen die Grafik ist echt gut :).



BTT: Hoffe ja das der GK114 wenn er der ablöser der GTX 680 wird, dann auch ordentlich was mehr leistet. Den GPGPU Kram brauchen wir zocker ja eh nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wtf^^ .. kann mal einer durchwischen !!?? :shake:

richtig Brasillion, nur ist der Part gefühlt das Quännchen Mehrleistung welches abfällt für vollkommene Zufriedenheit ? :fresse:
384er SI und 3GB klingt vernünftig und nicht überteuert. Außerdem ausreichend vs Konkurrenz anstatt mit 512er SI und 4GB zu überflügeln und die Gewinnspanne zu reduzieren.
Ich bin nichtmal sicher ob nächstes Jahr ein 512er SI kommen wird. Vor geraumer Zeit haben manche sogar für Kepler spekuliert ob es schon ein 512er SI haben wird
 
Vor geraumer Zeit haben manche sogar für Kepler spekuliert ob es schon ein 512er SI haben wird

Und hatten damit auch vollkommen recht ;)
Ich sag mal so, vor geraumer Zeit wurde auch noch spekuliert, dass das Topmodell der 600er Reihe auf GK100 basiert. Dieser wurde wohl gestrichen und taucht jetzt als GK110 in Form der Tesla/Quadro Ableger auf. -> mit 512Bit SI, exakt so, wie spekuliert nur eben aktuell nicht mit einem Gamer Ableger verfügbar.

Vor allem gibt es Rückblickend wiederum alles Sinn. Vor GK104 ala GTX 680 Release spekulierte man, dass es vorerst keine "dicke" GPU im Gamermarkt geben wird -> was zugetroffen ist und damals für einige Diskusion sorgte. Das war gegen Ende Q1/2012.
Des weiteren spekulierte man, das es den HighEnd Chip nicht vor Ende 2012 geben wird -> was wohl auch zutreffen wird, zumindest sieht aktuell nix danach aus, das es anders sein sollte. Ebenso Ende Q1/2012 behauptet.

Die Jungs dort scheinen zumindest in gewissen Sachen durchaus gut informiert gewesen zu sein. So eine Behauptung stellt man mal nicht so nebenbei einfach in den Raum. Vor allem, da NV in den letzten Jahren idR immer einen "fetten" HighEnd Chip gebracht hat (mit Ausnahme des G92 vllt, aber das war auch eher ein Refresh als eine ganz neue Generation)
Und wie oben schonmal erwähnt, das Ausbleiben von GK110 bzw. damals noch GK100 wollten so manche Leute nicht wahrhaben. Geht NV den Weg konsequent weiter, gibt es auch in Zukunft keinen GK110 Ableger im Gamerbereich.

Was aber interessant sein könnte, ggf. kann man über Treibermodding die Quadros zu Gamerkarten Modden. Im Grunde ist es ja das selbe. Nur fehlt scheinbar den Treibern jegliche Gameoptimierung usw.
Eigentlich muss da was möglich sein... Hat dahingehend jemand schonmal was probiert?
 
"gute" Treiberprogrammierer an die Front :hail: :d

wie sich das kristallisiert kann man also auch davon ausgehen mehr oder minder eine Refresh-Gen mit diversen "Optimierungen" zu bekommen.
Mal sehen wie lange die diesmal drauf rumkauen können :asthanos:
 
Die Frage ist dann aber eher, wie sehen die Optimierungen aus?
Mal so locker 30-40% mehr Ausführungseinheiten auf einem GK114 zu verbauen macht den Chip wiederum "fetter". Takttechnisch ist nach oben hin so extrem viel Luft auch nicht mehr.
Vllt gibts auch wirklich nur nen kleinen Sprung so um die 20-30%+ zur aktuellen GK104 Topkarte. Hier und da ein paar Optimierungen und das sollte mit nicht all zu viel mehr Ausführungseinheiten machbar sein.

Ich könnte mir aber auch vorstellen, das es ein paar Boardpartner gibt, ala Asus, welche dann wiederum sich nen GK110 schnappen und diesen eigenständig vermarkten. Zumindest entgegen NVs teils abgespeckten Dual GPUs gabs da ja schon die ein oder andere Selbstentwicklung. Warum nicht auch bei ner Single GPU?
Wobei das Treiberproblem halt bestehen bleibt :fresse:
 
kleiner Auszug aus ner nv Roadmap´12/13
Quelle: TechBlog

Fast zur gleichen Zeit erscheint die GK110, die aus zwei GK104 besteht – die Details bleiben gleich. Das Flagschiff von nVidia erscheint dann gegen Ende 2012 – eventuell auch erst irgendwann im ersten Quartal. Dabei handelt es sich um die GK112. Im Gegensatz zu den anderen GK-Modellen setzt nVidia hier auf ein 512bit Speicherinterface.

Frage ist nur inwiefern das über den haufen geworfen wurde.
Also kein Refresh dieses Jahr vs AMD und dann nur 2/3 der geplanten Menge als Upgrade um ihn als eine neue Gen zu verkaufen.
Wird man quasi wieder verarscht wie beim GK104 als Flaggschiff. Die Leute kaufen aber trotzdem. Was bleibt einem anderes übrig als Enduser. Für die Firma ein "well done Job". Nur der Enthusiast grummelt wiedermal. Diesmal nicht der Performance-Chip, sondern gar noch schlimmer. Alten Käse als Fondue mit ein paar Pilzen garniert um es neu zu verpacken für etwas besseren Geschmack.
Bei schlappen 25% werde ich mir wohl was überlegen müssen. Sollte es bei den 384 SI und 3 GB bleiben mit etwa 50% mehr an Leistung darf man ja zufrieden sein. Dann ist es für uns auch ein "well done" (auch wenn man im Hinterstübchen hat das man es billiger oder schon früher hätte haben können).
 
Hast du dazu nen Link?
Klingt irgendwie komisch. Schon allein die Aussage, besteht aus zwei GK104 und heist GK110... NV vergibt für Dual GPU Parts eigentlich keine eigenen Namen wie es AMD beispielsweise macht.
Das klingt nicht als würde das direkt von NV kommen.
Die Zahlen wirken auch etwas willkürlich gewählt. Denn GK110 ist kein doppelter GK104, das ist mal Fakt ;)
 
habe da wohl alten Quark gefunden.. was ja auch eigendlich Sinn war, aber eben fiktiver Müll :fresse2:.
Da gabs noch so ne Folie die 4Gamers abgelichtet hatte. Vergiss das also was ich gepostet habe^^
 
habe da wohl alten Quark gefunden.. was ja auch eigendlich Sinn war, aber eben fiktiver Müll :fresse2:.
Da gabs noch so ne Folie die 4Gamers abgelichtet hatte. Vergiss das also was ich gepostet habe^^

Alle mal besser als Entführungsgeschichtchen:)

Zumal die Fiktion zur 7er Reihe ja gerade neuen Schwung auf nimmt mit dem "modifizierten" GK104

Bin echt mal gespannt was für grüne Kaninchen Nvidia da aus dem Hut zaubern wird
 
Zuletzt bearbeitet:
Die Fiktionen diverser Seiten haben aber schon einiges mit Entführungsgeschichten von Ausserirdischen gemeinsam ;) Jeder hier sollte ja nun mittlerweile wissen dass nVidia auch gerne mal Gerüchte streut und das, neben uns Endusern, auch manche Journalisten gerne veräppelt werden.
 
Haben wir eine Glaskugel?

Aber mal ernsthaft, warum nicht. Da ist aktuell der trend, wäre blöd, wenn sie ne Stromschleuder bauen würden. Meine Meinung.
 
Wenn er nicht anders als GK104 Teile des Chips irgendwie ganz abschalten kann wird er wohl kaum die selben IDLE-Werte erreichen.
 
Wird KG110 ebenfalls über so gute Idle Stromsparmechanismen verfügen wie GK104 ?
Der Chip hat doch nur mehr Einheiten, ein breiteres Speicherinterface & mehr Speicher im vergleich zu GK104, warum sollte Nvidia jetzt plötzlich wieder umschwenken?
 
Der hat noch einiges mehr zu bieten als "nur mehr Einheiten, ein breiteres Speicherinterface & mehr Speicher". Man kann jedoch davon ausgehen, dass hier ebenfalls intelligente Energiesparmechanismen verbaut und eingesetzt werden. Da nVidia auch mal so was in der Art wie "Turbo kommt jetzt immer" sagte wird auch dieser Einzug erhalten - ziemlich sicher. Da wir hier jedoch von einem Highend-Chip reden wird dieser garantiert nich der sparsamste sein. Die Effizienz ist imo jedoch ausschlaggebend.
 
Sehr interessant finde ich die Spekulationen, dass AMD mit der 8900er Serie "nur" 15-30% Mehrleistung bringen soll.
Wenn dem so wäre, dann würde das (meiner Meinung nach) die letzten Gerüchte untermauern, dass die 780er nicht auf dem GK110 aufbaut. Warum? Weil es wohl schlicht und einfach nicht nötig wäre. Das ist etwa der Bereich, in dem man wohl auch den Refresh der 680er Serie ansiedeln würde...
 
Ich denke auch, das die 780er mit nem aufgebohrtem GK104 auf den Markt kommt.

Wir werden sehen!?
 
pff, für 15-20% mehr Leistung behalte ich die beiden 680er. Das lohnt sich dann wirklich nicht. Mehr SI und VRAM sind eben nicht alles.
Ein schickes neues Case und Waküupgrade sind auch nice. Dennoch wären mir 50% mehr GPU Power und mehr VRAM jetzt lieber.

Was AMD anbelangt klingt das aber nur wie ein Refresh und würde zu Release der NV Karten nochmal auftrumpfen ?
Anders gesehen hätte NV so die Chance AMD den Hammer zu geben. Das würde finanziell den Endkunden gut in die Karten spielen...
 
Es sei denn, man würde in der Konstellation noch zusätzlich den GK110 als Übermonster in die Schlacht werfen.
Also 8900 vs. 780 für je etwa 550,-€ , GK110 als "was auch immer" für >750,- Euro... wäre so nicht ganz von der Hand zu weisen, nach den 1000,- Mücken für eine 690... und der Tatsache, dass man dann nur wenige 110er für den Gamermarkt bereitstellen müßte.
Aber wenn ich zwei 680er hätte, würde ich die auch behalten, ich würde jedoch die 4GB Version vorziehen ;)
 
Zuletzt bearbeitet:
wenn überhaupt würde eine 685 erscheinen mit ~15% mehr Leistung und 2-3 Monate später dann die next Gen.
Gedacht dann so anfang Februar und im Mai die Dicke mit Paperlaunch im April als Osterei.
 
wenn man das mal richtig betrachtet spricht vieles für nen gk114. weniger kosten usw. Dann noch das komischerweise das Übertakten bei der 6xx serie durch spannung limitiert ist, ausser man will hart eingreifen. EVGA darf noch nichtmal den bot raus bringen. Also wird GK114 auf jeden Fall mehr takt haben. Wir wissen ja alle was für nen potenzial in dem GK104 steckt. Nur wenn wir das jetzt schon richtig nutzen könnten, dann gäbe es keinen Grund sich GK114 zu kaufen ;).

Das ist meine Meinung dazu. Nur was wenn der Plan von NV schief geht und die 8xxx Serie von AMD deutlich schneller ist? Aber das kann nicht wirklich einer von uns einschätzen,da wir noch keine Fakten kennen,ausser den Gerüchten.
 
Wenn Nvidia GK110 nicht für Desktop bringt und wieder mit einem Chip rumdümpelt, der an Bandbreite verhungert, seh ich mich mal bei den Roten um. Katze, lies das! :d
 
Aber rein über den professionellen Markt können sie GK110 nicht finanzieren. Es muss quasi als Gamerchip kommen um rentabel zu sein.
 
GK110 ist doch schon finanziert. Es geht hierbei um die Architektur an sich und nie um einzelne Chip-Designs. Deswegen hat BigK auch die ganzen TMUs, SP-Einheiten, Geometriepipelines und Rasterizer. Und deswegen wird der Chip auch als Geforce und Quadro rauskommen, da der Anteil der Fläche, der sich rein um Grafik kümmert, nimmt einen Großteil ein. Wäre also eine komplette Verschwendung von Fläche, wenn man den Chip nur für Tesla nehmen würde.
 
GK110 ist doch schon finanziert. Es geht hierbei um die Architektur an sich und nie um einzelne Chip-Designs. Deswegen hat BigK auch die ganzen TMUs, SP-Einheiten, Geometriepipelines und Rasterizer. Und deswegen wird der Chip auch als Geforce und Quadro rauskommen, da der Anteil der Fläche, der sich rein um Grafik kümmert, nimmt einen Großteil ein. Wäre also eine komplette Verschwendung von Fläche, wenn man den Chip nur für Tesla nehmen würde.
Exakt!
 
Die ersten K20-Listungen lassen nichts Gutes erahnen. Nur 13 SMX@700 MHz und 320-bit. Hoffen wir mal, dass da noch eine größere Version kommt und es einfach zwei Varianten gibt. Wäre das die einzige, könnte man sich einen GTX780 Launch mit 14 SMX@850 MHz im Frühjahr an die Backe schmieren. Andererseits wäre es aber eben auch möglich, dass es eine kleine und eine große Tesla geben wird.
 
Die ersten K20-Listungen lassen nichts Gutes erahnen. Nur 13 SMX@700 MHz und 320-bit. Hoffen wir mal, dass da noch eine größere Version kommt und es einfach zwei Varianten gibt. Wäre das die einzige, könnte man sich einen GTX780 Launch mit 14 SMX@850 MHz im Frühjahr an die Backe schmieren. Andererseits wäre es aber eben auch möglich, dass es eine kleine und eine große Tesla geben wird.

M2070 hatte 448SP bei 515(1030)MHz, die GTX480 lag bei 480SP und 700(1400)MHz => 30% schneller ist die GTX480.

Die M2090 kam 7 Monate nach der GTX580 auf den Markt und war 15% langsamer. Diese (angeblichen) Specs sagen überhaupt nichts aus, mit was das Geforce-Produkt kommt.
 
Ich hab jetzt schon von zwei Quellen gelesen, die K20 auf 14 SMX@750 MHz schätzen. Das hier ist dann halt ein gutes Stück weniger. Warum werden die Teslas überhaupt so beschnitten? Wenn man mit 13 SMX@700 bei 225W TDP wäre, wäre das nicht so gut. Man muss ja auch bedenken, dass GK110 ganz frisch vom Band läuft. Man verkauft sinnvollerweise die Variante, die die besten Yields bei trotzdem vernünftiger Performance hat. Daraus könnte man ableiten, dass Nvidia keine 14 bzw. 15 SMX-Variante aktuell herstellen lassen kann.
 
Macht Sinn - es gab auch nie eine GTX480 mit 15SM...

Man verkauft das, was man in Massen schnell und vorallem abgesichert liefern kann. Da die Produktion erst jetzt anläuft, kann nVidia keine Chips binnen, die wesentlich besser sind. Es heißt überhaupt nichts für das Geforce-Produkt.
 
Wenn man heise.de glauben darf, dann kommt der K20 mit 13 SMX-Clustern mit jeweils 192 Rechenkernen (2496 Stück) und 705MHz bei 225W...
Zwar heißt es in der News, dass es zwei Versionen geben soll, aber nicht zwei Ausführungen.
Bei der Stromaufnahme ist es eher unwahrscheinlich, dass wir einen Vollausbau sehen werden... bzw. keinen mit einem Chiptakt >800MHz
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh