nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
@fdsonne: Keine Ahnung wie es mit DP-DVI Adaptern und 120 Hz aussieht. Nie getestet.

Zumindest bei Verwendung von passiven also quasi einfachen DP auf DVI Adaptern meldet sich der Monitor im DVI Modus an der Karte... Was wiederum dann keine Probleme machen sollte. Wobei ich das aber auch so noch nicht explizit getestet hatte.
Hatte mal ein Notebook mit DP Anschluss an der Docking. Welcher via passivem DP auf DVI Adapter als Desktoperweiterung genutzt wurde... Das ging schmerzfrei und absolut problemlos... (wobei der Monitor da keine 120Hz konnte)

Gerade beim Thema microruckler kann ich mir bei sli irgendwie nicht wirklich vorstellen das es förderlich ist wenn eine karte gerade bei 1050 taktet und die andere bei bei 1087 mhz ist wird ja viel berichtet von den schwankungen im sli.
Aber vieleicht irre ich mich ja da.
Teilweise sind sogar 50 mhz diferenz zwischen den Kernen erricht worden beim zocken.

Das macht keinen wirklichen Unterschied würde ich sagen... Ich hatte damals mal probeweise Taktunterschiede erzwungen. Selbst deutliche Unterschiede von 30 oder 40% verschieben halt einfach nur die GPU Auslastung. MR technisch ändert sich da aber nicht wirklich was. Zumindest nicht gefühlt.

Dazu kommt, das sich die Szenen so oder so nicht 100% gleichen. Sprich im AFR Modus rein Prinzipbedingt schon eine Unterschiedlich (wenn auch nicht viel) hohe Last auf den GPUs anliegt. Ich würde sogar soweit gehen und sagen, das man mit dem Turbo da sogar entgegenwirken/optimieren kann, einfach weil der Turbo extrem schnell schaltet und du somit ggf. sogar Lastunterschiede Szenengenau ausgleichen kannst.


An und für sich finde ich den Turbo gar nicht schlecht. Auch in der aktuellen Umsetzung. Es muss in meinen Augen auch nichtmal so sein, das sich hier SMX Einheiten unterschiedlich takten lassen. Da sich mir der Sinn dahingehend noch nicht so ganz erschließt. Einfach aus dem Grund, der Code muss so oder so hoch optimiert sein. Sonst wird das alles nix.
Dazu kommt ja wohl auch, das es etwas "anders" als im CPU Geschäft läuft. Dort stellt ja die Software die nötigen Threads bereit (vereinfacht gesagt) wohingegen hier im GPU Bereich die Hardware den Spaß dediziert aufteilt und optimal auf die Einheiten verteilt. Zumindest wenn genügend Bereichnungen gleichzeitig abarbeitbar sind. Hat man genau das nicht, ist es eher fraglich, ob die GPU hier das Hardwaremittel ist, die Aufgabe zu bewältigen...

Ich weis nicht genau, vllt denk ich auch zu kurzsichtig, aber ich behaupte, der Code im GPGPU Bereich ist so stark aufteilbar, das ein unterschiedlich taktender SMX Cluster zu seinen "Brüdern" nahezu gar nicht notwendig sein wird.
Auch behaupte ich, das der Takt selbst eher weniger Einfluss auf die Rechengeschwindigkeit hat, sprich ob da nun 800MHz oder 950MHz oder sowas anliegen (immerhin fast 20%) macht den Kohl nicht wirklich fett.
Ich hatte damals mal PhysX Benches gemacht (im entfernteren Sinne ja GPGPU), und selbst 50% Taktunterschied bringen da nur wenig mehr/weniger Performance. Wohingegen der Spaß mit der Shaderclusteranzahl fast linear skalliert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Laut meinen Infos haben weder K10 noch K20 einen aktivierten Turbomodus (schätz mal dass es nicht mal im PCB integriert wurde). Die Quadros hingegen schon. K10 taktet mit 915 MHz und verharrt dort. C-States sind jedoch implementiert - der Chip ist ja sonst ein waschechter GK104.
Ich bin sehr gespannt ob die SMX nun komplett aktiviert sind oder nicht. Im Mai/Juni sah es noch so aus als würden es derer nur 13 werden aber auf einer (HPC-)Messe in HH sagte ein nVidianer später es steht gut dass es 14 oder sogar 15 werden. Gehen wir also von 14 SMX aus was dann in 2688 shaderunits endet und 5,9 GFlops (SP) theoretisches peak bedeutet.

Wie immer ohne Gewehr ;D

Edit: Techreport hat wieder einen sehr guten Artikel bzgl. Mikroruckelproblematik herausgebracht. Nach 7 Jahren MGPU am consumermarkt sieht man endlich Fortschritte der Problematik die einst von dem guten tombman entdeckt wurde!
 
Zuletzt bearbeitet:
Ist auch gut so, endlich mal ein schritt in die richtige Richtig von Nvidia.
Nicht nur immer performance performance perfarmance, auch was was am SLI machen in der entwickling und den Teibern.
 
Leider kann er diese Wende zum Positiven nicht mehr mit erleben

Leider nicht. Und wie ich heute auf CB lesen musste ist ein wichtiges Bindeglied dieser Gemeinschaft auch verstorben. So etwas berührt mich immer, da all diese Leute uns erhalten.

Oben hab ich quark geschrieben. 5.9 GFlops wäre etwas wenig. 5.9 TFlops wären das dann wenn ich mich jetzt nicht vertan habe. In Fernost munkelt man, dass GK110 nativ 16 SMX habe, aber (wie bei GF100) nicht alle aktiv sind - dann wären 15 nicht abwegig. 56 oder 60 ROPs :hmm:
 
Zuletzt bearbeitet:
Oben hab ich quark geschrieben. 5.9 GFlops wäre etwas wenig. 5.9 TFlops wären das dann wenn ich mich jetzt nicht vertan habe. In Fernost munkelt man, dass GK110 nativ 16 SMX habe, aber (wie bei GF100) nicht alle aktiv sind - dann wären 15 nicht abwegig. 56 oder 60 ROPs :hmm:

Das würde aber einen neuen Chip bedeuten und das wäre ziemlich unsinnig.
 
Was meinst du?
 
Ach so. Ja ;) Aber man weiß ja nicht wie alt das ist. Es ist auch nur ein Gerücht und wie immer muss man halt net alles glauben. Auf 8088.net stand das (wenn ich mich nicht irre).
 
Ich sag mal so über 16 Clusterpakete wäre ich auch nicht bestürzt:fresse:

Wenn sie das auf dem Die unterkriegen,und mehr Units weniger Takt effizienter zu Werke geht,dann nur her damit:)
 
Zuletzt bearbeitet:
Die 15 SMX enstammen der ofizielen Präse von NV und man kann sie auch auf dem Dieshot nachzählen, da wird wohl kaum was neues kommen.
 
öhm,kann den test mal einer kurz zusammen fassen bzgl sliruckler?mein english is nicht so gut u. die frameverläufe 680vs 680sli vs 690 sind farblich ungünstig dahrgestellt.

690 bewegt sich auf 680er niveau,aber wie is es mit 680er sli?

bei sli etwas vorhanden,aber nicht auf cf niveau?
 
Die 15 SMX enstammen der ofizielen Präse von NV und man kann sie auch auf dem Dieshot nachzählen, da wird wohl kaum was neues kommen.

Denk ich auch nicht, aber Gerüchte will ich niemandem vorenthalten :coolblue:

@wem: Wenn wir uns die Zeit nehmen sollen eine Zusammenfassung zu schreiben, dann nehme du dir bitte die Zeit einen anständigen Beitrag zu verfassen. Das macht so keinen Spaß zu lesen und dann zu helfen - sorry...

LG Hübie
 
Wer so patzig ist bekommt eh keine Hilfe. :hmm:
Momentan stockts etwas in der Gerüchteküche wa? Wie es aussieht ordnet sich GK110 genau zwischen GTX 680 & GTX 690 ein. Das wird sich also auch preislich so niederschlagen. Ich rechne ja immer noch mit rund 650€.
 
Ich rechne ja immer noch mit rund 650€.

Wenn man dafür dann auch gut 40/50% mehr Leistung gegenüber GK104 und rund 80% mehr gegenüber GF110 bekommt, wieso nicht. Allerdings sollte schon geachtet werden, dass die Leistungsaufnahme unter 300 Watt bleibt. Schließlich muss so ein Monster noch gekühlt werden. Allerdings denke ich, dass AMD wohl etwas früher mit der HD 8970 erscheinen wird und sich BigK dann an diesen Preislich orientieren wird. Wenn die GTX 780 rund 15-20% schneller als die HD 8970 wird, dann könnte der Preis schon hinkommen. Außerdem müsste man die Preise der GTX 600er Karten nicht wirklich senken und könnte jene einfach so weiterverkaufen...
 
Wer so patzig ist bekommt eh keine Hilfe. :hmm:
Momentan stockts etwas in der Gerüchteküche wa? Wie es aussieht ordnet sich GK110 genau zwischen GTX 680 & GTX 690 ein. Das wird sich also auch preislich so niederschlagen. Ich rechne ja immer noch mit rund 650€.



Werden wir sehen, normalerweise dürfte die GTX680 ja eh nur noch um die 380-400€ Kosten wenn der große Kepler kommt, ist ja kein maximum High End Chip sondern ein kleines Spielzeug^^
 
Zuletzt bearbeitet:
Da stimme ich dir zu.
Vom Chip her geht der derzeitige Preis schon in ordnung nich aber vom SI und der Speichermenge.
Anders formuliert im gesamten hat NV von diesem Design mehr als wir Highend Kunden.
Von dem was auf dem PCB der HD7970 verbaut wurde sehe ich sie als höher wertiger an als das was auf dem PCB der GTX680 verlötet wurde.
Die GTX680 ist in meinen Augen ein Blender der GK104 Chip ist sehr gut keine Frage der Rest von der Karte ist aber keine 450+ Wert.
Unabhängig von Featuren und Software.

Es wird Zeit für echtes Highend der GK110 kann meinet wegen schon Morgen am Start sein das ist mir auch 600 Euro Wert wenn das drum herum stimmt.
Wenn mal nicht so gar AMDs Sea Islands noch vor her auf den Markt kommt wäre schön wenn NV diesmal schneller am Zug ist.

Gerade in den Extrem Auflösungen (DS,Multimonitoring) denke ich wird der GK110 mit 50%-60% mehr Leistung die GTX680 Besitzer schocken.
 
Zuletzt bearbeitet:
Der Unterschied zwischen dem gk 104 und dem GK110 wird viel heftiger werden als da mals GTX480 zur GTX580.
Und auch der Preisverfall wird schneller vollzogen werden bei der GTX 680 den da wo sie vom Preis steht gehört sie Absolut nicht hin.
 
Gerade in den Extrem Auflösungen (DS,Multimonitoring) denke ich wird der GK110 mit 50%-60% mehr Leistung die GTX680 Besitzer schocken.

Das sollte er auch, denn ansonsten wäre der Chip (in meinen Augen) nicht tragbar.
Max. 45% halte ich zwar für eher realistisch. Wenn der dann an die 600,- kostet und nicht unbedingt sehr viel mehr verbrät, dann wäre er ein guter Chip.
Ich stimme zu, was deine Meinung über die 680 angeht... im Prinzip hat sie etwa die gleiche Leistung wie eine 580er, die Mehrleistung resultiert mehr aus dem höheren Takt... was der Karte dabei hilft, erfolgreich zu sein ist der niedrige Verbrauch dabei.

Was den Preis angeht; der gehorcht dem Markt, nicht der Hardwarespezifikation :d
 
Zuletzt bearbeitet:
Saft ziehn darf das Moped meinet wegen ordentlich so lange es noch gekühlt werden kann und die Leistung im Verhältniss da zu steht.
Den Rest besorgt man dann der Karte mit Wakkü.
Stromsparen kann man mi ner 100 Euro Karte oder dann halt mit der Mittel Klasse Karte GTX680 zu diesem Zeitpunkt.:haha:
 
Zuletzt bearbeitet:
Stromsparen kann man mi ner 100 Euro Karte oder dann halt mit der Mittel Klasse Karte GTX680 zu diesem Zeitpunkt.:haha:

Solange der GK110 im Idle sparsam arbeitet ist doch alles in Butter (nicht so wie die GTX 480). Natürlich wären 300 Watt in Games nicht gerade wenig:fresse: aber wenn der Chip weiterhin relativ effizient arbeitet, ist mir das dann auch egal^^
 
Der Saft sollte schon in gewissem Verhältnis zur Leistung stehen. Um die Kühlung mache ich mir auch keine Sorgen, meine Wakü schluckt auch 4 Karten von der Sorte mühelos :asthanos:
Allerdings sollte der Stormverbrauch bei 45% Mehrleistung nicht äquivalent ansteigen. Das wären dann 300W Gesamtverbrauch für die Karte. Recht viel, wie ich finde, auch bei sehr hoher Leistung. Ein genialer Chip wäre es, wenn man sich bei etwas GTX 680 + 50W einpendeln würde.
Sehe ich aber noch nicht, bzw. das wird wohl auch vom SI / von der RAM-Größe abhänden.

Aber bis jetzt ist das leider alles nur Kaffeesatzleserei.

Btw: im Idle kann man ja noch mit dem nVidia-Inspector nachhelfen, wenn die nicht so wollen^^
 
Zuletzt bearbeitet:
Klar sollte die Karte z.B. nicht 50% mehr verbrauchen und dabei nur 20% schneller sein xD
Ich gehe sogar davon aus, dass BigK etwas effizienter als die GTX 680 werden könnte, obwohl der Chip wesentlich komplizierter und größer als GK104 ist. Schließlich werden wohl über 9 Monate zwischen den beiden Karten (GTX 680 und GTX 780) liegen, die 28n Fertigung verbessert worden sein und auch weniger Spannung benötigt werden.
So kann man eine GTX 580 von etwa 220 auf etwa 170 Watt drücken, wenn man die Taktraten und Spannung etwas senkt. Mal abwarten.
 
Das stimmt wohl leider ist ja noch nix spruch reif.
Denke mal in full HD wird der Vorsprung nicht all zu hoch aus fallen aber in den von mir genanten scenarien schätze ich den GK 110 deutlich stärker ein.
Mein Mora wartet auch auf eine neue Herausforderung da er im Keller steht waren 1350 MH auf 2 HD7970ern keine Herrausforderung für ihn und er konnte die GPUs bei 40°C halten laut Strom Meser lagen um die 900W.
Da meine kleine Tochter zur Welt gekommen ist habe ich die Karten erst mal sehr gut verkauft.
Das muss sich hier erstmal etwas einspielen mit der kleinen dann kann ich wieder meinem hobby fröhnen.
 
Single ^^

Meine beiden Nova Xtreme werden mit allem fertig, was da kommt. Aber wie gesagt: völlige Unvernunft und Mehrleistung auf Kosten von brutalem Stromverbrauch; das sage ich dann auch "nein danke".
Aber ich setzt durchaus große Hoffnungen in den GK110. Mich beunruhigt die Ruhe der letzten Zeit etwas. Da werden Erinnerungen an den 480-Launch wach.
 
Nein im CF 1350 MHZ bei 1.26V real mit Tool 1.38V eingestellt gewessen 24/7 der Keller macht es möglich im Frühjahr um die 16°C Raum Temp im sommer 21 °C Raum Temp im Winter werde ich ja sehen.
Die Karten konnte in dem Zustand nahe zu kein Spiele Setting erschüttern .

Das glaube ich dir das die 2 Radis das einfach schlucken.
 
Zuletzt bearbeitet:
Da werden Erinnerungen an den 480-Launch wach.

Naja, im vergleich zu Thermi hat man aber diesesmal nicht das Flagschiff auf Biegen und Brechen versucht zu veröffentlichen und eher den leichter zu fertigenden Chip gebracht. Immerhin hat nvidia so noch länger Zeit, die Fertigung zu optimieren, dass wir eher soetwas wie eine GTX 580 als eine GTX 480 bekommen. Allerdings wären einige Leistungseinschätzungen wirklich nett...
 
Den besten Überblick wird wohl erst der Tesla K20 Launch bieten.
Hat man erst einmal eine ähnliche Karte in freier Wildbahn, kann man damit wohl am besten spekulieren ;)

Wirklich gespannt bin ich, wie sich das SI schlägt, bzw. was die Hersteller daraus machen. Scheint ja recht sicher zu sein dass es ein 384-Bit statt 512-Bit-Speicherinterface werden wird.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh