nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Mit OC wird der vielleicht schneller als GTX580 SLI.
Auf stock takt bezweifel ich es aber.

Lass dich überraschen ;) Jedoch ist SLi auch stark von der Optimierung abhängig, was den Vergleich manchmal unfair macht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie immer gilt: Das sind alles keine gesicherten Infos!

GK110 Desktop hat wahrscheinlich 850 MHz und 925 MHz Boost-Takt. K20 taktet deutlich darunter. 56 ROPs und eine TDP von 280 Watt wurden genannt. Ich gehe mal davon aus dass die aktuell geplante Desktop-Variante gemeint ist. Sind so die Infos die ich abgreifen konnte. Schwerpunkt ist eh erst mal K20.
Wie gesagt ordnet sich das Teil ziemlich genau zwischen der GTX 680 & 690 ein. "Obenrum" wirds dann besser. Bis die breite Masse aber von FullHD weg ist dauert das noch viele Jahre. ;)

Link?
 
Chats kann man nicht verlinken ;) Das ist eh alles noch recht wage. Ich sag mal so 70% von dem was bekannt ist wird dann wohl auch final zu sehen sein. nVidia ist aber immer für Überraschungen gut. Der Turbo bspw. war ein sehr gut gehütetes Geheimnis. Der kam auch erst in einer recht späten Phase wie ich das mitbekommen habe.
Ich schreibe auch nicht umsonst dass es alles ungesicherte Infos sind. Wäre die Quelle ein Ing. bei nVidia würde ich dass nicht schreiben - der wäre dann aber wohl auch schnell arbeitslos :d
 
tjoo, wenn die Karte in etwa einer GTX690 entspricht, naturgemäß mit 3-4GB kommt würde ich wechseln. Abwärme ist so ne Sache, stört mich unter Wasser dann aber nicht so sehr.
Im SLI dann wohl ein Traum und märzt störende Nachladeruckler @ 5760x1080 aus. Beim 680er 2GB SLI zwar nicht so oft, aber vorhanden.
Ich bin zwar schon mit dem 680er SLI recht happy, aber die Extraschippe fehlt. Ich bin gespannt was mich dann erwartet :)
 
Ja ich hoffe es es wird der Bringer, dann bin ich auch bereit etwas tiefer in die Tasche zu greifen :)
Abwärme hin oder her kommt so oder so unter Wasser. Also alles unter GTX580 SLI (Leistung) würde mich schon echt traurig machen.
Vor allem sind das dann eben mal zwei Generationen, die da zwischen sind.

€: 3 GB Ram + wäre auch mal gut 5760 x 1200 braucht halt was mehr davon.
 
Ja ich hoffe es es wird der Bringer, dann bin ich auch bereit etwas tiefer in die Tasche zu greifen :)
Abwärme hin oder her kommt so oder so unter Wasser. Also alles unter GTX580 SLI (Leistung) würde mich schon echt traurig machen.
Vor allem sind das dann eben mal zwei Generationen, die da zwischen sind.

€: 3 GB Ram + wäre auch mal gut 5760 x 1200 braucht halt was mehr davon.

wie schon gesagt ist es eigendlich gang und gäbe das die Folgegeneration in etwa die Leistung einer derzeitigen Dualkarte hat. Warum sollte das weniger Leistung als 580er SLI bringen??
Bei den 680ern ist es nicht so schlimm wie gedacht bei 5760x1080, aber ab und an verirrt sich dann aber doch mal ein Nachladeruckler ins Bild.
 
Bei den 680ern ist es nicht so schlimm wie gedacht bei 5760x1080, aber ab und an verirrt sich dann aber doch mal ein Nachladeruckler ins Bild.
Sehr schön formuliert.
 
Bei den 680ern ist es nicht so schlimm wie gedacht bei 5760x1080, aber ab und an verirrt sich dann aber doch mal ein Nachladeruckler ins Bild.

Wie könnt ihr nur wieder so absolut unbelegbare Sachen hier posten, wo doch in sogut wie jedem Review das 4GB Modell absolut gar keinen Vorteil bringt im Vergleich zum 2GB Modell. Und wenn sich doch mal ein Vorteil zeigt, ist doch idR sowieso das Game murks bzw. die Engine total unfähig :fresse:
 
tss, dann teste doch selber....
mag ja sein dass das Eine oder Andere Game "Mist" ist, dennoch gibts jene Nachladeruckler (btw von PCGH bestätigt beim Surroundtest).
Wenn die bei 4GB futsch sind ists zwar ein teurer Aufpreis für die wirklich selten auftretenden Rucke die dadurch zustande kommen, aber sie sind weg. Auch wenn bei 2GB die Performance nicht geringer ist existieren sie...

Beherbergt der GK110 von hause aus mehr als 2GB kann durchaus davon ausgegangen werden dass der Eine oder Andere evtl damit zufriedener sein mag.
 
Da gibts dann die Diskussion 3 GB vs. 6 GB...wobei ich ja auf 4 GB an einem 512bit Interface gehofft hatte.
 
Mist, ich glaub die Ironie war nicht deutlich genug.
Es war definitiv nicht ernst gemeint ;)
 
Ironie setzt ein gewisses Maß an Intelligenz beim Leser vorraus :d
@grinsemann: GK110 wird sich zwischen 680 und 690 einordnen. Also nicht (bzw. selten) rankommen. Wie ich schon sagte ist der MGPU-Vergleich manchmal unfair, da Treiber und/oder Engine herzlich wenig optimiert wurden.
Das swapping soll übrigens mit PCI-E 3.0 deutlich besser und flüssiger von statten gehen. Kann ja mal einer gegentesten. Der Nachteil bei allen reviews ist eben die kurze Dauer eines solchen Benchmarks - was ja durchaus verständlich ist (;)). Daher sollte man die nicht als Referenz sehen.

LG Hübie
 
Zuletzt bearbeitet:
@Grinsemann
fdsonne hat es auch sehr schön formuliert und dich bestätigt so wie ich auch.
Ich brauche ne 2GB Karte gar nicht erst zu kaufen um mit reden zu können ob es nachlade Ruckler gibt oder nicht wenn die Settings stimmen und es eigentlich Spielbar wäre es aber wegen zu wenig Ram zu einem hässlichen Nebenefekt kommt bei so
teurer Hardware.

Habe genug negative Erfahrungen mit meinem GTX580SLI dies bezüglich gesamelt .
Manche denken hier Wirklich NV besorgt das mehr an Ram was fehlt über die Cloud aus dem WEB.:wall:
Manche Leute leben in einer Traum Welt .:haha:

Das ist nicht auf euch beide bezogen Grinsemann und fdsonne ihr sagt wenigsten wie es ist auch wenn ihr die Hardware besitzt nicht so wie manche die noch extrem grün hinter den Ohren sind.

Es ist genau wie die Fabel das bei den Roten ehr der Ram aus geht und die deshalb mehr Ram brauchen als die Grünnen einige Leute sind hier nicht gerade unparteiisch und das ist auch alles.
Der Ram Verbrauch und die Nutzung sind nahe zu identisch und vernachlässigbar und nehmen sich nahe zu nichts auf beiden Seiten.
 
Zuletzt bearbeitet:
@Hübie
das das Problem mti PCIe 3.0 besser wird, ist ja auch verständlich... Schließlich limitiert die Bandbreite massiv, wenn die Karte gezwungen wird, eben Auslagerungsvorgänge am Stück zu machen... 100% mehr Bandbreite = ordentlich mehr Performance in diesem Problem. PCIe ist aber nach wie vor noch zu lahm um das ganze komplett zu kompensieren.

Da finde ich den Schritt der 660TI (mittlerweile die zweite Karte mit so ner Konstruktion) viel interessanter. Wo man einfach die hälfte der Speicherchips mit doppelt so großen Chips bestückt, wo sich dann im Extremfall zwar Bandbreite für die letzte Hälfte des VRAMs veringert, dafür ist es immernoch im Welten höher als der Umweg über PCIe und RAM.
 
Nein grinsemann ;)

@fdsonne: Du vergisst auch den overhead PCI-E 2.0 vs 3.0.

Ich habe doch kürzlich erst vergleiche bzgl. VRAM-Auslastung gelesen. Wo war das... 3dc? box, weißt du wo das war?? Die AMD-Karten hatten in der Tat immer etwas mehr (mal 100 MB, mal 40...). Das macht aber meiner Meinung nach den Kohl nicht fett. Ausserdem finde ich die aktuellen Bestückungen bei nVidia weitgehen lachhaft.
 
Hahahaaa.. Aus welchem Film kommt der Name doch gleich?? :hmm:

Edit: Tron :d

b2t: Wenn das einer wissen will geh ich auf die Suche. Lust hab ich aber nicht :P
 
Zuletzt bearbeitet:
Babylon 5, Hauptdarsteller heißt Bruce Boxleitner. Mir ist damals nix Dämlicheres eingefallen.
 
Tröste dich Boxer alles was ich eingegeben habe war vergebens am Ende standt Thunderburne da.
Ach das HW Luxx forum ist schon geilllllllll....
MFG @ all
 
Zuletzt bearbeitet:
Ironie setzt ein gewisses Maß an Intelligenz beim Leser vorraus :d
na werd mal nicht frech, du Lümmel :asthanos:

Mist, ich glaub die Ironie war nicht deutlich genug.
Es war definitiv nicht ernst gemeint ;)

war zuerst am überlegen, aber du bist ja sonst kein Freund der Ironie weswegen ich wohl falsch angesprungen bin^^
my fault :hail:

schon ein "Verdacht" wann die neue Gen kommen soll?
Theoretisch ist die Karte ja fertig :d ... zumindest kann ich mir nicht vorstellen das sie wieder so spät erscheint


da gabs doch so ne Liste wann die letzten Karten so erschienen sind und einer erkannte da so´n Rythmus raus :fresse2:
 
Was wurde als zusammenfassend bisher Spekuliert ?

Das im "besten Falle" 50% Mehrleistung zu erwarten sind und die Karten irgendwann 2013 erscheinen ?

Im Vergleich zur 570 und 670 bei Full HD und relevanten Einstellungen 4xAA / 16x AF .... waren es 20 - 60% je nach Titel.
Meistens durchschnittlich 30% .

Also die bisherigen Spekulationen muss man ja nicht so der Prophet sein das zu erwarten oder ?

Oder habe ich noch was verpasst ?

Vom Prinzip her ist es ja so - im Vergleich der selbigen Modelle - das sich ein Kauf eh nur nach
Modellsprung (einmal auslassen) sich richtig lohnt.

Und 50% Mehrleistung müssen einfach kommen das man auch Moderne Titel mit 8xAA / 16xAF
smooth spielen kann richtung 60 FPS bei Full HD - bei oberer Mittelklasse
570 - 670 - 770 . Für 350€ oder ?

Ansonsten Floppen die Karten doch eh - denn mit der 670 kann man unter Full-HD 4xAA / 16xAF
alles top soccen - dafür braucht man keine 770 - die sollte für höhere Setting stehen und muss
dann schon 40 - 50% zulegen.

Sonst kann man die obere Mittelklasse rauslassen bei der Next Generation - nur High End für
die gewisse Gruppe - ansonsten reicht ja dann wohl Mittelklasse mit Features und weniger Watt pro Leistung.
Der Standard Full-HD wird eh noch ne Weile bleiben.
 
Was wurde als zusammenfassend bisher Spekuliert ?

Das im "besten Falle" 50% Mehrleistung zu erwarten sind und die Karten irgendwann 2013 erscheinen ?

50% von was?

Im Vergleich zur 570 und 670 bei Full HD und relevanten Einstellungen 4xAA / 16x AF .... waren es 20 - 60% je nach Titel.
Meistens durchschnittlich 30% .

Welche nun? 570 oder 670 sind schon ziemlich Unterschiede.

Also die bisherigen Spekulationen muss man ja nicht so der Prophet sein das zu erwarten oder ?

Oder habe ich noch was verpasst ?

Offensichtlich hast du hier nix gelesen.

Vom Prinzip her ist es ja so - im Vergleich der selbigen Modelle - das sich ein Kauf eh nur nach
Modellsprung (einmal auslassen) sich richtig lohnt.

Würde ich nicht zur Regel, aber es ist öfter so. Vor allem: Was verstehst du unter "es lohnt sich"??

Und 50% Mehrleistung müssen einfach kommen das man auch Moderne Titel mit 8xAA / 16xAF
smooth spielen kann richtung 60 FPS bei Full HD - bei oberer Mittelklasse
570 - 670 - 770 . Für 350€ oder ?

Träum weiter...

Ansonsten Floppen die Karten doch eh - denn mit der 670 kann man unter Full-HD 4xAA / 16xAF
alles top soccen - dafür braucht man keine 770 - die sollte für höhere Setting stehen und muss
dann schon 40 - 50% zulegen.

Was ist soccen? Fussball spielen? Und wieso sollen die floppen? :hmm:

Sonst kann man die obere Mittelklasse rauslassen bei der Next Generation - nur High End für
die gewisse Gruppe - ansonsten reicht ja dann wohl Mittelklasse mit Features und weniger Watt pro Leistung.
Der Standard Full-HD wird eh noch ne Weile bleiben.

GTX 680 wird dann lower highend - sozusagen der 5er BMW.

Ich sehe aber auch immer mehr Leute mit Multi-Monitor oder >FullHD. Aber ich denke auch dass die breite Masse da noch lange drauf sitzen bleibt (mich eingeschlossen ;)).
 
@fdsonne: Du vergisst auch den overhead PCI-E 2.0 vs 3.0.

Ich habe doch kürzlich erst vergleiche bzgl. VRAM-Auslastung gelesen. Wo war das... 3dc? box, weißt du wo das war?? Die AMD-Karten hatten in der Tat immer etwas mehr (mal 100 MB, mal 40...). Das macht aber meiner Meinung nach den Kohl nicht fett. Ausserdem finde ich die aktuellen Bestückungen bei nVidia weitgehen lachhaft.

Was meinst du mit overhead?

Und zur RAM Auslastung, im Grunde ist es ziemlich wurscht, wie hoch der Verbrauch ist. Wichtig ist halt, das die Karte so clever agiert, das sie möglichst nachladerucklerfrei den Content darstellen kann. Wenn man da nun etwas mehr oder etwas weniger braucht, wäre mir zumindest ziemlich egal.
Es gab mal Zeiten, wo man noch massive Unterschiede zwischen den Speichermanagements der beiden großen sehen konnte. G80 8800GTS 320MB dürfte da noch jedem ein Begriff sein. Das Problem selbst wie damals existiert zwar heute immernoch, nur ist es bei weitem nicht mehr so schlimm.
Aber man sieht nach wie vor noch, das zu wenig VRAM eben doch nicht so gut ist, gerade im HighEnd Bereich finde ich es ziemlich daneben am falschen Ende zu sparen. Es mag alles richtig sein, von wegen, ja kostet nur Geld usw... Unsinnigerweise passt dieses Argument nur schon rein aus P/L Sicht nicht mit HighEnd unter einen Hut :fresse:
Aber neja mal gucken was wird.

war zuerst am überlegen, aber du bist ja sonst kein Freund der Ironie weswegen ich wohl falsch angesprungen bin^^
my fault :hail:

Ist sonst wirklich nicht so meine Art. Aber ich dacht mir, scheißt einfach mal etwas getarnete Ironie mit ins Feuer, bevor die VRAM Diskusion wieder richtig ins rollen kommt :fresse:
 

:d Wurde auf dieses Wort in Sachsen schon Patent angemeldet? :d Habs zum ersten Mal beim Freund in Weißenfels gehört.

b2t: Am Ende ists Wurscht - da die Leistung zählt. Mal überspitzt ausgedrückt: Wenn ein hypotethischer Hersteller X es mit 1 GB VRAM schafft das darzustellen was Hersteller Y mit 2 GB VRAM nur schafft zählt einfach das bessere Verhätlnis. Diesen Fall haben wir aber konkret nicht vorliegen und AMD hat imo seine Modelle diesbezüglich besser ausgestattet.

Ein Forenmitglied (glaube das war auf 3DC) meinte mal sinngemäß: In der aktuellen Situation ist es wohl am besten du hast von beiden IHVs was im Rechner stecken. BF3 hier, Metro da... So hast du überall maximale Leistung :d

GK110 wird defintiv seine Steckepferde haben. GK104 haqt Perf./Watt - und GK110? Nun ja wir werden sehen ;)

btw: Tesla K20: Mit Hyper-Q um Faktor 2,5 schneller ---> etwas Marketing :d
 
Zuletzt bearbeitet:
Nur wird das wohl wiederum für den Gamermarkt ziemlich uninteressant.
Interessanter finde ich aber die Aussage "Die Tesla-K20-GPU soll 2496 oder 2688 Shader-Rechenkerne enthalten"
Was ja "nur" 13 oder 14 SMXens währen. Offenbar verdichten sich die Gerüchte weiterhin, das NV einen ähnlichen Weg wie bei Fermi V1 geht und die Profikarten vorerst nicht im Vollausbau bringt. Warum und wieso, lässt sich nicht bestimmen. Eventuell läuft doch nicht alles so reibungslos?
 
Hat nVidia aber direkt bei der Vorstellung angekündigt und steht auch im Whitepaper. Ist also keine News in dem Sinne.

Grund ist einfach der Stromverbrauch. Der Vollausbau wird im selben Bereich liegen wie GTX580. Im Quadro sowie Tesla-Bereich will man jedoch unter 225 Watt bleiben. Daher eben weniger Einheiten.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh