nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
also ich habe ja viel gerechnet und mit 730Mhz wäre das teil eigentlich total lahm!
Bis jetzt gibts soweit echt nur fakes... wobei 5200Punkte kann schon sein nur die daten dazu wären interessant aber da tippe ich mal auf 900Mhz@turbo sonst erreichste die werte von 5200Punkte kaum.

Das hat ja auch nicht so viel mit der kühlung zu tun denn schau dir mal die GTX480 und GTX580 an die hat man auch kühlen können. Verbrauch ist entscheident und der verbaute kühler!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So ne Steigerung war noch nie drin. Und mal nicht so aggro :d

Wieso?
Ne HD7950 der ersten "Generation" (also 800MHz Basis non Boost) schaffst du zum Teil auch spielend auf 1200-1300MHz.
Letzteres sind 62%!

setz das selbe Verhältnis an 732MHz und du hast knappe 1,2GHz ;)

Es war bis dato bei so vielen GPUs schon vergleichbar. Nicht primär zwischen den Herstellern, aktuell passt aber selbst das...) Ne Tahiti GPU bekommt man mit humanen Mitteln ca. bis 1200-1300MHz. Egal ob da nun ne HD7970GHz oder HD7950 oder gar HD7870 mit Tahiti LE drunter schlummert.

GK104 bekommst du ca. ebenso auf 1200-1250MHz. Egal ob 660TI, 670 oder 680er. Selbst dei 690er packt das, wenn die Kühlung passt

Somit liegt sehr nahe, das das Taktpotential der 28nm GPUs auf Keplerbasis durchaus irgendwo in diesem Bereich liegen dürfte. Mit mehr Aufwand (Kühlung, Spannung usw.) natürlich auch höher. Die große Preisfrage bleibt aber, wie weit lässt NV das Teil auch von der Leine... Zu knausrige Spannungen halten zwar den Verbrauch im Rahmen, stören aber das OC, wenn man sie nicht ändern kann. Auch das Powertarget spielt mit rein.
Und wie so oft hat genau die GPU den potentiellen OC Vorteil, wo der Basistakt auch niedrig ausfällt. In dem Fall klar GK110...

Bei nur 730Mhz wäre die karte bei 5200Punkten dann schon echt richtig fett! 1000mhz wird dann aber wohl auch sehr am limit sein wie bei der 580er Wenn 1200Mhz gehen würde mit OC dann glaube ich kaum das NV nur 730Mhz anlegen wird sondern eher 900Mhz!
Aber wenn 1200Mhz wirklich machbar sind wird SLI oder CF bei FullHD total überflüssig solange man nicht mit SGSSAA zockt :d

Das ist auch zu kurz gedacht... Es steht und fällt mit dem Verbrauch (wie so oft im HighEnd GPU Umfeld)
Warum sollte man sich als Hersteller 20% mehr Takt, womöglich mehr benötigte Basisspannung sowie gesenkte Ausbeute in Sachen Chips, die den Takt machen ans Bein binden? 20% mehr Takt (ca. 880MHz bei 732MHz Basis) heist bei gleicher Spannung und Temp auch 20% mehr Verbrauch.
Aktuelle Gerüchte halten sich sehr stark, das es bei 6GB VRAM bleibt. Somit verspielt man den potentiellen Verbrauchsvorteil gegen K20X durch weniger VRAM. Heist also, es liegt nahe, wie ich seit Anfang an prädtigte, das das Teil irgendwo mit 225-235W kommen wird. 20% drauf = 270-282W und somit so viel, wie bei noch keiner SingleGPU bis dato am Markt.
Die Negativpresse in Sachen Verbrauch würde wieder alles toppen, was wir bist dato über Fermi und Co. gesehen haben...

732MHz im Vollausbau wären theoretische knapp 30% über GK104 im default Turbo. Dazu knappe 40-50% mehr Bandbreite. Dürfte sich ausgehen, gemessen daran, das GK104 in Form der 680er in einigen Titeln doch arg Bandbreitenlimitiert ist.
Nen Turbo wirds ja wohl auch geben um das noch was anzupassen nach oben.

Alles was an OC drauf kommt, ist somit fast nur GPU Leistung, diese könnte analog zu GK104 aber stark verpuffen, wenn die Bandbreite in Sachen VRAM OC nicht deutlich mitsteigerbar wäre.
 
Eben und schon sind es nur noch 300 MHZ bis 1200 es bleibt einiges ab zu warten.
 
Hier nochmal mit ein paar Prozentwerten und Relationen - das Diagramm von Seite 134. ;)

3dmark11xspekut1ydi.jpg


Könnte schon hinkommen, auch wenn es wohl ein Sahnehäubchen für Titan sein dürfte.
Eventuell 10% höher als im Schnitt ingame, wird man sehen. :)

MfG
Edge
 
Zuletzt bearbeitet:
Mich wundern eher die 94% der 690er gegen die 680er.
CB misst mit halbwegs aktuellen Treibern für die 680er im SLI (was minimal mehr Takt als ne default 690er) 88% im EE.
Und ~65 Punkte mehr für ne Single 680er, aber auch ~60 Punkte weniger für die 680er im SLI.

Es wäre mal interessant zu wissen, was ne 680er mit 1270/3605 packt. Das wären 20% mehr ALU/Bandbreitenpower. Damit könnte man nen in etwa Takt für GK110 im Vollausbau halbwegs genau errechnen, unter der Vorraussetzung der Spaß skaliert Keplerlike (wovon fast anzugehen ist)
 
Jo das würde ich auch gern wissen mit der 680 Oc fdsonne
 
Geforce Titan

Siet schon ma ordentlich aus wenn die Karten vom Driver Perfeckt optimiert werden was ich auch hoffe kommt die Titan an die 690 heran dies ist aber nur ein Spekulation.
Durch system Optimierung wird das ganze noch Perfekter bin schon sehr gespannt.Ich bin gespannt was N-vidia hier noch an Power herausholt mit denn neujen Drivern.
 
in der mittleren grafik muss der rote mit 0,80984375% beschriftet werden
und in der letzten hat die 680 noch 0,63669689369091259888095697472506% laut wincalc.
 
Nein kann man nicht nur gekauft oder gec... vielleicht konnte man das doch dann aber ohne results.
 
Zuletzt bearbeitet:
Ich freu mich schon auf den ersten Heul-Thread: "Meine 1000€-GPU hat mit meiner 150€ CPU in BF3 bei 1280*1024 nur 25% Auslastung und 55 FPS" :fresse2::asthanos:
 
Ich freu mich schon auf den ersten Heul-Thread: "Meine 1000€-GPU hat mit meiner 150€ CPU in BF3 bei 1280*1024 nur 25% Auslastung und 55 FPS" :fresse2::asthanos:

Jetzt übertreib mal nicht, wenn die Tabelle da oben stimmt, ist die Leistung für knapp "1000€" eher lächerlich. Eine gut übertaktete 680/7970 kommt der Titan verdammt nahe.
 
Zuletzt bearbeitet:
Jetzt übertreib mal nicht, wenn die Tabelle da oben stimmt, ist die Leistung für knapp "1000€" eher lächerlich. Eine gut übertaktete 680/7970 kommt der Titan verdammt nahe.
troll keeps going.
welche karte nur ein drittel kostet und halb so viel leistet
oder die hälfte kostet und übertaktet 80% leistet ist egal.
immerhin wird man titan auch übertakten können und selbst wenn nicht, die default leistung sagt "ich hab den längsten".
 
Mir ist es doch egal ob Nvidia (Titan) oder AMD den längsten hat. Ich gehöre nicht zu den Fanboys, trotzdem ist das meine Meinung und die darf ich vertreten wo und wann immer ich möchte!
 
was ich hier nicht verstehe keiner hat je die karte gesehen oder in der hand gehabt wie kommt ihr auf Tabellen usw..

könnte sein usw.. das evtl.ne single schneller sein soll als gtx 690 usw..
 
Mir ist es doch egal ob Nvidia (Titan) oder AMD den längsten hat. Ich gehöre nicht zu den Fanboys, trotzdem ist das meine Meinung und die darf ich vertreten wo und wann immer ich möchte!

Dennoch darf auch jeder selbst seine Anforderungen an das Teil stellen und für sich rechtfertigen, ob der Preis taugt.
Sollten 6GB VRAM kommen, kannst du jede (mit Ausnahme vllt die Tahiti 6GB Modelle) aktuelle Grafkkarte einpacken, denn VRAM kann man schlicht nicht hinzustecken oder hinzu OCen.

Ob einem persönlich die notwendigen Spielereien den Preis wert sind darf jeder für sich entscheiden.
Ich persönlich würde es bedenkenlos tun ;) Vor allem in SLI/CF Systemen geht viel zu oft die Puste aus, weil der VRAM dicht macht. Und das nicht erst seit GK104 2GB 6x0er Karten. Da gabs schon ganz andere Vertreter (G92, G200, GF100/110) bei NV. Und auch bei AMD waren derartige Modelle schon im Programm...

was ich hier nicht verstehe keiner hat je die karte gesehen oder in der hand gehabt wie kommt ihr auf Tabellen usw..

könnte sein usw.. das evtl.ne single schneller sein soll als gtx 690 usw..

Was kannst du daran nicht verstehen?
Eine Spekulation beruht für gewöhnlich nicht auf Fakten... Wäre dies der Fall, wäre es ein Fakt, keine Spekulation.
Das man aber mit der persönlichen Erwartungshaltung nicht zu hoch ansetzen sollte, sonst droht eine Enttäuschung, sollte logisch sein ;)
 
Zuletzt bearbeitet:
@espanolplaya
Sehe ich nicht so... denn die 690er verliert genau in den Settings derart massiv, wo GK110 mit 6GB VRAM punkten kann. Ob dabei nun 3, 4, 5 oder volle 6GB VRAM benötigt werden, ist total egal. Ihr geht definitiv bis 6GB VRAM Bedarf die Puste nicht! aus.
Das man beim derartigen Preis nicht vom Mainstream ausgehen sollte, dürfte wohl logisch sein. Das Teil wird wohl weit über Mainstreampreisen angesetzt.
Das ein Vergleich in Mainstream Settings für eine Einstufung wichtig ist, ist richtig... Daran wird sich die Masse sattsehen wollen. Dennoch liegen die Vorteile wo ganz anders.

Das ist wie bei Autos. Mit nem Porsche kannst du genau so jeden Tag deine paar Kilometer Stadtverkehr abspulen. Ggf. hätte es aber auch ein simpler Golf/Polo whatever getan. Dennoch ist der Porsche jeden Cent wert, wenn du mit dem Teil auf die Rennstrecke gehst. Denn dort geht dem Klein/Mittelklassewagen die Puste aus und der Porsche spielt seine Vorzüge aus. Fährt man hingegen nicht Rennstrecke, ist der Kauf freilich leicht sinnfrei ;) Es sei denn, Geld spielt keine Rolle.
 
@espanolplaya
Sehe ich nicht so... denn die 690er verliert genau in den Settings derart massiv, wo GK110 mit 6GB VRAM punkten kann. Ob dabei nun 3, 4, 5 oder volle 6GB VRAM benötigt werden, ist total egal. Ihr geht definitiv bis 6GB VRAM Bedarf die Puste nicht! aus.
Das man beim derartigen Preis nicht vom Mainstream ausgehen sollte, dürfte wohl logisch sein. Das Teil wird wohl weit über Mainstreampreisen angesetzt.
Das ein Vergleich in Mainstream Settings für eine Einstufung wichtig ist, ist richtig... Daran wird sich die Masse sattsehen wollen. Dennoch liegen die Vorteile wo ganz anders.

Das ist wie bei Autos. Mit nem Porsche kannst du genau so jeden Tag deine paar Kilometer Stadtverkehr abspulen. Ggf. hätte es aber auch ein simpler Golf/Polo whatever getan. Dennoch ist der Porsche jeden Cent wert, wenn du mit dem Teil auf die Rennstrecke gehst. Denn dort geht dem Klein/Mittelklassewagen die Puste aus und der Porsche spielt seine Vorzüge aus. Fährt man hingegen nicht Rennstrecke, ist der Kauf freilich leicht sinnfrei ;) Es sei denn, Geld spielt keine Rolle.

Wenn man denn den Gerüchten zufolge Glauben schenken kann, die 6GB sind nämlich, soweit ich informiert bin noch nicht zu 100% bestätigt und basieren ebenfalls auf Gerüchten.
 
@espanolplaya
Sehe ich nicht so... denn die 690er verliert genau in den Settings derart massiv, wo GK110 mit 6GB VRAM punkten kann. Ob dabei nun 3, 4, 5 oder volle 6GB VRAM benötigt werden, ist total egal. Ihr geht definitiv bis 6GB VRAM Bedarf die Puste nicht! aus.
Das man beim derartigen Preis nicht vom Mainstream ausgehen sollte, dürfte wohl logisch sein.

Richtig, und gerade für Multi-GPU wird das eine Wohltat. Allerdings ist man dort auch mit den 4GiB Versionen von 670 und 680 nicht schlecht bedient.
 
Ich verstehe wirklich nicht mehr. Als die Radeon User gemeint haben AMD 7970 3GB ram haben alle geschrieben vram ist nicht wichtig jetzt kommt NV mit 6 GB Ramm + 900€ ist jetzt wieder Vram wichtig geworden. :bigok:
 
Ganz blöde Frage zu den 6 GB:

Wie will man die überhaupt auslasten? Ich mein, die allermeisten Games sind doch eh 32 Bit. D.h. du kannst nur 4 GB adressieren. Oder hat das Game gar keinen Direktzugriff auf den VRAM?
 
Zuletzt bearbeitet:
Also ich bin mit meinen 3GB noch ne am Limit gewesen und ich nutze weit über 50 Grafikmods für Skyrim uns spiele noch zusäzlich mit SSAA.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh