nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ich bezweifel mal das das eine zulässige Rechenweise ist :fresse:

Wieso? :)
Ich schaue mir die Effizienzsteigerung von GK104 ggü. GF114 an und denke/hoffe, das wird sich in etwa auch bei GK110 vs. GF110 so verhalten. Wo schätzt du denn GK110 ein im Vollausbau beim Spieleverbrauch (HT4U)?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da der Takt noch nicht bekannt ist, sind solche Prognosen ja eh schwierig. Tesla ist von Haus aus sehr konservativ angesetzt (selbst beim VRAM-Takt) und fällt als Vergleichsgröße erst mal raus. Sind ja auch noch keine wirklichen Werte bekannt. Die sind sich ja nicht einig ob nun 14 oder 15 SMX die yields sinnvoll und ergiebig machen. Vollausbau geht gut in Richtung 250 Watt (HT4U testet immer noch mit H.A.W.X.) schätz ich. Wenn nicht noch etwas mehr. Allein durch größere Caches, breiteren Datenbus und halt großem Chip.

Hier mal die ungefähre Dimension (habs in 1600er Auflösung hier).
 
Wieso? :)
Ich schaue mir die Effizienzsteigerung von GK104 ggü. GF114 an und denke/hoffe, das wird sich in etwa auch bei GK110 vs. GF110 so verhalten. Wo schätzt du denn GK110 ein im Vollausbau beim Spieleverbrauch (HT4U)?

Problem bei größeren Chips ist meist, das man für höheren Takt überproportional mehr Spannung benötigt. Vorteil ist das der große Chip bei niedrigerem Takt und Spannung dann wieder effizienter ist als eine kleinere Variante mit weniger Einheiten. Es hängt also alles davon ab wie gut die Chipgüte durch die Fertigung dann ist und welche Ziele man sich gesetzt hat. Bisher ist die einzige, feste Größe das TDP-Limit von maximal 300 Watt. Sicherlich werden sie versuchen darunter zu bleiben, Problem wäre nur wenn der Takt dann nicht hoch genug ist um ein klares Kaufargument bei der Performance zu haben.

Edith sagt:

Da der Takt noch nicht bekannt ist, sind solche Prognosen ja eh schwierig. Tesla ist von Haus aus sehr konservativ angesetzt (selbst beim VRAM-Takt) und fällt als Vergleichsgröße erst mal raus. Sind ja auch noch keine wirklichen Werte bekannt. Die sind sich ja nicht einig ob nun 14 oder 15 SMX die yields sinnvoll und ergiebig machen. Vollausbau geht gut in Richtung 250 Watt (HT4U testet immer noch mit H.A.W.X.) schätz ich. Wenn nicht noch etwas mehr. Allein durch größere Caches, breiteren Datenbus und halt großem Chip.

Hier mal die ungefähre Dimension (habs in 1600er Auflösung hier).


Ich hab mal eben selbst ne Grafik erstellt weil mir das etwas suspekt vorkam. Bei mir ist der GK110 ca. 530mm² groß und GK104 ca. 295mm²:

110104vergleich6jy6p.jpg


Ich finde hier ist der Unterschied nicht so krass wie bei dir. Bei deiner Grafik scheint GK110 ja fast mehr als doppelt so groß zu sein.

Hier nochmal wenn Kepler über 550mm² groß ist:

110104vergleich2w4uf7.jpg


Edith redet ununterbrochen:

habs gleich mal auf die erste Seite gesetzt.
 
Zuletzt bearbeitet:
~40% sind es ggü. GK104. Mglw. ist mir da auch ein Fehler unterlaufen ;D Ich hab die Dieshots nebeneinander vorliegen und manuell übereinander gelegt. Vllt hab ich dann beim verschieben die Größe verändert (es war immerhin sehr früh:)). Muss ich noch mal prüfen.
 
Also ich wär bereit für den GK110! Dieses Jahr wird da aber wohl nichts mehr kommen....also wann? März Cebit natürlich, wie immer!
 
aus dem CB_forum

Ich habe mit einem Techniker von EVGA erst kürzlich bei einer Präsentation in Berlin gesprochen und der ist besorgt, dass GK110 eventuell erst auch im Sommer nächsten Jahres aufschlagen könnte.

auch, wenn wahrscheinlich nix dran ist: aber es wäre schon amüsant. :popcorn:
 
Das wäre...bitter. Ob er GK110 den Chip oder die darauf basierenden Geforcekarten meinte?
 
Bin gespannt AMDs Sea Island hat ja schon sein Tape Out hinter sich da wird AMD warscheinlich wieder von der Zeit her die Nase vorn habe.
Am schönsten wäre wenn der GK110 jetzt schon im Herbst kommen würde.
 
Zuletzt bearbeitet:
GK110 hatte meines Wissens nach den Tape Out vor der Sea Islands Generation, nämlich im März.
 
boxleitnerb ja mir war auch so hoffentlich wird das warten auf den GK mit 50% mehrleistung in Games belohnt.
 
Wenn die bei GK110 nicht an der Leistungsaufnahme arbeiten.... GF100, die zweite. :wink:
Ergo toppt alles am Markt, aber auch nur wieder zu Lasten des Stromverbrauchs.
 
Das wäre...bitter. Ob er GK110 den Chip oder die darauf basierenden Geforcekarten meinte?

Wohl eher die Geforce Karten. Zum einen hta EVGA mit dem Profimarkt nix zu tun und zum anderen ist Tesla K20 fest für dieses Jahr angekündigt. Es gibt ja auch die Verträge für die Großrechner.

Bin gespannt AMDs Sea Island hat ja schon sein Tape Out hinter sich da wird AMD warscheinlich wieder von der Zeit her die Nase vorn habe.
Am schönsten wäre wenn der GK110 jetzt schon im Herbst kommen würde.

Ich denke mal auch das AMD dieses Jahr in Front bleiben wird.

Wenn die bei GK110 nicht an der Leistungsaufnahme arbeiten.... GF100, die zweite. :wink:
Ergo toppt alles am Markt, aber auch nur wieder zu Lasten des Stromverbrauchs.

Das selbe Problem wird nicht nur Nvidia haben, da auch AMD wohl wieder große Chips fertigen wird. Vergleicht man die bisherigen Architekturen scheint Kepler effizienter zu Werke zu gehen, ob sich das mit Sea Island wieder ändert bleibt offen. Dank Turbo etc. werden wir aber wohl keine Karten mehr sehen die irgendwo in den Leistungsaufnahmerausch kommen.
 
Also 300W TDP wären meine Schmerzgrenze. Das wäre noch ok, WENN GF110*180-200% rauskommt. Im Schnitt. G80 hat ja auch die Leistungsaufnahme erhöht, dafür ordentlich was geleistet, Da hat auch keiner gemeckert.
 
Also 300W TDP wären meine Schmerzgrenze. Das wäre noch ok, WENN GF110*180-200% rauskommt. Im Schnitt. G80 hat ja auch die Leistungsaufnahme erhöht, dafür ordentlich was geleistet, Da hat auch keiner gemeckert.

300 Watt wird mit ziemlicher Sicherheit die NV-Obergrenze sein. Wenn sich der Chip gut übertakten lassen sollte werden die Hersteller schon was nachliefern.

Mir ist das Latte, hauptsache ich merk einen Performanceschub zum meinen GTX580 SLI.

Wird bei ner Singlekarte dann wohl eher auf ähnliche Performance ohne MGPU-Nachteile hinauslaufen ;)
 
Wenn die Leistung stimmt ist mir der Verbrauch total egal.
Wakkü drauf und noch mehr Verbrauch und Leistung rauskitzeln.:)
 
300 Watt wird mit ziemlicher Sicherheit die NV-Obergrenze sein. Wenn sich der Chip gut übertakten lassen sollte werden die Hersteller schon was nachliefern.



Wird bei ner Singlekarte dann wohl eher auf ähnliche Performance ohne MGPU-Nachteile hinauslaufen ;)

Das glaub ich noch nicht das der GK110 so performt wie zwei GTX580.
Vielleicht wie ne GTX590.
 
Es ist mit Sicherheit mehr. Die 590 war ja ziemlich beschnitten und nur ca. 55% schneller als eine 580. Schon GK104 schafft 30-35%. Selbst wenn wir pessimistische weitere 30% auf GK104 annehmen, kommt man auf 170%.
 
Zuletzt bearbeitet:


Die GTX590 ist ja wirklich lahm :fresse:
Ich dachte immer die ist so ca. 70% schneller wie eine GTX580...
 
Zuletzt bearbeitet:
50%, passt doch. Da ist schon teilweise CPU-Limit dabei oder ein suboptimales SLI-Profil, das zieht das Rating runter. Von der reinen Rechenleistung liegt die Karte knapp 60% über der 580, da landet sie auch, wenn man sie lässt (eine Seite weiter, SSAA-Benchmarks).
 
Wohl eher die Geforce Karten. Zum einen hta EVGA mit dem Profimarkt nix zu tun und zum anderen ist Tesla K20 fest für dieses Jahr angekündigt. Es gibt ja auch die Verträge für die Großrechner.

nVidia hat das Problem zwei Märkte bedienen zu wollen/müssen. AMD nicht. TSMC hat eine totale Überflutung des 28nm-Prozesses. Allein die Tatsache dass Tegra3 in 40nm gefertigt wird obwohl er für 28nm vorgsehen ist/war zeigt ja in welcher Lage wir uns hier befinden. Es wird durch aus Q1-Q2 2013. Das ist allein den Kapazitäten TSMCs geschuldet. Wenn mich meine Infos die im Hirn geistern nicht täuschen ist Ende 2013 eine weitere 28nm-Halle fertig. Die soll den output afaik um 1/3 steigern.

LG Hübie

Edit: CB hat heute eine nette News verfasst, welche an unserem Thema kratzt: http://www.computerbase.de/news/2012-07/tsmc-vermeldet-umsatzsteigerung-von-knapp-16-prozent/ *offtopic-light* so zu sagen :)
 
Zuletzt bearbeitet:
Die neue Fab 15 soll ab diesem Quartal dafür sorgen, dass die Gesamtkapazität weiter deutlich ausgebaut wird.

sollte die Produktion dort nicht schon längst in Gange sein, oder schmeiße ich das jetzt mit einer umstruktuierung durcheinander weshalb dort Produktionsstillstand war ...
 
Das war im Zuge der Erweiterung. Aber da müsste ich jetzt auch noch mal nachlesen ;)
 
Eigentlich ja ziemlich günstig! Wenn man bedenkt, dass die stärkste neue Firepro bei 3999 liegt.
 
Da ist der Streuner^^



Ich hab mal bisschen gegoogelt, man findet aber bis jetzt absolut nichts zu den Taktraten.
Aber schon mal schön das die die Stromanschlüsse soplatziert haben, viel besser als dieser Turm der GTX680.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh