nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Dann stimmt der Benchmark einfach nicht oder die Treiber sind noch nicht final - wobei ich mir letzteres nur schwer vorstellen kann.

ja der lief auch auf 837 MHz vs 1000 der 680
hau mal auf 2688 Shader 170 MHz drauf und schau ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Skalierung bei Parallelisierung hat eben auch ihre Grenzen.

Bei Grafik? Eher nicht. 768 auf 1536 Einheiten skaliert bei Nvidia absolut perfekt, da kann ich mir nicht vorstellen, dass das bei 2688 so krass einbricht, dass satte 20% fehlen.

Die CPU war aber nichtmal übertaktet. Evtl. CPU-Limit und man hat das absichtlich so gemacht, um die Leute bis zum Launch zu verwirren :d
 
Zuletzt bearbeitet:
Dann stimmt der Benchmark einfach nicht oder die Treiber sind noch nicht final - wobei ich mir letzteres nur schwer vorstellen kann.

Ich merke schon, manche sehen die Felle schon wegschwimmen :fresse:
Treiber oder Bug hin oder her. Wieso zur derdammten Hölle sollte NV so eine Folie Präsentieren? Das macht keinen Sinn. Zu Fermi Zeiten oder auch GK104 Zeiten hat man genau die Szenen gepickt, die deutlich rausstachen. Speziell bei Fermi mit der extremen Tesselationsleistung und Sprüngen von 2x+ auf die AMD GPUs.

~30% auf ner wohl authentischen NV eigenen Folie ist mehr als mau :(
 
hmm es bleibt also spannend bis donnerstag so ein mist das ist echt noch lange wenn man sich auf montag eingestellt hat.
 
30% machen eben auch kein Sinn. Alleine, wenn man bei der GTX680 den Speichertakt auf 50% erhöht, erreicht man schon mit 5-10% deutlich mehr Leistung.

Sollten es nur 30% sein, nehme ich mir die 800€ und kaufe was besserer. Pff, 30%.
 
Btw auch komisch:

Warum beschneidet Nvidia die Karte nicht bei der DP-Leistung? Das wirkt echt so, als hätte man eine K20X genommen, nen anderen Kühler draufgeklatscht, übertaktet, paar Spielereien in den Treiber geschrieben und voila, fertig ist Titan.

 
Zuletzt bearbeitet:
Ich merke schon, manche sehen die Felle schon wegschwimmen :fresse:

Mach dir mal keine Sorgen um andere Leutes Fälle

Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups

Das u das was darauf folgt wird man noch zu Gesicht bekommen...

Ich erinner dich nochmal an den lachenden Panda
004249ltnyt6rlsx4s56ff.gif
 
Zuletzt bearbeitet:
Vidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hofentlich ist der screen Müll .
38 FPS VS.48 FPS bei Crysis3 das kann doch nur ein schlechter scherz sein das habe ich mit meiner @1250 gehabt aber so was von locker ehr um die 50 FPS.
Hoffe das da was nicht stimmt Treiber problem oder so was vielleicht.

Das können auch min fps sein!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
ja der lief auch auf 837 MHz vs 1000 der 680
hau mal auf 2688 Shader 170 MHz drauf und schau ;)

Wenn OC, dann bei beiden. Die 680er macht auch 170+ ;) und das spielend ;)

Btw auch komisch:

Warum beschneidet Nvidia die Karte nicht bei der DP-Leistung? Das wirkt echt so, als hätte man eine K20X genommen, nen anderen Kühler draufgeklatscht, übertaktet, paar Spielereien in den Treiber geschrieben und voila, fertig ist Titan.

Ist das schon 100% raus?
Weil ne Softwaresperre mit Geforce Treibern wäre ja quasi bis zum Releasetag noch baubar.

Wobei 1,3 zu 4,5 nicht rechnerisch passt. Das ist nicht 3/1 wie bei K20(X)...

Mach dir mal keine Sorgen um andere Leutes Fälle

es ging nicht um Fälle, sondern um Felle ;)
und das ganze OC zeugs interessiert mich nicht primär. Zumindest nicht das Wakü Zeugs... Lukü ftw :fresse:
 
Zuletzt bearbeitet:
Na ja, je nach dem was dabei rum kommt, glaub die meisten werden bei 30% mehr Leistung zur GTX 680 den Bestellbutton nicht mal nah kommen. Zumindest schau es so bei mir aus. Aber warten wir es erstmal ab, vielleicht liegt es an dem Spielen oder ein Treiber wer weis das heute schon...
 
Wenn OC, dann bei beiden. Die 680er macht auch 170+ ;) und das spielend ;)

ja sonne

es wurde Titan @ 837 vs 680 @ 1000 gebencht (vermutlich)

gleiche Architektur, weniger Takt - kannst folgen?
 
ja der lief auch auf 837 MHz vs 1000 der 680
Argh:hmm: Selbst bei 837 gegen 1006 MHz müsste Titan noch um die 50 % schneller sein, da Titan eben weiterhin rund 45% mehr Rechenleistung/ 50% mehr Bandbreite besitzt... Bei selbem GPU-Takt müsste da was um die 60-65% mehr Leistung rauskommen...

30% machen eben auch kein Sinn. Alleine, wenn man bei der GTX680 den Speichertakt auf 50% erhöht, erreicht man schon mit 5-10% deutlich mehr Leistung.
Selbst + 16% Mehr Speichertakt und daraus auch mehr Bandbreite reichen aus, um die 680 um rund 7% zu beschleunigen. +50% mehr Bandbreite und ein GK104 wäre auch um die 20% schneller:d
 
Zuletzt bearbeitet:
@box
möglich, aber von 1,5 auf 1,3 abgerutscht?

Auffallend ist, 1,3 sind fast genau die 732MHz von K20X ;)
 
ja sonne

es wurde Titan @ 837 vs 680 @ 1000 gebencht (vermutlich)

gleiche Architektur, weniger Takt - kannst folgen?

Könnte ich, will ich aber nicht...
Weil es keinen macht Titan@OC vs. 680er ohne OC zu vergleichen.
Und 837MHz scheinen aktuell der Baseclock von Titan, genau so wie 1006MHz der Baseclock der 680er ist.

Entweder beides OC -> OK
Oder beides stock -> OK

Alles andere ist Bullshit hoch 3 ;)
 
So wie es aussieht, wird nVidia den Boost einschränken (maximal 876MHz) und den Leuten eben das geben, was sie gerne wollen:
Übertaktung und Overvolting.

Selbst wenn dies nur Täuschung ist, da man nun per Stock weniger Leistung erhält. :lol:
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Donnerstag wissen wir mehr!!!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
So wie es aussieht, wird nVidia den Boost einschränken (maximal 876MHz) und den Leuten eben das geben, was sie gerne wollen:
Übertaktung und Overvolting.

Selbst wenn dies nur Täuschung ist, da man nun per Stock weniger Leistung erhält. :lol:

Man würde zumindest der negativ Presse in Form von exorbitantem Verbrauch aus dem Weg gehen...
Was die Leute dann drauf OCen ist ja dann deren Bier.
Würde ich persönlich gut heißen muss ich sagen...

Und wenn der Kühler dazu noch taugt, wäre das auch nicht verkehrt. Denn danach schaut es aktuell aus.
 
Wollt einmal fragen, wie man zu dem Schluss kommt, dass so eine starke Anhebung der Einheiten zu 100% skaliert? War in der Vergangenheit auch so, dass ab einer bestimmten Anzahl die Skalierung mau wird...
 
Man würde zumindest der negativ Presse in Form von exorbitantem Verbrauch aus dem Weg gehen...
Was die Leute dann drauf OCen ist ja dann deren Bier.
Würde ich persönlich gut heißen muss ich sagen...

Und wenn der Kühler dazu noch taugt, wäre das auch nicht verkehrt. Denn danach schaut es aktuell aus.

Ich nicht.
OC ist nie garantiert. Je weniger Leistung per Stock an liegt, umso weniger erhält man auch unter Garantie.

Schaut man sich an, dass die GTX680 ohne Boost bei 1000MHz mit 1V wohl weniger als 150 Watt benötigt, hätte nVidia viel Luft nach oben.
 
Hmmm, anfangs voller Euphorie für den Titan, jetzt eher net mehr. Grund: Das Ding kostet so viel wie ne 690 bietet aber bisschen mehr als die Hälfte von deren Leistung:heul:

Habe auf einen 2. G80 gehofft. Vllt. richtets ja Maxwell wieder...
 
Wollt einmal fragen, wie man zu dem Schluss kommt, dass so eine starke Anhebung der Einheiten zu 100% skaliert? War in der Vergangenheit auch so, dass ab einer bestimmten Anzahl die Skalierung mau wird...

Bei Kepler nicht, der skaliert perfekt. Siehe den Vergleich 680 vs 650 Ti. 230% der Performance durch exakt doppelt soviele Einheiten und 15% mehr Takt: 2*1.15=2.3=230%
 
Nein Dancop das sind Average habe mich intensiv mit der Beta Crysis 3 Beschäftigt und die Balken über mir zeigen nun das selbe Horror Szenario meine Herren.
Nicht für 800 Euro mit 650 könnte man eventuell mit mir reden bei knapp 30 %
 
Zuletzt bearbeitet:
Bei Kepler nicht, der skaliert perfekt. Siehe den Vergleich 680 vs 650 Ti. 230% der Performance durch exakt doppelt soviele Einheiten und 15% mehr Takt: 2*1.15=2.3=230%

Ja, schon! Aber das ist noch eine verhältnismäßig kleine Anzahl. Vielleicht sind 2k die magische Grenze und ab da fällt es ab? Ich weiß zwar nicht, wie es bei nvda war, aber wenn man sich bei ATI mal die Entwicklung von 3870 zu 4870 zu 5870 anschaut (gleiche Architektur), flacht die Performance Steigerung immer weiter ab...
 
Wenn die Ergebnisse von Egypthardware stimmen, passt die Skalierung doch auch, da sind öfters ca. 50%. Der Rest wird zumindest ein partielles CPU-Limit sein, ist ja nur poplige 1920x1200.
 
Zuletzt bearbeitet:
Wenn das so stimmt und die trotzdem 900 Euros verlangen...na dann gute Nacht!
 
Ja, schon! Aber das ist noch eine verhältnismäßig kleine Anzahl. Vielleicht sind 2k die magische Grenze und ab da fällt es ab? Ich weiß zwar nicht, wie es bei nvda war, aber wenn man sich bei ATI mal die Entwicklung von 3870 zu 4870 zu 5870 anschaut (gleiche Architektur), flacht die Performance Steigerung immer weiter ab...

Bei AMD spricht man auch von ner Frontend limitation.
Bei NV ist das leicht anders gelöst, da ist das Frontend vereinfacht gesagt mit an den SMX gekoppelt. Somit erhöht sich die Leistung des Frontends wenn man so will, auch direkt durch die Anzahl der Shadercluster. Quasi ein dynamisches Gebilde. Bei AMD eher statischer Natur.
1:1 vergleichen geht da nicht...

Aber im Grunde hast du recht, Einheiten skalieren irgendwann mit der Anzahl nicht mehr wirklich gut. Sieht man auch sehr schön an CPUs. Wo einfach irgendwann schluss ist. Bzw. man schon die Anzahl überverhältnismäßig stark erhöhen muss, damit auch mehr Leistung bei rum kommt. Aber auch dies ist nicht 100% vergleichbar.

Zumindest ist GK110 als erstes im Tesla Markt erschienen. Man möchte ausgehen, das ne GPU, die im GPGPU Markt erscheint schon halbwegs ausgewogen designt ist ;)
 
Liegt doch im perfekten Rahmen zur letzten generation:
Dort kostete die GTX580 auch 100% mehr bei gerademal 40-50% mehr Leistung gegenüber der GTX560TI.


Bei AMD spricht man auch von ner Frontend limitation.
Aber im Grunde hast du recht, Einheiten skalieren irgendwann mit der Anzahl nicht mehr wirklich gut. Sieht man auch sehr schön an CPUs. Wo einfach irgendwann schluss ist. Bzw. man schon die Anzahl überverhältnismäßig stark erhöhen muss, damit auch mehr Leistung bei rum kommt. Aber auch dies ist nicht 100% vergleichbar.

Das Problem ist vielmehr, dass eine Skalierung eben nicht überall stattfindet. Folgendes skaliert nicht mit:
Rasterizer, ROPs, Pixelfüllrate (gekoppelt an Rasterizer) und Bandbreite.
Z.B. hat TITAN mit Boost gerademal 26% mehr Rasteroperationen als die GTX680, was sich bei MSAA negativ auswirken kann.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh