nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Mit 876MHz als Boost hat man genau 47% mehr Rechenleistung als die GTX680 mot Boost. Das gekoppelt mit der 50% höheren Bandbreite sollte eigentlich immer in 50% mehr Leistung resultieren.

Nicht vergessen: Die GTX680 ist zwischen 5-10% bandbreitenlimitiert. Alleine durch mehr Bandbreite erhält man bei der GTX680 schon mehr Leistung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GTX580 > GTX680 = 35%
GTX680 > Titan = 50%
1.35x1.5=2

Titan sollte doppelt so schnell wie eine GTX580 werden (vorrausgesetzt Titan ist 50% schneller als die GTX680).

Man darf auch nie vergessen das SLI nicht immer 100% skaliert. Meist 80-90% somit wäre Titan wenn es denn 50% schneller wäre als 680 ca 1,1 - 1,2 x schneller als GTX 580er SLI (ich werde wohl auch falls das der Fall ist) von GTX580er SLI auf Titan umsteigen zudem zieht eine Titan weniger Saft und keine MR (wobei ich keine merke um ehrlich zu sein). Aber VRAM geht den 580er öfters mal aus.
 
Den Unterschied von SLI auf Titan wirste sofort merken, die min FPS sind bei Titan viel höher und stabiler als dein SLI :)
 
Mit 876MHz als Boost hat man genau 47% mehr Rechenleistung als die GTX680 mot Boost. Das gekoppelt mit der 50% höheren Bandbreite sollte eigentlich immer in 50% mehr Leistung resultieren.

Nicht vergessen: Die GTX680 ist zwischen 5-10% bandbreitenlimitiert. Alleine durch mehr Bandbreite erhält man bei der GTX680 schon mehr Leistung.

Was ist mit Pixelfüllrate?
 
  • 28 nm GK110-based ASIC
  • 2,688 CUDA cores ("Kepler" micro-architecture)
  • 224 TMUs, 48 ROPs
  • 384-bit GDDR5 memory interface
  • 6 GB memory
  • Clocks o 837 MHz core
    o 878 MHz maximum GPU Boost
    o 6008 MHz memory
  • 250W board power

macht bei mir nur 41mhz boost
 
Den Unterschied von SLI auf Titan wirste sofort merken, die min FPS sind bei Titan viel höher und stabiler als dein SLI :)

Wie gesagt; ich hoffe grade in hohen Auflösung auf mehr Power und ein ruhigeres Gameplay. Ausserdem sollten sich die 6GB RAM durchaus positiv bemerkbar machen.
Nebenbei; Boost ist Käse, zumindest in der Größe ;)
 
Evtl. der Durchschnittsboost und real deutlich höher. Vielleicht hat man da was falsch übersetzt. 5% Boost könnten sie sich in den Allerwehrtesten schieben, das lohnt sich nicht.
 
Evtl. der Durchschnittsboost und real deutlich höher. Vielleicht hat man da was falsch übersetzt. 5% Boost könnten sie sich in den Allerwehrtesten schieben, das lohnt sich nicht.

Die 680er hat auch nicht mehr ;)
1006 auf 1058...

Die Frage ist, ab welcher Temp knickt der Spaß ein. Kürzeste Benchszenen belasten das Teil nur so extrem kurz, das da die Temps wohl gar nicht groß anfangen sich aufzuschaukeln. Das wird aber bei minutenlangen Games passieren, wenn nicht gar stundenlangen Games am Stück.
Laut einigen Usern hier im Forum schafft die durchschnitts 680er auch nur ihren default Turbo über lange Zeit. Denn die Temps werden mit der Zeit so hoch, das der anfänglich noch max. Turbo von teils 11xx MHz immer weiter runter regelt.

Das wird bei der Titan GPU mit größter Warscheinlichkeit analog laufen. Wobei ich schon anmerkte, das eventuell das Temp Limit von 70°C für den max. Turbo weiter rauf muss. Denn das zu halten dürfte bei ~250W Verbrauch schon sportlich werden für den Kühlkörper.
Die 580er schafft laut CB ne Lasttemp von ~86°C. Jeweils alles default. Wenn das der Fall wäre, und das Turbo Limit bleibt bei 70°C, geht unter Luft dem Teil wohl deutlich schneller die Puste aus, als der 680er.
 
Den Unterschied von SLI auf Titan wirste sofort merken, die min FPS sind bei Titan viel höher und stabiler als dein SLI :)

ob das auch für nen 680 SLI gilt ? :)
Ich will jetzt endlich Fakten sehen @ 5760x1080 :grrr: :p
 
du redest von 40 NM wir sind bei 28 angekommen ! das sind ganz andere welten ausserdem hat die 680 nur nen billigen heatpipe kühler und nen winzigen radiallüfter bekommen lt den Titan bildern ist es nen recht großer vapor chamber und nen dicker radial da siht das ganze schon was anders aus !
 
ob das auch für nen 680 SLI gilt ? :)
Nur, wenn der Titan die 85% der 690er schafft. Dann könnte man durchaus etwas merken bei 680 SLI. Aber nicht viel ;)
680er ist ja im Prinzip nicht viel schneller als eine 580er (bei gleichem Takt).
 
Zuletzt bearbeitet:
du redest von 40 NM wir sind bei 28 angekommen ! das sind ganz andere welten ausserdem hat die 680 nur nen billigen heatpipe kühler und nen winzigen radiallüfter bekommen lt den Titan bildern ist es nen recht großer vapor chamber und nen dicker radial da siht das ganze schon was anders aus !

Ja und?
Wärmeabgabe ist eine Leistung, die in Watt angegeben werden kann bzw. wird.
Unter dem Vorwand, das bei PC Hardware idR fast vollständig die reingegebene Energie in Wärme umgesetzt wird (Detailverbesserungen an der Effizienz kann man durchaus unter den Tisch fallen lassen für ne Grobbetrachtung), steht eien 580er/480er mit ~240-250W Realverbrauch wohl dem Titan in nichts nach. Ob das nun 40nm, 28nm oder 180nm ist, vollkommen wurscht. 250W Heizleistung bleiben 250W Heizleistung.

Ergo hängt es alles am verwendeten Kühlkörper bzw. Kühlerkonstrukt.
Wenn du jetzt glaubst, das Teil wird flüsterleise und dabei noch deutlich effizienter gekühlt, als ne 580er, lass dir gesagt sein, dann irrst du gewaltig ;)
Der Kühlermarkt bewegt sich in Sachen Effizienz seit Jahren schon nur sehr sehr schleppend. Da wo Titan den Bildern zur Folge Vorteile hat, ist die scheinbar größere Kühlfläche.
Erwarten sollte man davon aber keinen Welten Unterschied.
 
Nur, wenn der Titan die 85% der 690er schafft. Dann könnte man durchaus etwas merken bei 680 SLI. Aber nicht viel ;)
680er ist ja im Prinzip nicht viel schneller als eine 580er (bei gleichem Takt).

nun, unter Wasser @ OC ist sicherlich was merkbar.
Ich stehe vor dem Entscheid meine beiden GTX680 2GB Karten gegen 3 GTX680 4GB zu tauschen oder erst eine Titan und im laufe der nächsten Monate mir ne 2. Titan zu gönnen.
Letzteres ist natürlich kosspieliger und EINE Titan müsste da schon genug rocken können @ 5760x1080 das überhaupt eingehen zu wollen. Genau DAS will ich jetzt wissen was ich machen soll. Das erklären mir aber wohl erst die Tests...also zackzack her damit ;)
 
Dann würde ich persönlich eher auf die Titan setzen (natürlich nur bei entsprechender Leistung). SLI skaliert ja recht gut, aber mehr als zwei Karten... da kann ich mich nicht mit dem Leistungsverlust / Den Problemen / dem Verbrauch anfreunden.
Dagegen spricht der Preis. Was mir schnuppe wäre, wenn ich ohnehin in diesen Regionen wildern würde. Aber mehr als 2 Karten kommen mir nicht in den Rechner. OK, gelogen, ich hatte mal eine G210 (die wildeste der wilden Bestien) unter Wasser mit meinen beiden 580ern verbaut. :d
 
Zuletzt bearbeitet:
nun, unter Wasser @ OC ist sicherlich was merkbar.
Ich stehe vor dem Entscheid meine beiden GTX680 2GB Karten gegen 3 GTX680 4GB zu tauschen oder erst eine Titan und im laufe der nächsten Monate mir ne 2. Titan zu gönnen.
Letzteres ist natürlich kosspieliger und EINE Titan müsste da schon genug rocken können @ 5760x1080 das überhaupt eingehen zu wollen. Genau DAS will ich jetzt wissen was ich machen soll. Das erklären mir aber wohl erst die Tests...also zackzack her damit ;)


Ja die Ergebnisse jucken mich auch vor allem 5760x1080 wobei ich 5760x1200 nutze, aber so groß ist der Unterscheid wohl auch nicht. Gibt leider nur wenige die genau das testen :(
 
ich denke die TITAN wird in den tests richtig rangenommen. in allen auflösungen und von allen seiten. :d
 
Diese Asus OC Version hält sich ja hartnäckig. Vielleicht liegt die bei 899 und die normale Version ist billiger? Ich hab irgendwo gelesen, dass Nvidia den Partnern bei Titan auch OC erlaubt.
 
ich denke die TITAN wird in den tests richtig rangenommen. in allen auflösungen und von allen seiten. :d

Ich denke die bei CB und PCGH werden sie schon mit SSAA testen.

---------- Post added at 14:37 ---------- Previous post was at 14:36 ----------

Diese Asus OC Version hält sich ja hartnäckig. Vielleicht liegt die bei 899 und die normale Version ist billiger? Ich hab irgendwo gelesen, dass Nvidia den Partnern bei Titan auch OC erlaubt.

Wäre super!
 
Naja, OC scheint ganz gut zu funktionieren. Vllt ist ja auch stock die Taktrate der GTX 680 drin. Wenn ja, könnte man per OC sicherlich um die 70-75% schneller als eine GTX 680 sein:d
 
Zuletzt bearbeitet:
Naja, Mehr Takt sollte wohl gut möglich sein. Vllt ist ja auch stock die Taktrate der GTX 680 drin. Wenn ja, könnte man per OC sicherlich um die 70-75% schneller als eine GTX 680 sein:d

OC gut und schön... Aber ich habe eher so das Gefühl, das dem Teil die Bandbreite sehr schnell ausgehen wird. Und wohl auch in Sachen VRAM OC nicht soooo viel drin sein wird.
Bei ~50% über ner 680er per default mit den 876MHz Boost + 3GHz VRAM Takt müsste man das Teil analog der 670 zu 680er Bandbreitenlimitierung mit gut und gerne 1150-1200MHz Takten. Denn um 1,75 fache 680er Leistung zu erreichen wären 1,5*1,167 nötig. Nur für diese 1,167 fache Leistung oben drauf, also der Schritt von 50% auf 75% wäre dann ca. 33% mehr Takt nochmals oben drauf nötig. -> warum sollte man sich das ans Bein binden? Zumal wohl der Verbrauch auch deutlich steigen würde. Denn 33% mehr Takt = 33% mehr Verbrauch.
250W x 1,33 = ~333W -> never!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh