nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
TDP 240W bei über 1000mHZ Turbotakt....wie haben die das denn hinbekommen ?
Da bliebe ja immernoch Spielraum
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn dem so ist wie war das noch mit um die 1200 MHZ und so.:fresse:
Ja irgend wie wie wissen wir alles und auch nichts.:rofl:
 
Zuletzt bearbeitet:
Spannung geht in erster Näherung quadratisch ein, Takt linear. Leckströme und sonstigen shit vernachlässigen wir.
 
Bla bla ihr mit eurem Linial und Quadrat abwarten der GK104 und auch der Thaiti zeigen doch schon gut das die Architekturen sehr dreh freudig sind.
Höhrt auf zu rechnen das ging schon so oft in die Hose.:fresse:
 
Zuletzt bearbeitet:
ja, aber wie haben die das geschafft die TDP der Tesla bei der Leistungssteigerung gleich zu halten !?
Oben hat fdsonne das ja schön vorgerechnet. Demnach haben die ganz schöne Arbeit geleistet. Dann haben wir Taktmäßig ja fast gleiches Level zur GTX680.
Bei der GTX680 waren es ein Boost von 52MHz. Mag sein das der diesmal was höher ausfällt, denke aber nicht das der Grundtakt hier dann geringer als 950 liegen dürfte.
Es sind zwar nur 14 anstatt der erhofften SMX, ich denke aber auch damit lässt sich leben. Vielleicht lassen die sich ja iwie frei schalten :fresse:
 
Dachte ich auch kurz, ich glaube aber eher da steht:

Takt: z.B. 800MHz
Boost Clock: 100MHz
 
Spannung geht in erster Näherung quadratisch ein, Takt linear. Leckströme und sonstigen shit vernachlässigen wir.

erzähl das scully, der hier versucht neue Wissenschaftsgeschichte zu schreiben, und bewährte Theorien sowie Praxisbelege als "falsch" bzw. "untreffend" darzustellen...
Mir ist das bewusst. Aber warscheinlich kann NV doch zaubern :fresse:
 
Spielverderber :d
 
Man bin ich wieder heiß! Könnte sogar noch Überraschungen geben, sauber :)
Aber ne Dual-Karte wäre das offizielle Ende. Dann beiss ich mir sonst wohin :(. Danach sieht es aber zum Glück nun wirklich nicht aus.
Nur noch en paar Tage dann platzt die dicke Bombe! Preislich hab ich weiterhin Angst vor festen 900€+ ^^. 800 würden reichen:o
 
Die eiern doch schon lang genug auf dem GK110 rum erinnert ihr euch an GTX480 und die 580 was auf einmal nach einem knappen Jahr ging.
Die Tesla karten müssen auch ganz anders knechten als so eine Desktop Karte und die müssen auch ein paar Jahre durchhalten.

Aber wie gesagt mal schauen ob sich das am Ende doch nicht als fake herauskristallisiert.
 
Zuletzt bearbeitet:
ja, aber wie haben die das geschafft die TDP der Tesla bei der Leistungssteigerung gleich zu halten !?
Oben hat fdsonne das ja schön vorgerechnet. Demnach haben die ganz schöne Arbeit geleistet. Dann haben wir Taktmäßig ja fast gleiches Level zur GTX680.
Bei der GTX680 waren es ein Boost von 52MHz. Mag sein das der diesmal was höher ausfällt, denke aber nicht das der Grundtakt hier dann geringer als 950 liegen dürfte.
Es sind zwar nur 14 anstatt der erhofften SMX, ich denke aber auch damit lässt sich leben. Vielleicht lassen die sich ja iwie frei schalten :fresse:

Weil die TDP Angaben nicht vergleichbar sind.
 
Weil die TDP Angaben nicht vergleichbar sind.

Und für K5000 mit ner nicht vergleichbaren TDP Angabe passt es auf einmal?
Ja klar, träum weiter...
Aber wie so oft wird es wieder so sein, das NV den heiligen Gral der Halbleiterfertigung ausgebuddelt hat. ;)
 
Zuletzt bearbeitet:
Jo fdsonne hingen der normal takt weist 3 Stellen auf.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ich hätte da eine Frage, wieso hat jetzt der Big Kepler "nur" 2688 cuda cores und nicht 3072?
 
Und für K5000 mit ner nicht vergleichbaren TDP Angabe passt es auf einmal?
Ja klar, träum weiter...
Aber wie so oft wird es wieder so sein, das NV den heiligen Gral der Halbleiterfertigung ausgebuddelt hat. ;)

Wie oft muss man eigentlich Dinge immer wieder sagen?
TDP ist wertlos, die Angabe vom Hersteller selbst definiert wird. Die GTX480 hatte eine TDP von 25x Watt bei 45% mehr Rechenleistung gegenüber M2050 mit 225 Watt.

Du willst also jetzt ganz klar behaupten, dass die Geforce-Karte plötzlich um ein 31% besseres Perf/Watt sich verbessert hat? Yeah...

Ich hätte da eine Frage, wieso hat jetzt der Big Kepler "nur" 2688 cuda cores und nicht 3072?

GK110 hat 15 SMX, macht ingesamt 2880 Cuda Cores. Laut der Folie sind nur 14 SMX aktiv, was 2688 Cores macht.
 
Zuletzt bearbeitet:
Quadsmils
Weil es nicht 2× GK104 ist und wir immer noch im 28NM Prozess rumdümpeln.
 
Zuletzt bearbeitet:
Aber wie gesagt mal schauen ob sich das am Ende doch nicht als fake herauskristallisiert.

sollte das so stimmen glaube ich fest an den fetten Performancegewinn

---------- Post added at 16:41 ---------- Previous post was at 16:38 ----------

Ich hätte da eine Frage, wieso hat jetzt der Big Kepler "nur" 2688 cuda cores und nicht 3072?

3072 standen nie zur Debatte. 2880 und 15SMX bei Vollausbau, nun 14SMX und 2688
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hm..
Hoffentlich bessert Nvidia an den Mr's noch nach, sonst wäre ein Sli System eher uninteressant aber hängt ja von der Leistung eines Titanen ab.

---------- Post added at 16:43 ---------- Previous post was at 16:42 ----------

Vollausbau nimm ich an wird wegen der daraus resultierenden Abwärme nicht realisierbar sein, oder?
 
Ich wünsche mir ja auch das absolut machbare wie es am Ende kommt müssen wir abwarten Grinsemann.:)
Hoffe das es mal wieder so ein richtiger Killer wird oder die Leistung dann einiger massen zum Preis steht sonst habe ich auch keine Freude daran.
Geduld heißt es jetzt.
Quadsmile
Ehr ist das Problem heile Chips aus den Wafern zu bekommen den Verbrauch könnte man über Takt und Spannung regeln.
 
Zuletzt bearbeitet:
Du willst also jetzt ganz klar behaupten, dass die Geforce-Karte plötzlich um ein 31% besseres Perf/Watt sich verbessert hat? Yeah...

Ich? Wieso sollte ich das?
Ich sage seit Anfang an, das da niemand zaubern kann...

Sieh es doch mal nüchtern... K20 hat 225W, K20X hat 235W. Wieso zur verdammten Hölle sollte NV hier 10W drauf packen? Nenn mir einen triftigen Grund, wo doch seit Jahren im Profibereich die 225W Einstufung als Richtwert angesehen werden?
Es hat wohl ganz triviale Gründe, warum man seitens NV da aufgestockt hat.

Und nun willst du mir erklären, das ein und die gleiche GPU auf einmal aus 240W, also poplige 5W mehr im Turbo 900 oder 1000 MHz holen kann?
Um es mit deinen Worten zu sagen, Yeah...
-> DER Gral ist gefunden ;)
 
Die eiern doch schon lang genug auf dem GK110 rum erinnert ihr euch an GTX480 und die 580 was auf einmal nach einem knappen Jahr ging.
Die Tesla karten müssen auch ganz anders knechten als so eine Desktop Karte und die müssen auch ein paar Jahre durchhalten.

Aber wie gesagt mal schauen ob sich das am Ende doch nicht als fake herauskristallisiert.

meine meinung ist ja auch, der GF100 musste einfach raus wegen der konkurrenz, obwohl er trotz ewig verspätung immernoch nicht wirklich fertig war(in der hinsicht das sie ihn noch nicht optimiert hatten inkl miesen yields), das war er ein jahr später dann als GF110 und bessere Karte AKA GTX 580

nur hier vergisst ihr hat nvidia keinerlei druck, der GK110 wird schon eine ganze weile gefertigt, die yields dürften mittlerweile gut sein. Von daher gebe ich die Hoffnung auf 15 smx noch nicht auf, lieber 15 smx und niedrigerer takt, den takt kann man hochtakten ,smx herbeizaubern bzw aktivieren, wohl weniger..
 
Wer möchte den keinen Vollausbau ich glaube niemand nur scheint alles darauf hin zu deuten das es so nicht kommt.
Was ehrlich gesagt sehr schade ist aber auch kein Untergang wenn am Ende die Performance passt.

So ein 35% schnelleres Ding würde ich mir nie für 900 Mücken in Gehäuse drehen.
 
Zuletzt bearbeitet:
Ich? Wieso sollte ich das?
Ich sage seit Anfang an, das da niemand zaubern kann...

Nicht die Wahrheit sagen, hat auch nichts mit Zaubern zu tun.

Sieh es doch mal nüchtern... K20 hat 225W, K20X hat 235W. Wieso zur verdammten Hölle sollte NV hier 10W drauf packen? Nenn mir einen triftigen Grund, wo doch seit Jahren im Profibereich die 225W Einstufung als Richtwert angesehen werden?
Es hat wohl ganz triviale Gründe, warum man seitens NV da aufgestockt hat.

Perf/Watt der K20x Karte ist besser als von K20. Das zeigt, dass der erhöhte Stromverbrauch alleinig durch mehr Bandbreite und Speicher zustande kam.

Und nun willst du mir erklären, das ein und die gleiche GPU auf einmal aus 240W, also poplige 5W mehr im Turbo 900 oder 1000 MHz holen kann?
Um es mit deinen Worten zu sagen, Yeah...
-> DER Gral ist gefunden ;)

Wie so oft noch:
K20 und K20x werden passiv gekühlt und sind auf die Kühlung der Serversysteme angewiesen. Die dort angegebene TDP ist der Maximalverbrauch.
TITAN wird aktiv gekühlt. nVidia kann also die Kühlung auf 350 Watt auslegen, aber trotzdem eine TDP von 240 Watt angeben, die jedoch alleinig nur den Durchschnittsverbrauch aus 6 Spielen widerspiegelt.

Ehrlich, sollte doch garnicht so schwer sein, oder?
 
@fdsonne

Wenn es alles Nullen sind passt es mMn nicht. Langsam werd ich auch hibbelig :d


 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

naja 2688 @ 900-1000 sind 65-75% der 690 und das ist ok
 
Perf/Watt der K20x Karte ist besser als von K20. Das zeigt, dass der erhöhte Stromverbrauch alleinig durch mehr Bandbreite und Speicher zustande kam.
Zwischen 705MHz und 732MHz sind alleine schon fast 5%.
Wo kommt also die Effizienz her? -> es sieht in der Tat so aus, das K20X effizienter als K20 non X ist. Dazu der mehr VRAM und das breitere SI. Das ist also alles bekannt.

Nur ihr erwartet hier auf einmal ne Gk110 GPU, die noch viel weit mehr Effizienter zu Gk110 auf K20X Basis ist.

Denn am VRAM dreht man offenbar nicht zurück, schlimmer noch, der Takt wird spekuliert gar höher ausfallen als bei den Tesla Modellen. ~1000MHz im Turboboost heist 36,6% mehr wie K20X.
Wenn bei Tesla K20X TDP = möglicher Verbrauch ist, heist das gleichsam auch, das du ne GK110 GPU in die selbe Verbrauchsregion bekommst. Ob das Spiele schaffen, sei mal dahingestell, spielt aber auch keine Rolle.

Somit bleibt es genau bei dem, was ich sagte. Effektive ~180W für GK104 als 680er zu spekulierten ~240W für GK110 = 33,3% mehr Verlustleistung.
Steigt dabei aber die FPS Leistung um aktuell spekulierte 50-60%, verdoppelt sich die Effizienz nahezu. -> das ist der Heilige Gral, gezaubert oder whatever.
Oder wie erklärst du mir das sonst?

Und die Rechnung kannst du mit beliebiger Basis ausführen. Sei es GK104 als 680er. Sei es GK104 als K5000 (Profimarkt), oder sei es selbst erhältliche K20/K20X GK110 GPUs mit eben niedrigem Takt. Die Energieeffizienz steigt in allen Fällen massivst an. -> und das ist in meinen Augen schon ziemlich gezaubert, wenn sich das bewahrheiten soll.

@fdsonne

Wenn es alles Nullen sind passt es mMn nicht.

Wenn du aber nur zwei rein machst, ist die Lücke viel viel zu groß.
Die Lücke oben beim Baseclock ist ja fix. Und die Schritart/Größe auch...
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

ja wie auch immer
Geld für 4 Titanen und ein 900D nebst Wakü ist vorhanden:d

aber dann kann ich Scheidung einreichen und Unterhalt zahlen ^^

also 1 wirds, hoffe die Wakühler sind zeitnah erhältlich
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh