nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Bin mal gespannt ob es auch ein paar Ergebnisse mit dem neuen Unigine Heaven 4.0 Benchmark gibt, würde mich dann schon mal interessieren. Naja, nächste Woche wissen wir mehr... und das ist noch so elend lange hin... :rolleyes:

cu
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja so kann man das aber nicht rechnen, höchstens veranschaulichen. Ausserdem sehen Kommas in Bytes immer sehr lustig aus. 8,2 bit mal 10 gleich 82 byte oder wie :d
Na ja aber wir wissen was du meinst ;)
 
hmm die 880 in der Folie sieht lecker aus
 
760 TI quasi der Ersatz für die 680er von heute

Nur das Release wirds derzeit nicht so eilig haben nach der AMD News

Falls das überhaupt so stimmt ist ne dubiose Quelle
 
Zuletzt bearbeitet:
Na ja so kann man das aber nicht rechnen, höchstens veranschaulichen. Ausserdem sehen Kommas in Bytes immer sehr lustig aus. 8,2 bit mal 10 gleich 82 byte oder wie :d
Na ja aber wir wissen was du meinst ;)

Deswegen sagte ich ja, die Rechnung ist unglücklich. Vor allem bei shared Caches, wo schon eine einzige ALU den Cache voll krachen könnte, wenn nur eine benutzt wäre und die Berechnung genügend Daten dort abgelegen würde.


Leider ist mir nicht bekannt, wie man die Cacheauslastung ala reale Cachebelegung bzw. realen Durchaus auf ner GPU ermittelt.
Bleibt somit bestenfalls ein theoretisches betrachten. Und wie so oft spielen Theorie und auch Praxis nicht immer mit den selben Spielzeugen :fresse:
Ich würde mir aus dem Cache keine Hoffnungen machen, da ich den Performancevorteil allein aus dem Cache für so gering einschätze, das dieser unter Messtoleranz im Gaming fallen wird.

hmm die 880 in der Folie sieht lecker aus

Das wirkt alles irgendwie sinnfrei zusammengewürftelt.
GM100 mit der selben ALU Anzahl wie GK110 im Vollausbau, und nur 3MHz mehr?
nene, die sollen mal lieber bei aktuell kurz vor Release stehenden GPUs bleiben mit der Speku. Über 1 Jahr Zeit kann da nichts sinnvolles bei rum kommen... :fresse:
 
Zuletzt bearbeitet:
Das wirkt alles irgendwie sinnfrei zusammengewürftelt.
GM100 mit der selben ALU Anzahl wie GK110 im Vollausbau, und nur 3MHz mehr?
nene, die sollen mal lieber bei aktuell kurz vor Release stehenden GPUs bleiben mit der Speku. Über 1 Jahr Zeit kann da nichts sinnvolles bei rum kommen... :fresse:

Vergiss nicht das Maxwell noch nen CPU Part bekommen soll da müssen auch Resourcen frei bleiben für

Schon möglich das man ihn da nicht so weiter aufpumpen kann

Im Grunde gehts dabei ja erstmal nicht um Max sondern um die 7er Serie die interessant wäre u in greifbarer Nähe

Wieso mit GK114 codiert:hmm:
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ein was gutes hat Titan, selbst wenn er 1k kostet

Man kann sich die 880 aus rein Gamersicht dann sparen, das Leistungsplus Titan zu 880 sollte sich in Grenzen halten

Strom, Abwärme etc mal außen vor
 
Der CPU-part wird aber laut spekus nur für uncore genutzt. Also nix was zur GPU-Power direkt beiträgt.
 
Der CPU-part wird aber laut spekus nur für uncore genutzt. Also nix was zur GPU-Power direkt beiträgt.

Aber Platz brauch er allemal auf dem Die,selbst wenn die shrinken gibts da nen Kompromiss CPU/GPU Anteil

---------- Post added at 13:09 ---------- Previous post was at 12:55 ----------

GTX 780 u 770 sehen wie Resteverwertung von GK110 aus,das SI ist das selbe,da würde dann auch die 1 in der Codierung wieder passen

Bleibt fest zu halten das selbst bei Erscheinung dieser,Titan wohl der King im Ring bleiben würde
 
Zuletzt bearbeitet:
Deshalb wird er ja auch teurer, als ein Kernkraftwerk!
Wir brauchen JETZT Reviews und Preisangaben, sonst kommen wir hier nicht weiter. Jahre später....

Es gab doch offiziell von Nvidia (oder doch nicht offiziell?!) die 899 Dollar als UVP. Also ist doch grob alles über 900-1000 unrealitisch. Was nicht heißt, dass der ein oder andere Lappenladen nicht diese Peise verlangen wird :rolleyes:
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
[/COLOR]GTX 780 u 770 sehen wie Resteverwertung von GK110 aus,das SI ist das selbe,da würde dann auch die 1 in der Codierung wieder passen

Bleibt fest zu halten das selbst bei Erscheinung dieser Titan wohl der King im Ring bleiben würde

Naja, ein solcher Chip hätte allerdings im Verhältnis zur Rechenleistung mehr Bandbreite als eben GK110 und GK104 -bricht bei MSAA also dennoch weniger ein (auch dank 48 ROPs) und braucht auch nicht allzuviel Speicher-OC. Außerdem, wenn so eine Karte als GTX 780 erscheinen würde, wäre diese auch wohl rund 35% schneller als eine GTX 680:fresse: Mit OC ist man dann vllt schon am Titan vorbei:d ->Bei 500€ wohl eindeutig das "bessere" (sinnvollere) Produkt. Sehe zumindest ich so. Daraus könnte man aber wohl auch ne Dual-Karte machen.
 
Zuletzt bearbeitet:
Recht provokant das Ganze:d


Nur jemand der im Avatar "HeinzNeu" stehen hat dem kauf ich das jugendliche Alter mit Oma u Opa als Sponsor eigentlich nicht mehr ab:asthanos:
 
Zuletzt bearbeitet:
zumindest die 780/770er klingen nach den schon vor Monaten aufgetauchten Spekulationen über nen GK104 Refresh...
Ich behaupte aber, das so ein Teil irgendwie unsinn ist, wenn man GK110 mit einen unwesentlich höher ausgebauten Einheitenverhältnis schon ausliefert. Speziell ist es wohl auch ungewöhnlich, das eine "Mittelklasse" mit 384Bit SI an den Start geht.

Dazu kommt das ganze insich irgendwie unschlüssig rüber. Warum "GK114" mit 384Bit und 1920 ALUs ausliefern, und diesen dann noch als 760TI mit 1536 und 256Bit vermarkten?
Wo man doch nen "GK116" mit 256Bit und 1153 ALUs bieten will.
Der SI/ALU Ausbau passt so gar nicht mit GK110 und GK104 überein.

Es wirkt wie, als hätte man die Priorität deutlich mehr auf Bandbreite gelegt. -> was aber irgendwie zur Folge hat, dass man jede GPU gänzlich umbauen muss. Und das ist eher untypisch für so ne "Refresh" Generation.

Was Ihr immer nur mit dem Stromverbrauch habt- bei uns kommt der Strom aus der Steckdose :d

Wenn meine Großeltern mir so ne Karte kaufen würden, bräuchte ich mir bei weitem keine Gedanken über den Verbrauch machen... Denn ~900€ spekuliert muss man mit wohl maximal 300W erstmal verheizen. Das dauert ne ganze Weile.
Ich schaffe in Summe ca. 1-1,1kWh pro Jahr allein für die Technik. Das sind bei 29,5Cent pro kWh gerade mal 300€ im Jahr. Und da ist alles drin! Nebst 24/7 laufendem Server, Switches, WLAN Technik, diverse PCs + Notebooks und sonstiger anderer Elektronikkram.

Nix gegen dich. Aber ich kann nur empfehlen, geh für dein Geld arbeiten. Dann kannst du das auch nachvollziehen ;) Wenn du als Grund für so ein "Geschenk" ein Halbjahreszeugnis vorlegen musst, gehe ich stark davon aus, du bist Schüler. Du wirst also wohl irgendwann selbst an den Punkt kommen, wo Oma und Opa nicht mehr Zahlen ;) Spätestens wenn die Schule vorbei ist und es keine Zeugnisse mehr zur "Bestechung" gibt :fresse:
 
Zuletzt bearbeitet:
Also ich werde unter Vorlage meines Halbjahreszeugnisse Oma und Opa beknieen, mir die TiTan nebst Wakü-Block als Belohnung kaufen zu wollen. :banana: Mit der HD 6990 hat es das letzte Mal auch so geklappt.

Was Ihr immer nur mit dem Stromverbrauch habt- bei uns kommt der Strom aus der Steckdose :d

Die meisten werden wohl jetzt los heulen das du nicht selber den Strom zahlen musst. Allerdings (auch wenn ich es selber zahlen muss) geht mir der Verbrauch am A.. vorbei :d


€: Dann musst du ganz schön viel vor der Kiste hängen wenn du ein Mehrverbrauch noch 1100 KW/h hast.

Wir sind vor kurzem umgezogen und hatten eine Durchlauferhitzer, nun nicht mehr denke das wird sich auch sehr positiv auf den Stromverbrauch auswirken :) somit darf die Titan ruhig mal 300 - 500 Watt fressen ich werfe es ihr gerne ins Maul :d Sofern dabei gute FPS raus kommen ;)


€€: Ach ja aktuell "frisst" der Rechner unter volllast auch um die 1050 Watt (2500K@4.7 GHz und 2x580 SLI mit OC) und 3x U2412M. Aber ich glaube sogar das ich Strom sparen werde, wenn die die 2 GTX 580er raus packe und eine Titan rein. Denke die zwei 580er sind deutlich über 500 Watt.
 
Zuletzt bearbeitet:
Mann mann dann muss ich mir tatsächlich auch ne titan besorgen. Den ich konnte es kaum glauben als ich gesehen habe das der ca. 10 Jahre alte FSX auf 5760x1080 tatsächlich meine HD7970 mit 89-99 % auslastet wenn ich AA etc. kräftig hoch schraube damit ich ein anständiges scharfes bild bekomme.

Aber das gehört dann ja mit Titan der vergangenheit an fast so stark wie 1x 690 krass.

Habt ihr das schon gesehen :

GeForce GTX Titan: (Paper)-Launch am 18. Februar?
 
Mann mann dann muss ich mir tatsächlich auch ne titan besorgen. Den ich konnte es kaum glauben als ich gesehen habe das der ca. 10 Jahre alte FSX auf 5760x1080 tatsächlich meine HD7970 mit 89-99 % auslastet wenn ich AA etc. kräftig hoch schraube damit ich ein anständiges scharfes bild bekomme.

Aber das gehört dann ja mit Titan der vergangenheit an fast so stark wie 1x 690 krass.

Habt ihr das schon gesehen :

GeForce GTX Titan: (Paper)-Launch am 18. Februar?

Ich spiele auch auf 5760x 1200 allerdings glaube ich kaum das ich ewig nur bei einer Titan bleiben werden, glaube das gibt schon ein Schub allerdings wird das sicher nicht genug sein. Zumindest nicht wenn man noch mit allem drum und dran spielen will.
 
jo ich glaub auch es wird dann mal ne zweite brauchen wobei der FSX ja eher CPU hungrig ist. Lustigerweise hat sich das seit HD7970 irgendwie verschoben egal ob ich den ivy auf 3,9 oder 4,8 betreibe es gibt kein Frame mehr leistung. Jedoch ist wie gesagt dafür plötzlich die 7970 fleissig am schnaufen.

bin hoch gespannt ob sich das dann mit der titan wieder richtung cpu verschiebt.
 
Zuletzt bearbeitet:
Ich habe mich entschieden ich werde mir den Titan auch Kaufen um selber ein Bild zu machen. Eventuell behalte ich Sie oder ich Verkaufe sie dann weiter. Es kommt drauf an wie gut Sie ist bis dahin halte ich noch meine beiden GPU´s aus Sicherheits Gründen,nicht das ich dann bereue wenn ich vor eilig Verkaufe :)
 
Zuletzt bearbeitet:
So jetzt kommen wir langsam in die Phase wo meine Lightning nen neuen Besitzer bekommen muss.
Schön das die aktuellen Cpus eine integrierte Grafikeinheit haben so sind die Kisten wenigsten nicht komplett außer Gefecht gesetzt.
Am besten gleich noch ein frisches Win für den oder die Titanen vorbereiten beim Wechsel von AMD auf NV kam ich iwe nie drum herum bei den ganzen Leichen im Win .Am besten immer alles jungfräulich machen.
 
Zuletzt bearbeitet:
e Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hehe wie die AMDler Freaks alle wechseln wenn die Konkurrenz ne gute Karte released, nach dem Motto immer dahin wo das Nest am wärmsten ist... :d

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
So jetzt kommen wir langsam in die Phase wo meine Lightning nen neuen Besitzer bekommen muss.
Schön das die aktuellen Cpus eine integrierte Grafikeinheit haben so sind die Kisten wenigsten nicht komplett außer Gefecht gesetzt.
Am besten gleich noch ein frisches Win für den oder die Titanen vorbereiten beim Wechsel von AMD auf NV kam ich iwe nie drum herum bei den ganzen Leichen im Win .Am besten immer alles jungfräulich machen.

Brauchst nicht neuinstallieren. Vor dem Umbau den Treiber normal deinstallieren, dann Karte raus, dann Driver Fusion laufen lassen, PC aus und neue Karte rein. Dann einfach installieren, habe so noch keine Probleme gehabt. Am besten auch gleich noch den neuesten Intel Chipset Driver drüberbügeln mit "setup.exe -overall"
 
So jetzt kommen wir langsam in die Phase wo meine Lightning nen neuen Besitzer bekommen muss.
Schön das die aktuellen Cpus eine integrierte Grafikeinheit haben so sind die Kisten wenigsten nicht komplett außer Gefecht gesetzt.
Am besten gleich noch ein frisches Win für den oder die Titanen vorbereiten beim Wechsel von AMD auf NV kam ich iwe nie drum herum bei den ganzen Leichen im Win .Am besten immer alles jungfräulich machen.

Ich hab's schon erledigt!
Meine Lightning reist schon zum neuen Besitzer...auch wenn ich der ein wenig hinterherheule!!!
 
Hat man damals zu mir auch gesagt geh noch mal mit dem Driver cleaner rüber und dann passt das.
Das ende vom lied gtx580 sli wollte nicht richtig laufen.
Vielleicht hat sich das ja jetzt verbessert aber ich habe die Zeit und es ist ein stinknormaler gaming pc ohne wichtige Daten also new und ich habe Ruhe.

@Dancop
Ist ja auch eine sehr gute Karte die Lightning war stehts glücklich mit ihr.
 
Zuletzt bearbeitet:
Hehe wie die AMDler Freaks alle wechseln wenn die Konkurrenz ne gute Karte released, nach dem Motto immer dahin wo das Nest am wärmsten ist... :d

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

Sorry, aber so eine blöde Aussage kann man sich auch sparen!

Das hat doch rein gar nix mit AMD&Nvidia zu tun...

Man geht immer dort hin wo man für sich die beste Leistung&Nutzen sieht...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh