nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Das sowieso, spielt man jedoch Spiele wie Armed Assault 2 (!NEIN! kein DayZ) sondern Arma 2 eSports Bundesliga, regelt man die Grafik auf low, weil dann z.B. kein Gras mehr vorhanden ist (grobes Beispiel). ;)


Im dem Fall klar, gebe ich dir 100% recht. Hab auch Leute auf ner Lan damals gesehen die auf ein 21 " Monitor 640*480 CS 1.6 gespielt haben :hmm:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Woher stammt diese Aussage? Gibts dazu ne offizielle Bestätigung?

Denn beim GF1xx aka Fermi war die 1 in der Mitte schlicht die simple Weiterzählung in Form eines Refreshs. Zeigte also die zweite Version. GF100 zu GF110. (beide mit GPGPU Features). GF104 zu GF114 (beide ohne dedizierte GPGPU Features)

Ail sagte das. Er wusste wohl recht früh das es keinen GK100 gab und NV somit direkt während der Entwicklung des 104ers die HPC features ihres TopDogs erweiterten. Deshalb wohl die 1 in der Mitte. Box oder Hübie können es sicher besser erklären. =/
 
Ja die 6GB würden mich auch begeistern die richtigen Schweinereien kann man dann aber bestimmt erst mit 2 GPUs verzapfen wo bei Skyrim rennt ja mit einer Karte und Mods kurz vor 3 GB noch super.
Mit allen Mods sollen ja bis 4.6 Gb möglich sein wenn ich mich da mal nicht verlesen hatte.
 
Zuletzt bearbeitet:
naja der Preis is mir ehrlich gesagt Lachs ^^

solang es ~ 50% zur 680 sind ist mir das alle mal lieber als ne 690/680 SLI oder 7970 CF

und das "Highend" Preise um 250-300€ vorbei sind sollte jedem klar sein

außerdem kann so ziemlich jeder hier im Thread den Kauf von Neuware durch Verkauf der "alten" Ware teilfinanzieren, von 0 auf Titan wäre mir auch zu teuer
aber von 680 Lightning irgendwo verscherbel zu Titan ist tragbar
 
So sieht's aus...sollte der Titan WIRKLICH 7300 Punkte im Extreme machen, ist es sicherlich ein unumgängliches Stück hardware für Bencher....wie mich :fresse:
 
und für mich als 1920x1080 Gamer mit soviel Details wies geht um 60-70 FPS
und evtl langts für 2560x1440 @ DS mit 60-70 FPS, dann sowieso
 
Ich habe hier nen Dell 30"!
Da brauche ich schon die Leistung :d:d:d
 
Ail sagte das. Er wusste wohl recht früh das es keinen GK100 gab und NV somit direkt während der Entwicklung des 104ers die HPC features ihres TopDogs erweiterten. Deshalb wohl die 1 in der Mitte. Box oder Hübie können es sicher besser erklären. =/

Mhh OK, wobei das Gerücht, das GK100 nicht kommt und stattdessen GK110 bzw. der HighEnd Chip nicht vor Ende 2012 den Markt erreichen soll, ja sogar schon vor Release der GK104 im März im Umlauf war. Und sich wenn man so will auch bestätigt hat.
Die Frage ist halt, ob das mit der 1 in der Mitte auch dediziert auf andere Karten übertragbar ist. Weil es hat eigentlich keinen Sinn.
Ich könnte mich täuschen, aber außer den Dickschiffen gab es bis dato keine Tesla Ableger. Somit machen irgendwelche speziellen GPGPU Features irgendwie auch keinen Sinn in ner Mittelklasse. Schon gar nicht, wenn die Mittelklasse die Leistung der vorherigen Generation nicht überbieten kann. (was sie wohl nicht könnte gegen GF110 Teslas)
Warum dediziert die GPU aufbohren, die im Profi Tesla Markt nicht interessant ist? Zumindest sehe ich keinen Markt für ne GK114 mit GPU Features als kleine GPU im Tesla GPGPU Bereich.

Und wenn man jetzt damit argumentiert, das auch kleinere (Gamer) Karten eventuell interessant für SP GPGPU Berechnungen wären, OK ja durchaus... Aber wäre NV wirklich so "doof" sich den Markt dadurch kaputt zu machen, indem man spielend die Gamerkarten für nen Bruchteil vom Preis nutzten kann, wenn man eigentlich dafür die teuren Dickschiffe verkaufen könnte?
Speziell sehe ich für den "normalen" nicht professionellen GPGPU/HPC Clusterbereich aktuell Null Komma gar keinen Zwang überhaupt die GPGPU Performance in welcher Art auch immer vorranzutreiben.
 
Zuletzt bearbeitet:
Ich glaube, es gibt gar keinen GK114, sondern die heißen alle GK20x. Gab doch vor ein paar Monaten mal einen Infohappen zu GK208 - ich glaub schon, dass der echt war.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Wenn Crysis3 im vundle dabei waere, so 800 euro und stark limitiert das teil dann wuerde ich zuschlagen :)


Sent from my iPhone 4 using Hardwareluxx app
 
900 Euro sind meine Schmerzgrenze für eine Referenzkarte...wenn dann eine Lightning oder Matrix davon kommt...auch gerne Mehr...im Bundle mit Crysis 3 - das wäre der Oberhammer!
 
Soll ja nur Referenz geben so wie bei der GTX690
Mal sehen wie es dann mit Spannung ausieht oder ob du nur mit einem Lötkolben zu deinem Rekord kommst.
 
Zuletzt bearbeitet:

Na ja 900 euro dann muss das ding ne 690 vernaschen sonst wird das nichts. Aber ich würde auch versuchen 1500 Teuro zu bekommen wenns einer zahlt.:)
Erst mal warten bis das Ding verfügbar ist dann tut sich am preis sicher was. Soviele wirds nicht geben die solche preise zahlen würden. Wir dann wohl genauso ein nieschenprodukt wie diese hier. http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Asus-Ares-II-Test-1046866/
 
Zuletzt bearbeitet:
Ja, für $900 muss die Karte mindesten so schnell wie die GTX690 sein. Ansonsten macht nVidia mGPU und die GTX690 vollkommen lächerlich.
Ich meine, wenn man als Nachfolger der GTX690 eine Karte verkauft, die 15-20% langsamer ist, aber den selben Preis nehmen will, dann zeigt man doch, welchen Wert AFR mGPU wirklich hat.
 
Hattest du nicht selbst mal SLI? ;)
AFR ist ein notwendiges Übel, man kann gut damit leben find ich. Aber ich versteh auch, wenn eine SingleGPU-Karte, die Ähnliches leistet, etwas teurer ist. Man kann die Nachteile, die mGPU durchaus hat, dann eben komplett vergessen.
 
Ja das wärs eben wenn der titan annähernd die Leistung von zwei 680 oder 7970 bringt wäre das optimal. Man hätte das gedöns mit den Profilen los. Und bräuchte auch keinen Framelimiter mehr um das stuttering los zu werden. Dann wären auch 900 Euro akzeptabel. Wenn nicht Titanic nix Titan bei dem Preis.
 
Zuletzt bearbeitet:
Also...nochmal...sollten die x73xx stimmen im Fake-Screen, wäre das die doppelte Leistung von einer 7970.
Das ist denke ich nicht zu unterschätzen. Gemeinsam mit den 6GB MEM, denke ich, dass ich dieses Jahr keine Probleme mehr bekommen werde, alle Spiele auf meinem 30"er zu zocken! Und dann im Laufe des Jahres eine Zweite um zu benchen!
:d:d:d
 
ja das wärs eben wenn der titan annähernd die Leistung von zwei 680 oder 7970 bringt wäre das optimal. Man hätte das gedöns mit den Profilen los. Und bräuchte auch keinen Framelimiter mehr um das stittering los zu werden. Dann wären auch 900 Euro akzeptabel. Wenn nicht Titanic nix Titan.

Alles eine Frage der Ansprüche... Ich hätte zu Release der 680er auch gerne 100€ draufgelegt, wenn es 4GB Modelle gegeben hätte. War aber nicht. ;) Rückblickend beiße ich mir in den Hintern, weil ein paar Wochen später die 670er mit 2GB für deutlich weniger Preis ungleich langsamer waren. Und die 4GB Modelle der 670er mich in meinen angestrebten Settings soweit weiter gebracht hätten.
Das gleiche halte ich persönlich auch diesem Teil zugute. Sollten die 6GB stimmen, ist man zumindest mindestens doppelt VRAM technisch ausgestattet, als der aktuelle Standard, den man benötigt. Viel eher sogar dreifach...
Gerade bei gehobenen Ansprüchen macht sich dies bemerkbar. Stimmen die 6GB, dann Hut ab NV!

Und wie oben schon gesagt, spiel Settings, die den VRAM aktueller GK104/Tahiti GPUs überfordern und du hast deine deutlich über 100% mehr Leistung auf dem Teil. -> genau dafür würde ich persönlich auch Geld raushauen, da ich im Moment mit 2GB an einigen Stellen schon eingeschränkt bin, die ich mit 1011,98€ Kaufpreis für zwei 680er persönlich als Unding empfinde ;)
Denn bei so einem Preis will ich mich nicht zurücknehmen müssen, was ich aber aktuell muss. Das gleiche gilt für die 690er, wo es keine 2x4GB Modelle gibt ;)
 
Zuletzt bearbeitet:
aaach, erste Listung. Da kann man nichts drauf geben. Bei den letzten Launches gabs auch etliche Listungen vor Release die deutlich über dem eigendlichen Releasepreis lagen. Sollten sich die 900 allerdings bestätigen....:(
das wäre mir dann doch ne ecke too much mal abgesehen davon das ich die Kohle nicht so schnell zusammen bekomme. :kotz:
 
naja mit nem 900D und gescheiter Wakü wären 2 machbar :d

ma gucken, bin nicht der SLI Fan und die Rohleistung sieht gut aus
 
ne, wenn dann 2. Vielleicht versteife ich mich auch zu sehr auf 2. Ich weiß es nicht :( Ich schau mir das mal genau an in Sachen 3TFTs. Vielleicht erst eine, noch ein paar Kröten zusammen kratzen, mein SLI verkloppen und dann erst die 2. 900,-€ sucken schon. Was den Preis anbelangt halt abwarten. Warum muß sich AMD ausgerechnet jetzt so lange Zeit lassen !? :hwluxx:
 
Ne so viel Futter kann derzeit keine CPU umwälzen,"falls" eine nur annähernd an den 7000er Score käme

Wovon ich immer noch der Meinung bin das sowas nur mit extremster Übertaktung ginge
 
900€? :stupid:
Dafür muss sie aber mindestens die 690 bashen, alles andere wäre für den Preis lächerlich.
 
Weil wahrscheinlich nichts in der Leistungskategorie kommt!
Also die Sea-Islands soll Gerüchten zu Folge ja nur 150% Shader der 7970 haben...die TITAN evtl. 200% der 680 - korrigiert mich, wenn falsch - aber das wird der Grund sein!
 
Fdsonne wenn ich bei dir mit lese vergesse ich den Punkt Leistung fast und möchte schon fast ohne jegliche Tests kaufen.:fresse:
Ich muss wirklich die Ruhe bewahren wen das Teil raus kommt hör auf mich an zu heizen:)
Mit halten würde für 900 reichen Espanol .
Und mit OC bashen.
Und im SLI bei 6GB wäre es das Ultimative Setup.
 
Zuletzt bearbeitet:
Und hört bloß auf mehrere Karten auf einmal zu bestellen. Andere wollen auch noch eine abbekommen ^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh