nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Wenn das echt so ist, dass sowohl AMD als auch Nvidia ihre neuen Karten auf Q4 verschoben haben, dann seh ich im Februar aber sicherlich keinen "Titan"
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn das echt so ist, dass sowohl AMD als auch Nvidia ihre neuen Karten auf Q4 verschoben haben, dann seh ich im Februar aber sicherlich keinen "Titan"

Naja, falls die Karte rund 650€ am Ende kosten würde, und dabei irgend etwas zwischen 40-50% schneller als eine GTX 680 ist, würde man damit genau in einen Bereich treffen, der zurzeit nicht besetzt ist. Man hätte sowohl einen gesunden Abstand zur GTX 690, als auch zur 680, egal ob leistung oder Preis.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Dann ok, würde sich für mich aber leider nicht lohnen, höchstens ich hol mir ein Sli. Ich glaub da wart ich lieber bis Q4 und schau erstmal, was sich CPU mäßig tut.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Vielleicht ist die 670/680 schon so effizient und rentabel, dass es keinen Refresh braucht. Ist ja auch "ein Performance-Chip" - anders als zuvor.

Und gerade jetzt würde eine Titan Sinn machen, wenn GTX 7xx erst im Q4 kommt.

Spannend...
 
Vielleicht ist die 670/680 schon so effizient und rentabel, dass es keinen Refresh braucht. Ist ja auch "ein Performance-Chip" - anders als zuvor.

Eher rentabel, ich meine ne typische 250€ karte für 400€ verkaufen ist schon nicht schlecht:fresse: Und solange es keine Konkurenz gibt, wieso etwas neues bringen, wenn das "alte" noch weiter gut läuft:) Und wie gesagt, nVidia könnte das mit dem GK110 ebenfalls so machen, falls die den Chip jetzt bringen würden. Dann hätte dieser vllt ein gutes Jahr keine Konkurenz und nVidia würde sich blöd und dusselig daran verdienen...
 
Zuletzt bearbeitet:
Weil Konkurrenz da ist und nicht schläft.
 
Vielleicht ist die 670/680 schon so effizient und rentabel, dass es keinen Refresh braucht. Ist ja auch "ein Performance-Chip" - anders als zuvor.

Und gerade jetzt würde eine Titan Sinn machen, wenn GTX 7xx erst im Q4 kommt.

Spannend...

Wirklich sehr spannend, wobei diese Variante doch ganz gut zu den aktuellen Gerüchten passt. Weil zu AMDs nächster Generation/Refresh/... ist ja auch nicht wirklich etwas bekannt um von Konkurrenz sprechen zu können. Die 7970 Ghz würde man so auf jeden Fall mit recht großem Vorsprung ausstechen können.
 
Zuletzt bearbeitet:
Die 7970 Ghz würde man so auf jeden Fall mit recht großem Vorsprung ausstechen können.
Naja, zwischen der 7970 GHz Ed. und dem Titan würden rund 35% Leistung liegen, also in etwa das selbe wie bei der GTX 580 - zur GTX 680/HD 7970. Soviel finde ich das jetzt auch nicht...
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ich finde 35% zur 7970 GHz ED schon ordentlich, die 680 hat zur 580 bei den Min-FPS gar nicht so stark zugelegt. ;)
 
Das kommt aufs Spiel an. Ich vertraue min fps sowieso nicht, einzelne Werte sind viel zu fehleranfällig und wenig aussagekräftig sowieso.
 
Dat muss mehr sein 45 % muss schon kommen .
35% das hat bestimmt AMD als Ziel.
Bei 35% zur GHZ Edition würde ich 10× drüber nach denken bei 800-900Euro.
Bei ein Preis von 650 gerade noch so ok.
Für 900 Euro müsste der Titan die 7970 GHZ mindestens mit 50% versenken.
 
Zuletzt bearbeitet:
Ich finde 35% zur 7970 GHz ED schon ordentlich, die 680 hat zur 580 bei den Min-FPS gar nicht so stark zugelegt. ;)

Natürlich:fresse: In allen benchmarks die ich gemacht habe, war ne GTX 680 zwischen 30-40% schneller als eine GTX 580, egal ob avg. Fps oder Min-Fps. In Battlefield 3 liegen da z.B. rund 50%:fresse:

Das kommt aufs Spiel an. Ich vertraue min fps sowieso nicht, einzelne Werte sind viel zu fehleranfällig und wenig aussagekräftig sowieso.
Richtig, allerdings, wenn die reproduzierbar an der selben Stelle sind, sind die schon recht aussagekräftig;)

Dat muss mehr sein 45 % muss schon kommen .
Das wäre schon ein Plus von 60% auf die GTX 680, nun gut, dann müsste die Karte rund 950-1000MHz Boost rechnen...
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

War bei meinem Test mal gar nicht so. Bei den Min-FPS in BF3 war die 580 nur ein paar FPS schlechter - auch UHJJ36 hat diese Erfahrung gemacht, allerdings war das noch der erste oder zweite Treiber der 680.
 
War bei meinem Test mal gar nicht so. Bei den Min-FPS in BF3 war die 580 nur ein paar FPS schlechter - auch UHJJ36 hat diese Erfahrung gemacht, allerdings war das noch der erste oder zweite Treiber der 680.

Wie gesagt, meine GTX 680 mit OC kommt mit aktuellen Treibern einem GTX 580 SLI auf 2Fps dran (74 zu 72Fps:fresse:)
 
@Broly
Die Leistung muss schon angemessen sein zum Preis.
Und 60% zur GTX680 wäre ja noch im Bereich des möglichen hoffe ich zu mindest.
Mit OC noch 20-30% unter Wakkü und mir geht einer ab.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Mit OC ist mein 580 SLi Setup über 84 min-FPS..
Einzeln ohne OC waren es 48 min-FPS (580) zu 52 min-FPS (680).
Aber... müßige Diskussion.. ich sagte ja, war ein älterer Treiber.
 
@Broly
Die Leistung muss schon angemessen sein zum Preis.
Und 60% zur GTX680 wäre ja noch im Bereich des möglichen hoffe ich zu mindest.

Naja, bei 300Watt TDP vllt noch möglich, allerdings würde da dann schon wieder die Speicherbandbreite limitieren (Bandbreite wohl nur +50%), und zwar sogar noch stärker als es bei GK104 schon der Fall ist. Das heißt: Für 60% mehr Performance braucht man verhältnismäßig mehr Takt, bsp.:
GTX 680 (1124 MHz) 100%
GK110 (915 MHz) 150%
GK110 (rund 980-1032 MHz) 160% Naja, und je mehr Takt, desto mehr Verbraucht.
Falls die +50% Version 250 Watt benötigt, könnte ich mir das eventuell vorstellen, falls die +50% aber schon bei 300 Watt liegen, dann wohl eher nicht.

Mit OC ist mein 580 SLi Setup über 84 min-FPS..
Einzeln ohne OC waren es 48 min-FPS (580) zu 52 min-FPS (680).
Wie du eben sagst, alte Treiber. Ab dem 310.58 hat ne GTX 680 rund 20% mehr Fps bekommen -aktuell sah das bei mir so aus: (selbe Szene) GTX 580 SLI (800MHz) - 69Fps Min, GTX 680 (1215MHz) -66Fps min;) Aber darum geht es hier nicht. Fakt ist aber, falls GK110 +50%, dann sieht ein 580 SLI lange kein Land mehr:d
 
Zuletzt bearbeitet:
Wegen der Bandbreite muss man mal sehen der GK110 soll doch gerade bei Speicher zugriffen Optimiert worden sein was dann nicht zwingend bedeuten muss das er mit seiner Bandbreite ein Problem bekommen muss.
 
okeeee wenn die 780 erst Q4 2013 kommt und die X7100 wirklich vom Titan sind, dann will ich Titan
sofort
egal wie teurer!

:)
 
Die Rente kommt langsam auf deine Karten zu Björn.
 
Na wenn er denn mal recht behalten sollte


Ich bin von dem 7000er Score noch nicht wirklich überzeugt,da die technischen Gegebenheiten sowas in den Referenzgrenzen eigentlich nicht zu lassen

Wo hat nvidia hier die enorme Leistung her???

Entweder war das eine dermaßen übertaktete Karte jenseits der 1GHZ Marke oder schlicht nur wieder ein Fake:)
 
Zuletzt bearbeitet:
Das ist meiner Meinung nach definitiv ein Fake - da man auch noch das G (GTX?) erkennen kann - vermute das sind die Ergebnisse einer übertakteten 690GTX. Kann mir auch nicht vorstellen, dass Futuremark bereits eine Titankarte checkt. Nichts desto trotz - ich bin bereit für Titan. Ist in GH aber leider noch nicht gelistet (Joke). Bin frohen Mutes und verschiebe den Kauf einer zus. 512GB Samsung SSD in der Hoffnung im Februar eine Titan zu erwerben. Beides zu kaufen würde definitiv Ärger mit meiner Frau bedeuten.

l. G.
 
Zuletzt bearbeitet:
Zumindestens kann man hoffen,das sie sich endlich wieder wie Highend takten lässt,falls der Screen echt ist,nur ne Referenz mit solchen Werten never
 
Zuletzt bearbeitet:
Zumindestens kann man hoffen,das sie sich endlich wieder wie Highend takten lässt,falls der Screen echt ist,nur ne Referenz mit solchen Werten never

jup, und wenn wäre das ein GK110 mit mehr als 1200MHz:fresse: Das wären gleich 33% mehr Takt als normal, was mit OC aber vllt gar nicht mal so abwegig sein könnte. Die HD 7950 konnte man mit mehr Spannung auch um über 50% übertakten. Naja, wenn da aber nicht die volatge-sperre wäre...
 
Das sieht tatsächlich wieder wie son Billigfake aus :( Da ist eindeutig ein G nach Geforce zu erkennen. Mit glück wird der Titan beim 3DMark aber auch einfach nur mit GTX.....angezeigt! Man hoffentlich geht das Teil gut ab, dann Gott segne Nvidia!
 
Ich will jetzt endlich echte Specs, Bilder, Benchmarks. Das ist Folter, noch 3 Wochen, wie soll man das denn aushalten, wenn die so verrückt geile Werte erfinden? :wall:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh