nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Pisko

Würde die HD7950 Powercolor PCS+ erstmals behalten, nicht dass enttäuscht wirst vom Titan, nur 35-40% über einer GTX 680 :-)
Somit hättest ins Klo gegriffen.
 
Die Karten von Pisko sind aber auch was besonderes Björn die machen locker die 1300MHZ hast du dir mal die Identischen ASICs angesehen um das zu bekommen ist fast wie die Nadel im Heuhaufen suchen da von mal ab.
diese Diskusionen gehören hier nicht her.



:btt:
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

@Pisko

Würde die HD7950 Powercolor PCS+ erstmals behalten, nicht dass enttäuscht wirst vom Titan, nur 35-40% über einer GTX 680 :-)
Somit hättest ins Klo gegriffen.

Was soll er mit ner midrangekarte ? Behalten wuerde ich die hoechstens als notbehelf fuer alte spiele, oder wenn ihm schrottige treiber egal sind


Sent from my iPhone 4 using Hardwareluxx app
 
NVIDIA GeForce GTX Titan To Be Released on February 18th | VideoCardz.com

Ok, scully war mal wieder schneller. ;)


3DC schrieb:
Gemäß einer Zusammenstellung aktueller Gerüchte bei Videocardz  kommt nVidias GeForce GTX Titan HighEnd-Grafikkarte am 18. Februar, sprich dem nächsten Montag. Zu diesem Zeitpunkt soll der offizielle Launch stattfinden, unabhängige Testberichte soll es aber abweichend davon erst zum Dienstag, den 19. Februar geben. Die Marktverfügbarkeit soll dagegen erst zwischen dem 24. und 26. Februar gegeben sein, sprich der letzten Februar-Woche – wohl zum Teil auch resultierend aus dem chinesischen Neujahrsfest, welches dieses Jahr bis zum 24. Februar geht, und in dessen Folge bei den zumeist taiwanesischen Grafikkarten-Herstellern üblicherweise generell nicht gearbeitet wird. Die erste Auslieferungscharge soll dabei weltweit nur 10.000 Stück betragen – was sich für eine Grafikkarte zu einem vermutlichen Preispunkt von 899 Dollar nach viel anhört, angesichts von Millionen Hardware-Enthusiasten rund um den Globus allerdings gerade so ausreichend sein dürfte.

Laut anderen Spekulationen soll der eigentliche Marktstart ja erst ab zwischen dem 24. und 26.2. erfolgen (das chin. Neujahrsfest geht bis zum 24.) und wir es somit erst einmal mit einem Paperlaunch zu tun haben könnten. Das würde mich nicht so sehr freuen, aber zumindest gäbe es dann schon Benches. ;)
 
Zuletzt bearbeitet:
The card will be slower than the GTX 690. It should perform 55-60% better than GTX 680 and HD 7970

wasn nun, schneller als 680 oder 7970?

Die % klingen gut

The GTX Titan will be launched in a very limited quantity, only the most recognized reviewers will get the cards

ich will erstmal wissen was Sache ist bevor ich mein SLI verkloppe. Nicht das ich in 3 Monaten oder so keine 2. bekommen kann. Dann stehe ich da mit nur einer und darf dann auf die 880 warten ? .. nee
 
Nun ja, die GTX 680 und HD 7970 Non GHz nehmen sich ja meistens nicht soviel, wobei es im Schnitt doch eher um die 40 - 50% Vorsprung sein sollten.
Gut, ab 1440p hat die Radeon dann oft schon einen kleinen Vorsprung (die GHz liegt dann so 15% in Front). Titan sollte wohl 25 - 35% vor der HD 7970 GHz Edition liegen, wobei die einzigen echten SGPU-Konkurrenten derweil eigentlich die Sapphire Toxic Radeon HD 7970 GHz Edition & Sapphire Toxic-X Radeon HD 7970 GHz Edition mit je 6GB sind. ;)
 
Zuletzt bearbeitet:
Dann sollten wir uns wohl freuen, dass die HD 7970 GHz dann auch Mittelklasse (zumindest in den Augen eines Luxxers) wird. :fresse:

Nochmal etwas zu den 55% (vs. HD 7970 GHz) - 60% (vs. GTX 680) Vorsprung. Das bezieht sich nur auf die synthetischen 3DMark "13" und 3DMark 11 Benchmark-Leaks von Flying Suicide & OBR ->
http://videocardz.com/39436/nvidia-geforce-gtx-titan-real-performance-revealed

Wobei man der GHz zugute halten muss, dass sie in First Strike (Extreme Prese) nur 43% hinter Titan liegt, zumindest laut OBR.
Bei zusätzlichem 8x SGSSAA fällt Tahiti XT dort ja bekanntlich auch hinter eine GTX 670 ab (siehe PCGH Benches) - wobei das aber nicht so repräsentativ ist, wird es doch quasi kaum genutzt. ;)

MfG
Edge
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Jajaja - Chrome - ja - give it to me.
 
Von mir aus hätten sie sich auch noch mehr an das Design der GTX 690 (halt in dem Fall mit Radiallüfter) halten können - aber wiederholen wollte man sich wohl auch nicht.
Auf jeden Fall sieht das hier auch edel aus. :)

Tesla K20X mit Bling-Bling? :fresse:

So sieht ja bekanntlich K20 aus:
nvidia-tesla-k20-08u5xbi.jpg



E: Ok, ist wohl doch Tesa -> GF100. Pöse Chinesen. :fresse:

nvidia-fermi-g300-tes4klnj.jpg
 
Zuletzt bearbeitet:
ce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Sieht aber stark nach ner 680er aus...

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Ein DVI Anschluss ist auch ein bisschen zu wenig für ne Consumer Karte wenn es der Titan wäre :stupid:
 
jop, die hatte ich im Kopf :d
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Immer noch nichts neues hier!
:wall:
Ich bin ungeduldig und habe nur ne 7850 hier...naja und ne 4870x2 und gtx295 und...alles oldschool!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
was machste denn noch mit den alten Hunden ? Bekommste die nicht kaputt gebencht ? :haha: Ich hatte bis vor kurzem noch zwei vergammelte 3870er hier rumfliegen :fresse: -> oha Retro Kopfkino
 
Und was ist Titan dann? Super Duper High End?
Es wird unter Titan nichts verändert, es kommt nur eine Karte hinzu. Mit ner HD 7950 OC kommste auf HD 7970 ghz Niveau, wenn sie ordentlich prügelt.
Aber eh egal, warten wir auf den 18, ich bin gespannt was kommt.
 
Wäre mit einer werksübertakteten und Wassergekühlten EVGA Titan HC3 FTW zufrieden. Bei so einer teuren GK werde ich definitiv nicht selbst Hand anlegen und einen Wasserkühler installieren. Hat mich schon eine 480 GTX gekostet die mir leider unmittelbar nach dem Umbau vom Schreibtisch gefallen ist. Die Trennung von meiner EVGA 580 GTX HC2 wird schwer genug.

Und du bist dir sicher, dass sie dir ohne Umbau auf Wasserkühlung nicht hätte vom Tisch fallen können?!

Ich weiß ja nicht, wie es bei dir ist, aber meine Hardware unterliegt selbst im Originalzustand den Gesetzen der Schwerkraft. Das ist für mich kein Grund, auf einen Wasserkühler zu verzichten.
 
Zuletzt bearbeitet:
Dein Link ist kaputt ;-)

Gruß JM

Edit: geht jetzt - danke!
Wo steht dort was von 1000boost?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Marius will unter 397,50€ für ne HD7970 LIGHTNING und der Onur verlangt eiskalt 300€ für ne 7950, Wakü hin oder her^^

Ja Björn weil Sie 300€ wert sind aus dem Grund Verkaufe ich Sie nicht getrennt, Zwillinge Trennt man nicht und ich hänge wirklich an meinen Karten vor allem die alten EK Waterblocks sind nirgens mehr zu bekommen. Aber diese Diskussion gehört hier wirklich nicht rein.

---------- Post added at 11:02 ---------- Previous post was at 10:59 ----------

So wie es aussieht, wird es Dir ab dem 18.02. besser gehen. An diesem Tag soll zumindest der Launch stattfinden. Vermutlich wird es dann noch ein paar Tage dauern bis man die TiTan auch hier kaufen kann, oder?

Ich hoffe Heinz das es so ist sonst Weine ich hinter meinen Karten her. Aber zu erst muss ich beide Karten Verkaufen sonst wird meine Frau sauer wenn ich 900€ für GPU ausgebe 300€ kann Sie Verkraften :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh