nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Du kommst doch eh nur her um zu pöbeln, behauptest Dinge ohne sie zu belegen und redest dir selbst deine Treiber schön. Und Tschüss.

10% im Durchschnitt? Never- das hat selbst der damalige Wundertreiber nicht geschafft. Aber Fakt ist auch, dass Titan wohl doch ein gutes stückt teurer wird als geplant... Naja, ist wohl vorläufig nichts für mich, so gerne ich auch eine hätte:(.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also kann ich mir für einen nVidia Titan ~ 3x 7970 GHz kaufen.

OKE!!!!
 
Also kann ich mir für einen nVidia Titan ~ 3x 7970 GHz kaufen.

OKE!!!!

Richtig.

Die Titan ist maximal 600€ wert, alles andere kann NVidia jetzt nur verlangen weil sie ihre GTX 680 die eig mittelklasse sein sollte als Highend für 550.- verkauft haben.
Wie ich schon sagte hätten sie gleich die GTX 680 für 400.- verkaufen können und jetzt die Titan für 500 - 600.- aber nein, alle Geldgeil, die sollte man verbrennen die ganzen Firmen. o_O


Grüße
Sharie
 
Zuletzt bearbeitet:
@box, so ganz unrecht hat er aber auch nicht.
~43% anhand deiner Werte. Das ist nicht unbedingt das, was man erwartet hat ;)
Oder doch?
Ich meine, vor zwei drei Wochen spekulierte man noch mit 690er Leistung, teils drüber, teils was drunter.
Jetzt stehen da ~43% auf dem Papier. Und das in vielen Games. Direkt von NV genannt. Also mit höchter Warscheinlichkeit nicht! pro AMD, sondern viel eher pro NV gewählt.

~43% ist zumindest sogar weniger als die Rohleistung im default Boost zulegt. Und wie Don im Artikel schreibt, erreicht die Karte teils deutlich Taktwerte überhalb des default Boosts.
Die Leistung verpufft irgendwo, nur wo?

Nvidia testet immer mit CPUs auf Standardtakt. Hier und da dürfte man da schon etwas ins CPU-Limit rutschen. 43% finde ich daher gar nicht schlecht. Ich warte lieber Reviews ab, bevor ich mir ein endgültiges Bild mache.
 
Interessant, Don schreibt beim Verbrauch was von mehr oder weniger ausgelasteter Karte...
Das klingt nicht gut. CPU Limit? Würde ich beinahe ausschließen bei 4,2GHz auf nem S2011er Hexacore. Nicht überall und immer, aber ist besser als default Takt.
Zumindest wird mit dem Argument wenn mich nicht alles täuscht der recht verhaltene Mehrverbrauchswert im Vergleich zu ner 680er bewertet.

Wenn das Teil seine Rohleistung nciht auf die Straße bringt, kommt folglich auch nichts im Verbrauch bei rum.
Da ist doch noch was nciht ganz sauber!?

Nvidia testet immer mit CPUs auf Standardtakt. Hier und da dürfte man da schon etwas ins CPU-Limit rutschen. 43% finde ich daher gar nicht schlecht. Ich warte lieber Reviews ab, bevor ich mir ein endgültiges Bild mache.

Durchaus... Aber ich hätte mir bei ~950€ dann doch schon gewünscht, das da mehr geht.
Speziell wenn im Luxxartikel steht, das der GPU Takt auch gern mal auf 1006MHz springt. Wohin geht die Leistung?
Mehr Takt im quasi leerlauf nutzt mir gar nix :fresse:

Aber recht hatter. Die zwei Tage sollten wir noch warten.
 
Zuletzt bearbeitet:
Wenn HWL Tree SLi Bencht mit Titan mit Aktuelle NV Treiber dann soll HWL auch Tree CF 7970 GE mit Benchen mit Aktuelle AMD Treiber 13.2 Beta 6. Sonst kann sich keiner vorstellen wie 3 NV gegen drei AMD 7970 GE schlägt Danke Don.
 
gehen nunmal aber nicht ohne Bandbreitenverlust bei 384Bit SI. ;)



Was mich viel eher wundert. Mit über 1,1GHz, wie im Luxxvideo zu sehen, hat das Teil theoretisch über 85% mehr Rohpower als ne 680er.
Ich kann mir beim besten willen nicht vorstellen, das die Karte so derart schelcht skalieren soll, wie NV das selbst auf einer Folie mit Crysis 3 zeigt. Da waren nur ~30% drin.
Das ist mau, äußerst mau... Vor allem für den Takt und den Ausbau.

Ich glaube nicht, dass dies so ist, es ist doch möglich, dass der NV-Test komplett auf default war und dann reicht es eben nur für die 8xx Mhz da konnte es dann sein, das die Tesselationsleistung limitiert, welche Ironie wenn es so sein sollte :-)
Es könnte aber auch sein, dass der Verwaltungsaufwand bei diesem Chip doch größer ist wie zuerst angenommen, bei dem nativen Einsatzbereich des Chips spielt dies nicht so eine gewaltige Rolle,
bei Grafikberechnungen aber schon wenn ich das mal richtig gelesen habe, dass könnte dann eine vergleichbare Situation sein wie sie AMD mehrmals erleben durfte, genau werden wir es wohl erst am Donnerstag wissen.
 
Interessant, Don schreibt beim Verbrauch was von mehr oder weniger ausgelasteter Karte...
Das klingt nicht gut. CPU Limit? Würde ich beinahe ausschließen bei 4,2GHz auf nem S2011er Hexacore. Nicht überall und immer, aber ist besser als default Takt.
Zumindest wird mit dem Argument wenn mich nicht alles täuscht der recht verhaltene Mehrverbrauchswert im Vergleich zu ner 680er bewertet.

Wenn das Teil seine Rohleistung nciht auf die Straße bringt, kommt folglich auch nichts im Verbrauch bei rum.
Da ist doch noch was nciht ganz sauber!?



Durchaus... Aber ich hätte mir bei ~950€ dann doch schon gewünscht, das da mehr geht.
Speziell wenn im Luxxartikel steht, das der GPU Takt auch gern mal auf 1006MHz springt. Wohin geht die Leistung?
Mehr Takt im quasi leerlauf nutzt mir gar nix :fresse:

Aber recht hatter. Die zwei Tage sollten wir noch warten.

Erst so alles so aus, also könnte AC3 den Verbrauch gut abbilden, aber mit Titan scheint das anders zu sein. Vielleicht sollte die Methode zum Messen des Stromverbrauch noch verändert werden. Schauen wir mal.
 
Wenn HWL Tree SLi Bencht mit Titan mit Aktuelle NV Treiber dann soll HWL auch Tree CF 7970 GE mit Benchen mit Aktuelle AMD Treiber 13.2 Beta 6. Sonst kann sich keiner vorstellen wie 3 NV gegen drei AMD 7970 GE schlägt Danke Don.

Also wenn mich nicht alles täuscht, gibts den Beta 6 seit heute. Zumindest steht das so bei CB im Download.
Wie stellst du dir das bitte vor?
Die Benches sind durch...
 
Wenn HWL Tree SLi Bencht mit Titan mit Aktuelle NV Treiber dann soll HWL auch Tree CF 7970 GE mit Benchen mit Aktuelle AMD Treiber 13.2 Beta 6. Sonst kann sich keiner vorstellen wie 3 NV gegen drei AMD 7970 GE schlägt Danke Don.

Wir haben ersten keine drei Radeon HD 7970 da und zweitens wird uns wohl auch die Zeit ausgehen. Wir haben alle Benchmarks neu gemacht, mit aktuellen Treibern für alle Karten, das ist schon eine Menge Arbeit.
 
Erst so alles so aus, also könnte AC3 den Verbrauch gut abbilden, aber mit Titan scheint das anders zu sein. Vielleicht sollte die Methode zum Messen des Stromverbrauch noch verändert werden. Schauen wir mal.

Ihr könnt ja nochmal nen fixen Verbrauchstest nachschieben. Bis Do. sind ja noch zwei Tage ;) Dürfte ja soooo extrem viel Aufwand nicht sein.

PS: was werden wir für Settings sehen?
FullHD? -> wohl ja
1440/1600p -> wohl ebenso
TrippleScree?
4k@Downsampling?
4xMSAA?
8xMSAA?
4xSGSSAA?
8xSGSSAA?

Speziell 3840x2160er Auflösung downgesampelt auf FullHD sowie 4xSGSSAA Benches, sowie ne Kombi aus beiden würden mich stark intereesieren ;)
 
Ich warte bis die ersten Bananen fliegen? :banana:
 
Wenn das Teil seine Rohleistung nciht auf die Straße bringt, kommt folglich auch nichts im Verbrauch bei rum.
Da ist doch noch was nciht ganz sauber!?


Durchaus... Aber ich hätte mir bei ~950€ dann doch schon gewünscht, das da mehr geht.
Speziell wenn im Luxxartikel steht, das der GPU Takt auch gern mal auf 1006MHz springt. Wohin geht die Leistung?
Mehr Takt im quasi leerlauf nutzt mir gar nix :fresse:

Aber recht hatter. Die zwei Tage sollten wir noch warten.

Die 1006Mhz liegen nur kurz an. Wer die maximale Leistung will, muss mit den Einstellungen spielen oder auf Wakü gehen.

Höhster Default-Boost Step is 1006Mhz. Was ziemlich beeindruckend ist, BTW. Und etwas, was sogar angezweifelt wurde. :d
 
Also im zweiten Video sieht man ja die FPS Zahl des Valley Benchmarkes.
Damit als Vergleichswerte:
GTX 680@1Ghz:
1. Szene: 30~35FPS
2. Szene: 54~44FPS (Abfall der FPS mit Dauer)
3. Szene: 35~40FPS
GTX Titan@1Ghz:
1. Szene: 50~55FPS
2. Szene 89~70FPS (Abfall der FPS mit Dauer)
3. Szene: 50~60FPS

GTX680@1130Mhz
40FPS
GTX Titan@1130Mhz
60FPS

Also wie es ausschaut, bei selber Taktung sind es ca. 50% mehr Leistung bei etwas mehr als +100% des Preises.
 
Zuletzt bearbeitet:
@fdsonne

Beta 6 gibt es seit gestern, sogar schon seit vorgestern.

Wow... zwei Tage. Bravo...
Rechne selbst hoch. 30sec pro Spielebench pro Karte. Geschätzte 10 Karten im Test. Und 10 Spiele. Das sind allein 50min reine Benchdauer.
Ohne Betrachtung der Zeit für Ein/Umbau der Karten. Konfigurationssachen, Treibergeschichten, OS Reboots für saubere Messergebnise blablabla.

Nochmal, die Benches sind schon durch. Und das sicher nicht erst seit gerade eben ;)
Don schrieb doch, es gab ne Wochenend Arbeit. Und da gabs schlicht keinen Beta6.
 
Wow... zwei Tage. Bravo...
Rechne selbst hoch. 30sec pro Spielebench pro Karte. Geschätzte 10 Karten im Test. Und 10 Spiele. Das sind allein 50min reine Benchdauer.
Ohne Betrachtung der Zeit für Ein/Umbau der Karten. Konfigurationssachen, Treibergeschichten, OS Reboots für saubere Messergebnise blablabla.

Nochmal, die Benches sind schon durch. Und das sicher nicht erst seit gerade eben ;)
Don schrieb doch, es gab ne Wochenend Arbeit. Und da gabs schlicht keinen Beta6.

Die Benches sollen ja auch nur ggf. nachgereicht werden um besser vergleichen zu können. Das ihr nicht direkt mit Beta 6 benchen konntet ist klar.
 
Die 1006Mhz liegen nur kurz an. Wer die maximale Leistung will, muss mit den Einstellungen spielen oder auf Wakü gehen.

Höhster Default-Boost Step is 1006Mhz. Was ziemlich beeindruckend ist, BTW. Und etwas, was sogar angezweifelt wurde. :d

Also in dem Video ist das schon recht stabil, und laut dem Tool sind die Powertarget/Temp Settings auch default. Das Teil hält 1006MHz bei unter 80°C.
Genau so wie die 680er bei unter 70°C eben auch den max. Turbo hält.
 
1006MHz mit 14SMX sind auch nur 56% mehr als 1124MHz und 8SMX. Da die Bandbreite nur 50% höher liegt, sehen die 50% gegenüber der GTX680 im Valley Benchmark doch normal aus.
 
Jo fdsonne 1200 MHZ winken.
Ram scheint ja auch was zu gehn.
Was ich mich aber frage ob der 875 mhz boost representiv ist für die Benchmarks oder ob höhere takte am Ende anlagen.
 
Zuletzt bearbeitet:
Hab auch mal Valley gebencht:

Erste Sequenz:
Titan: 53-57fps
GTX 580: 25-27fps

Gut doppelt so schnell wie meine 580.
 
Zuletzt bearbeitet:
1006MHz mit 14SMX sind auch nur 56% mehr als 1124MHz und 8SMX. Da die Bandbreite nur 50% höher liegt, sehen die 50% gegenüber der GTX680 im Valley Benchmark doch normal aus.


ja durchaus. Die Benches die NV aber rausgehauen hat, mit ~43% eher nicht ;)
Könnte aber wie box schon sagte, CPU Limit sein.
 
Achja, gleiche Taktrate. Wie gesagt: TITAN hat nur 50% mehr Bandbreite und in diesem Fall 75% mehr Rechenleistung. Man muss die Bandbreite miterhöhen, um dann auch wirklich das volle Leistungspotential zu haben.

Mal sehen, wie es in anderen Benchmarks wie 3DMark11 aussieht. Dort sollte dann das komplette Potential abgerufen werden.
 
Es war doch schon immer so das die letzten paar Prozentpunkte im Hardwaresektor unverhältnissmäßig teuer waren.
Insofern reiht sich die Titan in die ewig währende Tradition ein . Allerdings ist es ja nun so das nach gut einem Jahr nach Launch der sonst aktuellen Geräte eigentlich eh wieder eine neue Generation dran wäre, die auch oft mal 30-40 % draufgepackt haben, allerdings dann zu dem Preis, mit dem die Vorgängergeneration auch nur gestartet ist.
Nun verkauft man das ganze aber als outstandig series zum deutlich erhöhten Preis. Ziemlich geschickt.
 
Also wie es ausschaut, bei selber Taktung sind es ca. 50% mehr Leistung bei etwas mehr als +100% des Preises.

Hätte ich hier gestern schon gepostet: Bei exakten Takt etwa 50% mehr Leistung. Nach Anzahl der Shader müssten es 75% sein. Naja entweder limitieren die ROPs oder die Bandbreite. Ist im Grunde egal. Für UVP 750 Euro und Marktpreis nach Start bei etwas 650 Euro wäre ok. Aber fast 100% in Euro mehr als für die GTX680% zu verlangen, ist schon unverschämt. Deswegen gibts die :banana: für den Titan.
 
Zuletzt bearbeitet:
Achja, gleiche Taktrate. Wie gesagt: TITAN hat nur 50% mehr Bandbreite und in diesem Fall 75% mehr Rechenleistung. Man muss die Bandbreite miterhöhen, um dann auch wirklich das volle Leistungspotential zu haben.

Sag ich ja die ganze Zeit schon...
Die Bandbreite wird der Knackpunkt werden.
Die potentiellen OC Fähigkeiten werden aber an der Stelle leider etwas verpuffen. Selbst wenn da 1,2GHz drin wären, oder noch mehr unter Wasser. Der VRAM muss mit rauf. Und das könnte schwer werden.
 
SGSSAA richtet es, das braucht soweit ich weiß nicht in dem Verhältnis mehr Bandbreite wie es mehr Rechenleistung braucht :)
 
Sag ich ja die ganze Zeit schon...
Die Bandbreite wird der Knackpunkt werden.
Die potentiellen OC Fähigkeiten werden aber an der Stelle leider etwas verpuffen. Selbst wenn da 1,2GHz drin wären, oder noch mehr unter Wasser. Der VRAM muss mit rauf. Und das könnte schwer werden.

Wir wissen, dass die Bandbreite den Knackpunkt darstellen würde...

Anandtech's TITAN booste bis 996MHz oder 19% höher als Base-Clock. Erhöht man alleine den Temp-Schalter, kommt man wohl locker durchgehend auf die 1000MHz.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh