nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Immer "noch" um knappe 50% normal sind 80/90% Treiberstand u Profile aktuell

40% Einbusen aber hey das kommt ganz gewiss nicht von irgend ner schlapp machenden CPU^^

Ja und?
Was ändert das am gesagten?

Und nochmal, ich sprach von FullHD UND! 1440/1600p. Warum versteifst du dich auf FullHD?
Wie gesagt, das Teil ist Leistungstechnisch OK. Aber nicht überragend. Weder der Name Titan außerhalb des Namensschemas noch der Preis sind dafür gerechtfertigt.

Und ja, im TrippleScreen in der Vorsprung auf ne 680er besser. 25% laut CB im Schnitt auf ne HD7970Ghz Edition sind aber immernoch mau.
 
das hätte man auch als GTX685-Gigabyte-Edition launchen können.

schon fast schade, dass man sich mit der warterei und den spekulationen solange aufgehalten hat. mal schauen, wie sich das verhalten der titan im laufe des jahres ändert, wenn neue spiele und neue treiber erscheinen.. und wie sie sich - an ihrem zenit angekommen - gegen GTX780-SLi oder GTX790 schlägt.

ich bin erstmal raus - viel spaß mit der titan - wer immer noch nicht vom kauf abgesprungen ist.


(..)

mfg
tobi
 
das hätte man auch als GTX685-Gigabyte-Edition launchen können.

schon fast schade, dass man sich mit der warterei und den spekulationen solange aufgehalten hat. mal schauen, wie sich das verhalten der titan im laufe des jahres ändert, wenn neue spiele und neue treiber erscheinen.. und wie sie sich - an ihrem zenit angekommen - gegen GTX780-SLi oder GTX790 schlägt.

ich bin erstmal raus - viel spaß mit der titan - wer immer noch nicht vom kauf abgesprungen ist.


(..)

mfg
tobi

Dem kann ich zu 100% zustimmen.
 
Und ja, im TrippleScreen in der Vorsprung auf ne 680er besser. 25% laut CB im Schnitt auf ne HD7970Ghz Edition sind aber immernoch mau.

Warum eigentlich "laut CB"wer hat denn hier das potente x79 System am Start ?

Passen die starken Luxx Werte im triple Screen nicht so richtig zu dem was du rüber bringen möchtest

BF3 ist 6Kern optimiert u bekommt durch die zusätzlichen 2Kerne nen extra Push u schon setzt auch die Titan Karte das ganze in Leistung um
 
Zuletzt bearbeitet:
Die aktuellen Preise von 950,- euronen sind Quatsch und mit Vorbesteller Aufschlag. :rolleyes:
Ich kann die Karte beim Händler meines Vertrauens für knapp über 800,- kaufen, geliefert würde aber erst Ende nächster Woche. Die 950,- Vorbesteller kriegen die Karte aber auch nicht schneller.
 
Warum eigentlich "laut CB"wer hat denn hier das potente x79 System am Start ?

Passen die starken Luxx Werte im triple Screen nicht so richtig zu dem was du rüber bringen möchtest

Neja ich persönliche finde 8xMSAA Werte nicht repräsentativ. ;)
Der Luxxtest bietet leider nur kein AA oder 8xAA... Außer paar wenigen Messungen bei TrippleScreen.
Und ich gebe CB dem Vorzug, weil diese nen 4,5GHz Ivy nutzen. Somit weniger stark CPU limitiert.
Dazu kommt die Tatsache, das CB offenbar erkannt hat, das Titan stark Temperaturabhängig ist. Sie schreiben, das sie die Karte vor einem Bench 15min vorgeheizt haben. Um so realistische Testbedinungungen zu bekommen.
Das erklärt auch, warum weder viel OC noch so hohe Taktraten wie im Luxxtest dort zu sehen sind. Nämlich weil einfach das Teil in default Settings zu heiß wird, um sich voll auszufahren. So gibt es teils nichtmal den default Boost.

Auch schreibt CB, das 8xMSAA scheinbar die Titan Paradedisziplin ist. Mich und die meisten anderen Tangiert das aber ebenso wenig.


Wenn du bei dir natürlich Wakü willst, tangiert dich das wohl alles so gar nicht ;)
Nur ist und bleibt das eben deine individuelle Einschätzung. Hat aber keine allgemeingültig vergleichbare Relevanz. Das solltest du bei deinen Aussagen hier aber bedenken.
 
Zuletzt bearbeitet:
Hmmm, 2 Stunden später hat der Vaddi auch mal Benches studiert. Hab mir mehr OC erhofft (trotz Bandbreiten-Befürchtungen).
Für mich macht vorerst ne zweite 680er mehr Sinn :-/
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Wie man sieht ist es fuer lukue fans wohl doch sinvoll auf costum kuehler versionen zu warten, das teil ist ja ziemlich gempabhaengig bei ic und turbo. Und wunder vollbringt die vapor chamber wie schon bei der GTX580 nicht..


Sent from my iPhone 4 using Hardwareluxx app
 
Wie man sieht ist es fuer lukue fans wohl doch sinvoll auf costum kuehler versionen zu warten, das teil ist ja ziemlich gempabhaengig bei ic und turbo. Und wunder vollbringt die vapor chamber wie schon bei der GTX580 nicht..

Wieso? Bei vergleichbarer Leistungsaufnhame (GTX 580 - GTX Titan) ist Titan immer rund 5-10°C kühler und deutlich leiser ->Fazit: Der ganze Kühler der Titran ist deutlich besser als der der 580.
 
Wie man sieht ist es fuer lukue fans wohl doch sinvoll auf costum kuehler versionen zu warten, das teil ist ja ziemlich gempabhaengig bei ic und turbo. Und wunder vollbringt die vapor chamber wie schon bei der GTX580 nicht..

Ob die es rausreißen würden?
Ich mein, wenn du nicht TrippleSlot willst, hast du fast keine Chance, denn die Abluft sollte schon hinten raus. Sonst läufst du gerade mit den Customermodellen Gefahr, das da früher oder später auch hohe Temps bei rum kommen.
CB schreibt das ziemlich eindeutig. Die Tests mit "kalten" Karten bescheinigen offenbar mehr Leistung als wirklich bei rum kommt. Sehr kurze Benchszenen von teils nichtmal 30 sec. kommen da noch hinzu.

Das beste wird wohl ne Wakü sein... Aber nochmal 100€ drauf?
Immerhin sind im Geizhals die ersten Shops schon runter von den 949€. (939 aktuell) :fresse:
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Gibts eigentlich auch Reviews, bei denen die 6GB Versionen der 7970 in den Benchmarks mit einbezogen sind?
 
Ja alles hoffen hat nicht viel gebracht denn das was ich so errechnet habe ist leider eingetroffen! Ne gute HD7970@1300MHz ist die bessere wahl! 950€ sind auch deutlich zu viel und wird sich kaum halten können! Kein wunder das AMD da keinen konter bringt!
 
ich meine... so richtig komm ich hier nicht so mit
abgesehen vom Preis, sehe ich ein

aber sie positioniert sich 50% vor einer 680
und rund 30% vor ner GHz Edition, nicht vergessen, das ist schon ein Refresh, auf ne 7970 Release sinds bedeutend mehr
ich für meinen Teil hab nun 6 Benchseiten durchgelesen, sie ist da wo sie sein soll, 50% vor ner 680, was interessiert mich ne GHz Edition aus der schon alles rausgequetscht ist
AMD darf also refreshen, Nv nicht oder wie?

das Ding ist sogar in diesem Zustand mehr green IT als die 7970 und das würde mir mal als erstes zu denken geben
und sie hat Performance genau zwischen 680 und 690 und darum möchte ich sie haben
ich will kein 680 SLI, vielleicht ne 690, aber niemals never forever CF....

wie gesagt Preiskritik lass ich mir gefallen, ist überzogen, aber stört mich nicht, mein Geld kommt aus dem Geldautomaten
und die Performance: man hört " olololol nur 20-30% vor ner GHz-Edition"
ja richtig, vielleicht sinds nur 20-30, aber wie gesagt das ist auch ein Refresh seitens AMD und zu ner normalen 7970 sieht das nochmal ganz anders aus

Edit: ich meine ...

 
Zuletzt bearbeitet:
Naja, eher 40% vor ner GTX 680 und nur rund 20-25% gegenüber ner HD 7970 GHz Ed. Mit 1300MHz dürfte man fast schon dran sein (bei doppeltem Stromverbrauch:fresse:)
Fakt ist, Titan bietet ein tolles Gesamtpakte (3 Gib hätten es auch getan) ist aber einfach viel zu teuer. Gerade, was die gebotene Mehrleistung angeht
 
Nach Anandtech gönnt sie sich Titantic gut 50W mehr bei Battlefield 3. Weicht irgendwie von den anderen Messungen ab oder benched Anandtech mit vorgeglühten Karten.
 
Zuletzt bearbeitet:
@Naennon
Welche Tests hast du gelesen, wo 50% rauskommen?

CB und PCGH testen beide mit sinnvollen Bedinungen. Nämlich beide unter Einbezug des Temperatetargets. Die Karte boostet viel höher, wenn sie kälter ist. Beim Luxxtest ist die scheinbar leider unbeachtet geblieben.
PCGH misst ~10% allein durch die Temperatur, wenn man ~22°C Frischluft an die Karte bringt (im offenen Aufbau)
Auch CB kommt auf ~10%, wenn man das Powertarget erhöht sowie die Temp auf ein max. einstellt.

Ist also alles andere als Repräsentativ.
Unterm Strich bleiben in meinen Augen enttäuschende ~30-40% im Schnitt im SingleScreen, vllt was mehr im TrippleScreen bzw. bei einzelnen Games übrig.

Ne 680er Single GPU mit ~20% VRAM OC + ordentlich GPU Takt legt allein schon um die 20% drauf. In weniger Bandbreitenlastigen Settings sogar mehr. Bleibt nicht viel Vorsprung für Titan.
 
Zuletzt bearbeitet:
Hm.. hab ich große Nachteile mit einer zweiten 680 ?
Ist dass Problem mit Microrucklern schlimm ?
 
nur 2GB VRAM ;)
MR sind ansichtssache. Manche merken sie, andere nicht... Selbst testen heist das Motto in dem Fall.
 
dem schliesse ich mich an - auch wenn ich nach den palits von einzelkarten-SLi geheilt bin.


(..)

mfg
tobi
 
Naja, bei einzelkarten SLI taugt ein DHE-Kühler mMn eh mehr als ein custom-Kühler, welcher die ganze warme Luft ins Case befürdert und die andere Karte aufsaugen muss:)
 
auch da bin ich ganz bei dir - allerdings muss man so ein fiasko erstmal erlebt haben.


(..)

mfg
tobi
 
Hmmm, 2 Stunden später hat der Vaddi auch mal Benches studiert. Hab mir mehr OC erhofft (trotz Bandbreiten-Befürchtungen).
Für mich macht vorerst ne zweite 680er mehr Sinn :-/

und auch hier die frage: warum das upgrade? was läuft denn nicht zufriedenstellend? oder einfach lust auf veränderung?

ich persönlich finde die karte schon nett. auch der performance-zuwachs ist ok. aber der preis ist einfach unverschämt. preis-/leistung stimmt einfach nicht.

grüße

..::mcpaschetnik::..
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh