nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Fakt an sich: auf 80% der GTX 690 zu kommen ist aber nicht unmöglich :)
Halte ich aufgrund der Gerüchteküche für grundsätzlich möglich, jedoch zu optimistisch gedacht. Begründen kann ich es nicht, ist ein Bauchgefühl :)

Rechnen wir mal anders: die 690 erreicht - wenn ich richtig informiert bin - ca. die doppelte Leistung einer 680GTX.
Wenn TITAN nun bis auf 20% an die 690er rankommt, müsste er ca. 30% schneller sein als die 680GTX oder?!

Ist halt jetzt die Frage, ob die 30% tatsächlich realisiert werden können und wie, d.h. welche Auflösung, welche Bildqualitätseinstellungen, usw.
Tja und dann noch die Frage des OC-Potentials.


Oder wie seht ihr das?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das heißt, man kann zurzeit nur spekulieren, ob beispielsweise 20% weniger als Leistung die GTX 690 gleichbedeutend 20% mit weniger Verkaufspreis ist

ne, 80% ist OC Wert
GTX690=180% bei 80% Skalierung von einer GTX680 als 100%

also muß man 80% von den 180% rechnen und kommt so auf den Wert der Titan samt OC. Von dem Wert noch 20% abziehen und dann haste den Stockwert der Titan.
 
@GAThrawn Wollen wir wetten mein PC ist in jeden Spiel und Benchmark schneller als deiner? :d

@Topic Die Titan ist schon ein Monster, Asus baut da garantiert ne Edition mit 3 8Pin Steckern, dann sollte
man auch gut OCn können :d
 
Denke auch das Titan die 70-90 % von der GTX690 schafft allerdings mit OC. Was es dann am Ende wird, sehen wir ja dann bald.
Das wichtigste wird wohl auch der Preis sein!

~699€ wäre das "cool"
~899€ würde die Karte wohl für mich sterben(bei den Leistungsdaten), außer die Rock total bei 5760x1080/1200


Na ja bin sehr gespannt.
 
beleidige mich ruhig Thunderburne, ich sag immer entscheidend ist was am ende vom quartal bei rauskommt, und das sehen wir ja jedes quartal aufs neue^^

Nein, das ist Bullshit. Was interessiert dich bitte, was NV am Ende des Quartals unterm Strich stehen hat?
Das ist doch völlig uninteressant. Und selbst wenn die dort Quadrilliarden von Kohle bekommen würde. du kannst dir nichts! aber auch gar nichts davon kaufen. Es sei denn NV bezahlt dich ;)
Dann sieht das anders aus. Aber dann wäre auch von Grund auf keine objektive Betrachtungsweise möglich.

Und ja, ich respektiere deinen Standpunkt voll und ganz. Keine Frage. Dennoch geht es hier nicht um deinen oder meinen Standpunkt. Und das habt ihr verdammte axt auch zu akzeptieren. Es gibt klare Regeln hier im Forum. Die sind weder von mir, noch von anderen Mods hier aufgestellt.
Nur zu deiner Info, du hast genau wie alle anderen beim Registrieren in diesem Forum die Regeln akzeptiert. Verhaltet ihr euch nicht Regelkonform, bekommen wir schnell miteinander ein Problem ;)
Und jede Wette, auch wenn ich diese Tatsache nicht primär auslebe, ich sitze dabei am längeren Hebel!

Also nun ist Ruhe hier mit diesem Quatsch. Und Back to Kepler.
 
Halte ich aufgrund der Gerüchteküche für grundsätzlich möglich, jedoch zu optimistisch gedacht. Begründen kann ich es nicht, ist ein Bauchgefühl :)

Rechnen wir mal anders: die 690 erreicht - wenn ich richtig informiert bin - ca. die doppelte Leistung einer 680GTX.
Wenn TITAN nun bis auf 20% an die 690er rankommt, müsste er ca. 50% schneller sein als die 680GTX oder?!

Ist halt jetzt die Frage, ob die 50% tatsächlich realisiert werden können und wie, d.h. welche Auflösung, welche Bildqualitätseinstellungen, usw.


Oder wie seht ihr das?

GTX690 erreicht im besten Fall 95% mehr Leistung als die GTX680. Da SLI eben nicht immer mit 100% skaliert, sollte man im Schnitt von 80% zur GTX680 ausgehen.

Und damit erkennen wir auch, wo sich TITAN gegenüber der GTX690 einpendeln wird:
72,2% bis 83,3% der GTX690.

Und mit der Angabe ist TITAN eigentlich nicht mehr als 700€ wert. Immerhin bekomme ich zur Zeit eine GTX690 für 850€ oder weniger.
 
Verstehe ich nicht. Klar wenn ich mit einem BMW der nicht gerade 10 Jahre alt ist,(manche meinen ja damit auch einen dicken machen zu können) vor der Disse vorfährt, macht man eventuell leichter ein paar Chicks klar, als wenn ich da mit einem Yaris aufkreuze, aber wen interessiert das Image bei einer Graka. Kommt dann der( weibliche) Besuch nach haus, fragt nach dem GPU Hersteller und meint boah ey du hast ne Nvidia, geil ey, nimm mich. Man kann mit dem angeblichen Image eines GPU Herstellers doch überhaupt nichts nach außen transportieren, weshalb man sich angeberisch besser fühlen müßte. Es geht doch einfach nur um Preis/Leistung, der HERTELLER IST MIR EGAL.
Ich finde es ja immer drollig, wie sich einige damit rühmen das Nvidia viel Geld verdient hat, als wäre es Teil ihrer eigenen Erungenschaft, ja es wirkt so als säßen sie als Entscheidungsträger im Vorstand und wären einzig und allein dafür verantwortlich und dann wird damit herausgestellt wie clever man doch ist, auf das Unternehmen gesetzt zu haben das mehr GEld verdient, also hat man sich weil man ja klüger ist, für das richtige Unternehmen entschieden. Das sind schon sehr weise Kaufsentscheide. Beide Hersteller setzen die Preiskalkulation an einem für sie optimal funtionieren Level an, AMD veräußert seine Karten auch nicht günstiger um den Käufer sozial entgegenzukommen. Image sollte einem beim Hardwarekauf garnichts wert sein, einzig harte Fakten zählen.
Die Treibergeschichte hat doch mittlerweile schon einen solchen Bart, Missstandsberichte gibts auf beiden Seiten. Die Effiziens ist auch nicht soviel besser, bedenkt man die schlechten gpgpu werte von gk104. Man mag es kaum glauben aber es gibt auch Menschen die auf Open CL setzen neben dem gaming. Ich nehme das Mehr an leistung in dem bereich gern für weniger kaufpreis an.
ich könnte wetten das wenn selbst das mit den 30-40% bei titan stimmt, werden die karten dennoch gekauft als gäbe es kein morgen.
Dann kann man sich denken wohin die reise preislich in zukunft führt.

es geht um das image das dazu führt das sich jemand die karte kauft, nicht im chicks klarzumachen. das funktioniert bei sehr vielen, meist daus indirekt. Das das nvidia marketing hier richtig gut ist geben ja selbst hardcore amd fan zu, hier hat amd eben defizite

um mal back to topic zu kommen, ich bin gespannt obs von evga ne ftw lukü version geben wird, mit schön hohem takt
 
Zuletzt bearbeitet:
GTX690 erreicht im besten Fall 95% mehr Leistung als die GTX680. Da SLI eben nicht immer mit 100% skaliert, sollte man im Schnitt von 80% zur GTX680 ausgehen.

Und damit erkennen wir auch, wo sich TITAN gegenüber der GTX690 einpendeln wird:
72,2% bis 83,3% der GTX690.

Und mit der Angabe ist TITAN eigentlich nicht mehr als 700€ wert. Immerhin bekomme ich zur Zeit eine GTX690 für 850€ oder weniger.
Mal abgesehen von meinem (im nachhinein editieren Denk-/Rechenfehler) sehe ich das genauso. Das bedeutet aber imo auch, dass gerade mal gute 30-35% Vorsprung zur 680er sind. Diese Sicht finde ich viel "krasser".

Ich persönlich sehe da selbst einen Invest von 700 Euro für rund 30% Performancezuwachs als sehr kritisch an.
Es sei denn, ja ... es sei denn OC wird's richten und die Handbremse an Titan lösen :d
 
Zuletzt bearbeitet:
Na ja wenn es doch "nur" 70% mehr Leistung ist zur GTX 690, und der Preis bei ~900€ liegt hat sich es erledigt.
Dann kommt wohl ein 690 rein bei ebäy gehen die Dinger teils bei 650€ raus oO
 
@fdsonne
du sag mal was meinst du wie das bei hohen Auflösungen ist im bezug auf skalierung der TMUs weil wenn man sieht das die HD7970 bei hohen Auflösungen durch die 33% mehr Shadern auch ab und an diesen Vorsprung in FPS umwälzen kann (z.B. BF3 MP)
aber auch bei vielen anderen games kaum was bei rumkommt, es sein kann das die deutlich mehr TMUs des Titan grade in diesen games (wo die 33% mehr Shader der HD7970 nichts mehr bringen) einen deutlichen schub bekommen könnten weil diese einfach der limitierende faktor ist?
Weil dann könnte der Titan in diesem bereich auf einmal doch unerwartet gut sein.

Ich beziehe mich da auf folgenden vergleich

BFBC2 @ Downsampling 3840x2160 GTX580 SLI@1GHz kaum spielbar wärend es auf der HD6970@ CF(950Mhz) fast konstand bei 60FPS zu halten ging!
580=64TMUs
HD6970=96TMUs
 
Zuletzt bearbeitet:
Wunschdenken. Die Spezifikationen sind vollständig und kein Fake ;)
Es gibt Folien, es gibt die Specs direkt auf Nvidias Seite. Wär ja schon arg merkwürdig, wenn das alles nicht korrekt wäre.

Solltest du aber Recht haben, bekommst du einen Keks.
 
Zuletzt bearbeitet:
Für mich wär das Ding schon raus, wenn die teurer ist und weniger Performance hat.
@Grinsemann Quelle: Meine Fantasie, Preis: 100€ mehr :d
@GAThrawn Ja das nVidia Marketing hat echt gezeigt was sie können (f2P Titel Bonus vs Never Settle)
 
Halte ich aufgrund der Gerüchteküche für grundsätzlich möglich, jedoch zu optimistisch gedacht. Begründen kann ich es nicht, ist ein Bauchgefühl :)

Rechnen wir mal anders: die 690 erreicht - wenn ich richtig informiert bin - ca. die doppelte Leistung einer 680GTX.
Wenn TITAN nun bis auf 20% an die 690er rankommt, müsste er ca. 30% schneller sein als die 680GTX oder?!

Ist halt jetzt die Frage, ob die 30% tatsächlich realisiert werden können und wie, d.h. welche Auflösung, welche Bildqualitätseinstellungen, usw.
Tja und dann noch die Frage des OC-Potentials.


Oder wie seht ihr das?

Wasn das für eine komische Art der Prozentrechnung, das war wohl eher Promillerechnung der anderen Art. Um das mal mit Zahlen zu untermauern dieses theoretische beispiel nach deiner Prozentwertwahl.
eine 680 schafft 100fps, eine 690 derer 200.
nun erreicht titan 80 prozent der 690, das sind 160fps. das sind dann immernoch 60% mehr als eine 680 gtx erreicht.
Wie kommst du da auf 30% anhand deiner Leistungswertetheorie?
 
Dann wird es wohl um den Preis gehen. Von den Specs ist eigentlich alles klar.
 
es geht um das image das dazu führt das sich jemand die karte kauft, nicht im chicks klarzumachen. das funktioniert bei sehr vielen, meist daus indirekt. Das das nvidia marketing hier richtig gut ist geben ja selbst hardcore amd fan zu, hier hat amd eben defizite

um mal back to topic zu kommen, ich bin gespannt obs von evga ne ftw lukü version geben wird, mit schön hohem takt

Das war ein Vergleich. Im Automobilsektor trägt man das Image nach außen, jeder sieht dich damit und jemand mit einer Profilneurose hat es vielleicht nötig seinen STatus anhand einer Automarke nach außen zu transportieren. Im Pc Sektor interessiert das doch keinen Hansel, mich hat noch kein Schwein beim betrachten meines REchners nach der Grafikkarte gefragt, eigentlich interessiert da niemand für , außer ich mich selbst. Mein Image wird durch den Leistungsbalken und den Preis bestimmt. Damit komme ich besser durchs Leben als mir darum gedanken zu machen,, was andere von dem Produkt halten. es muß mir passen.
 
dann würde ich lieber einen titan für 600€ nehmen mit nur 3GB RAM ;)
 
Re:

Bei 6gb ram brauchste echt 3 und nen entsprechendes 120Hz Setup :love:

Gar nicht so einfach mit so nem Prügel - vor allem sieht die so Hammer aus :)

Aber zum Glück bin ich mittlerweile ruhiger geworden, meine Kiste reicht völlig zu :-)

LG Marti

gesendet von unterwegs... (keine Signaturen sichtbar)
 
@fdsonne
du sag mal was meinst du wie das bei hohen Auflösungen ist im bezug auf skalierung der TMUs weil wenn man sieht das die HD7970 bei hohen Auflösungen durch die 33% mehr Shadern auch ab und an diesen Vorsprung in FPS umwälzen kann (z.B. BF3 MP)
aber auch bei vielen anderen games kaum was bei rumkommt, es sein kann das die deutlich mehr TMUs des Titan grade in diesen games (wo die 33% mehr Shader der HD7970 nichts mehr bringen) einen deutlichen schub bekommen könnten weil diese einfach der limitierende faktor ist?
Weil dann könnte der Titan in diesem bereich auf einmal doch unerwartet gut sein.

Neja Architekturübergreifend vergleichen ist schwer bis unmöglich.
GK104 verliert zumindest im Vergleich zu Tahiti etwas an Boden, wenn es darum geht. Nicht viel, aber etwas.

Das Problem ist, auch der Vergleich hinkt massiv. Denn GK104 wird idR als 2GB Version getestet. Da brauchs nur mal ein paar Nachladeruckler, die die FPS Rate etwas weniger hochschnellen lassen, und du hast schon wieder etwas avg. FPS eingebüßt. Klassische Nachladeruckler gibts ja auch heute eher seltener, sprich läuft, oder läuft gar nicht, sieht man idR ja nur, wenn man es wirklich übertreibt mit dem VRAM usage...

GK110 wird sich wohl gerade in hohen Settings (DS, 4k Auflösungen) von GK104 absetzen können. Nicht nur wegen dem mehr VRAM. Sondern auch vom ALU Ausbau her.
Ob das nun direkt an den TMUs liegt, ist schwer zu beurteilen.
Was halt aktuell unklar ist, wie sich die Pixelfüllrate auswirkt, denn diese steigt deutlcih weniger stark im Vergleich zu GK104. Das muss sich zeigen ;)
 
Was für einen Verwendungszweck hat denn die Pixelfüllrate heutzutage überhaupt, wofür genau ist sie wichtig?
 
Die Pixelfüllrate gibt an, wieviele Pixel pro Takt von den Rasterizer an den Bildschirm ausgegeben werden können.

Ich bezweifel, dass 35 Gigapixel/s bei Bildschirme mit Megapixel zur Limitierung führt...
 
Also in der Theorie sollte zumindest bei Mehrbelastung durch mehr Auflösung der Anspruch an die Pixelfüllrate steigen.
Die Frage ist halt, in wie weit das aktuell überhaupt noch zum Tragen kommt. Auch dürfte theoretisch die AA Skalierung zum Teil an der ROP Power hängen. Zumindest wenn nicht vorher andere Sachen limitieren.

Ganz unwichtig wird der Spaß nicht sein, sonst hätte man mit Kepler nicht die ROPs arg verbessert im Vergleich zu Fermi.

Wie schonmal gesagt, ein Bench mit ner 660TI vs. ne VRAM untertaktete 670er würde Aufschluss bringen. Hab aber weder die eine, noch die andere Karte :fresse:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh