nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ich hab mir ne sogut wie neue 680 für 300€ gekauft. Mehr wäre mir eine Performance-Karte niemals Wert gewesen. Mit heulen hat das nichts zu tun:wall: Ich heiße solche Preise einfach nicht gut und das ist meine Meinung. Wer zu viel Geld hat, kann ja gerne kaufen. Ich sehe es einfach nur nicht ein, solche Preise als gerechtfertigt zu sehen. Das ist der Punkt.

Das ist doch eigentlich Bullshit. Die Gtx 680 war zu Release vielleicht sogar etwas besser als die 7970 = schnellste Karte wie die Gtx 580 damals. Aber nur weil die Karte nicht diese "tollen" Teile hat kauft man sie nicht ? Ihr fühlt euch doch einfach nur von Nvidia verarscht, nur vorher war es aus eurer Sicht gerechtfertigt xD
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und?
Wen interessiert das?
Bekanntermaßen profitiert nicht nur AMD von besserer Fertigung. Es gibt Custom Modelle, die gemessen mit ~210W die Leistung der GHz Edition bringen. Und das schon seit Monaten.
Rechne hoch auf 250W. Wären knappe 20%. Titan wird wohl definitiv besser. Aber so schlecht, wie du hier mal wider alles hinstellst, ist es bei weitem nicht. Nimm die grüne Brille ab, dann fällt auch dir das auf.

Bekanntlicherweise hat AMD Referendesigns verschickt, die 250 Watt benötigen. Warum sollte man die grüne Brille abnehmen, wenn man sich auf AMD verschickte Karten bezieht?
Wer die Realität ignoriert, der glaubt eben auch an alles.


Weist du denn, ob die nicht was dran drehen?
Welche Konkurenz hat AMD denn aktuell? Ich sehe keine... Und Titan ist schlicht nicht Marktrelevant bei dem Preis, daran gibts nichts zu rütteln.

Stimmt. AMD hat echt keine Konkurrenz, wenn es um das Nichtverkaufen von Grafikkarten geht. Die haben darin sozusagen ein Monopol.

Was interessiert mich, was der Porsche oder Ferrari alles kann, wenn ich mir nur nen Golf leisten kann?
Und ja, das Beispiel ist mit Bedacht gewählt, denn der Golf kostet als Wagen seiner Klasse in meinen Augen auch schon sehr sehr viel.

Toller Vergleich. Der Grund warum TITAN nicht zum Golfpreis angeboten wird, liegt daran, dass Opel meinte den Corsa auf Astra-Niveau zu heben, weil man 2 Monate vor VW mit der neuen Generation dran war. Und nun hat man das Dilemma, dass man bei VW nur noch den Polo zum Golfpreis und den Golf zu whatever erhält.
 
Das ist doch eigentlich Bullshit. Die Gtx 680 war zu Release vielleicht sogar etwas besser als die 7970 = schnellste Karte wie die Gtx 580 damals. Aber nur weil die Karte nicht diese "tollen" Teile hat kauft man sie nicht ? Ihr fühlt euch doch einfach nur von Nvidia verarscht, nur vorher war es aus eurer Sicht gerechtfertigt xD
Ermmmmm, GF110 war 520mm^2, GK104 ist <300mm^2...
 
Ermmmmm, GF110 war 520mm^2, GK104 ist <300mm^2...

Richtig. Es geht allein schon darum, was man für das Geld bekommt. Klar, die 680 war zu release die schnellste Karte, aber auch damals eben einfach Performance. Ich mache High-End schon lange nicht mehr an reiner Performance fest. Es gibt da deutlich bessere Parameter;)
 
Zuletzt bearbeitet:
Außerdem meinte ich mit Titan bleibt auch 2014 noch die schnellste Karte über das ganze Jahr gesehen, gegen Oktober könnte schon etwas schnelleres kommen. Außerdem glaube ich nicht das eine 8970/Gtx 780 schneller sein werden zumindest nicht ohne oc.
 

Ich meine schon 2014.

Wenn AMD 2013 nichts bringt kommt von Nvidia 2013 wohl auch nichts.
Wenn Titan 50% auf ne 7970 draufpackt wird das auch von der nächsten Generation nicht überboten jedenfalls nicht @ stock

Natürlich nur theoretisch. Und selbst wenn nicht wird Titan 2014 nicht einfach so von jeder Mittelklasse Gpu geschlagen.
 
Zuletzt bearbeitet:
Titan dürfte ca. 25 bis 30% schneller werden als die HD7970 Ghz Edition und gar eine HD7970 1250 Mhz könnte fast schon auf Titan Performance hinkommen.
Dennoch sieht AMD keinen Bedarf, da es sich wohl nur um ein mehr oder weniger "Prestige Objekt" handelt.

In wenigen Minuten sollte es in itali. Forum losgehen.
 
Ich denke mit guten Treibern sind 40 bis 50% zur 7970@1200 drin!
 
Und wenn AMD eben das Frontend nicht erweitern kann? Denkst du, die sind so blöd und hätten es nicht schon längst getan?

Frontenderweiterung kostet massiv viel Geld und ist keine Kleinigkeit. GF110 hat 16 kommunizierende Einheiten, GK110 immernoch 15.
GCN ist eine neue Architektur die fast nichts mit dem Vorgänger zu tun hat, bisher gibt es nur eine Version davon, also nicht gleich pessimistisch sein was den richtigen überarbeiteten Nachfolger angeht ;)
 
Ich denke mit guten Treibern sind 40 bis 50% zur 7970@1200 drin!

Und wie soll das gehen? Die Treiber sind jetzt schon recht gut auf GK104 und andere optimiert. 40% funktioniert einfach nich. Titan kann einfach nicht mehr 70% im Durchschnitt schneller als eine GTX 680 werden... Zwischen einer 1200MHz 7970 und Titan (stock) liegen am ende wohl nur weniger als 20%...
 
Leute?!

ist das euer Ernst?

was habt ihr immer mit eurer GHz Edition?
habt ihr mal ne 680 auf 1400 MHz gesehen?
wie sollen denn 75% mehr Cores, Interface, ROPS, TMUs nur 10-20% schneller als so einen GHz Edition sein, wenn die 680 @ OC (nix anderes ist ne 7970 GHz Edi) gleichauf ist? und ich rede nicht von 5 FPS mal da mehr mal da weniger, die Karten schenken sich nichts

Edit:
http://www.obr-hardware.com/2012/03/best-oced-radeon-hd-7970-lightning-vs.html
http://www.hardocp.com/article/2012...80_lightning_video_card_review/9#.USFgGGczxO8

nicht?
 
Zuletzt bearbeitet:
+1

Titan muss 50% schneller sein als ne Gtx 680 bzw normale 7970 sonst wäre die Karte (je nach Preis) absoluter Dreck
 
GCN ist eine neue Architektur die fast nichts mit dem Vorgänger zu tun hat, bisher gibt es nur eine Version davon, also nicht gleich pessimistisch sein was den richtigen überarbeiteten Nachfolger angeht ;)

Fermi hatte ebenfalls nichts mit der Vorgängergeneration zu tun und trotzdem hat nVidia Front-End wie Back-End überarbeitet.

GCN hat den exact gleichen Front-End-Aufbau wie Cayman. Der großte Unterschied kommt vom unified L2-Cache, worüber die beiden Geometriepipelines kommunizieren können. Rasterizer dagegen arbeiten weiterhin an jeweils 16 Pixel, was dazu führt, dass nun ganze 16 Compute Units unter einem Rasterizer und Geometriepipeline sind.

Ehrlich: Nachdem AMD das Problem mit GCN nicht angegangen ist - was eigentlich lächerlich ist, da "weißes Blatt Papier" - erwarte ich in dieser Richtung nichts mehr. Liebers positiv überrascht als negativ enttäuscht werden.
 
Leute?!

ist das euer Ernst?

was habt ihr immer mit eurer GHz Edition?
habt ihr mal ne 680 auf 1400 MHz gesehen?
wie sollen denn 75% mehr Cores, Interface, ROPS, TMUs nur 10-20% schneller als so einen GHz Edition sein, wenn die 680 @ OC (nix anderes ist ne 7970 GHz Edi) gleichauf ist? und ich rede nicht von 5 FPS mal da mehr mal da weniger, die Karten schenken sich nichts

Nochmal: Die Spezifikationen lassen einfach nichts anderes zu, wie oft denn noch...
Titan hat mit 2688 Shader und 837 (876 MHz) genau 45% mehr Rechenleistung als eine GTX 680. Dazu kommen noch +50% Bandbreite und 50% ROPs. Das Ding kann einfach nicht mehr als 50% schneller werden, nicht möglich (außer eben, wenn die 2GiB limitieren) Aber im Durchschnitt werden es rund 50% werden.

Zur Ghz Ed.: Die ist zurzeit schon rund 10-15% schneller als die 680- Titan kann so nur rund 30-35% schneller werden. Die GHz ist eine offizielle Karte von AMD, so wie die normale HD 7970 oder auch die GTX 680 von nvidia. Und daran muss sich Titan messen.
 
Zuletzt bearbeitet:
Vidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Bei AMD über Wundertreiber auslassen aber jetzt damit bei Titan anfangen, haha solche seid ihr. :rofl:

Bei amd gab es mit dem 12.4 einen wahnsinns Schub und mit dem 12.11 nochmal!
Titan ist nicht gleich gk104! Alleine das si macht sein übriges!
Aber bald wissen wir mehr!!!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Vidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Nochmal: Die Spezifikationen lassen einfach nichts anderes zu, wie oft denn noch...
Titan hat mit 2688 Shader und 837 (876 MHz) genau 45% mehr Rechenleistung als eine GTX 680. Dazu kommen noch +50% Bandbreite und 50% ROPs. Das Ding kann einfach nicht mehr als 50% schneller werden, nicht möglich (außer eben, wenn die 2GiB limitieren) Aber im Durchschnitt werden es rund 50% werden.

Zur Ghz Ed.: Die ist zurzeit schon rund 10-15% schneller als die 680- Titan kann so nur rund 30-35% schneller werden. Die GHz ist eine offizielle Karte von AMD, so wie die normale HD 7970 oder auch die GTX 680 von nvidia. Und daran muss sich Titan messen.

Wenn das wirklich stimmt...dürfte sie nur 600 max 700 kosten!!!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Titan ist nicht gleich gk104! Alleine das si macht sein übriges!

Richtig, aber selbst dann sind nur max 50% mehr als GK104 möglich.

Wenn das wirklich stimmt...dürfte sie nur 600 max 700 kosten!!!

Das versuche ich ja die ganze Zeit schon zu verdeutlichen: Die Karte ist rund 35% schneller als AMDs Flaggschiff, kostet aber vorraussichtlich mehr als doppelt so viel...
 
Zuletzt bearbeitet:
Vidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Abwarten!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ich hoffe ihr habt unrecht mit dem titan 15 smx refresh in 2014, das waere ziemlich mies fuer die die jetzt 900 tacken raushauen.
Soviel schneller waere die nicht, aber der nimbus der schnellsten, der titanischen karte waere dann weg. Und genau dafuer wird die dicke kohle rausgehauen. Genau deswegen wollte ich auch gleich die 15 smx


Sent from my iPhone 4 using Hardwareluxx app
 
Nochmal: Die Spezifikationen lassen einfach nichts anderes zu, wie oft denn noch...
Titan hat mit 2688 Shader und 837 (876 MHz) genau 45% mehr Rechenleistung als eine GTX 680. Dazu kommen noch +50% Bandbreite und 50% ROPs. Das Ding kann einfach nicht mehr als 50% schneller werden, nicht möglich (außer eben, wenn die 2GiB limitieren) Aber im Durchschnitt werden es rund 50% werden.

Zur Ghz Ed.: Die ist zurzeit schon rund 10-15% schneller als die 680- Titan kann so nur rund 30-35% schneller werden. Die GHz ist eine offizielle Karte von AMD, so wie die normale HD 7970 oder auch die GTX 680 von nvidia. Und daran muss sich Titan messen.

Wir wissen doch überhaupt nichts von TITAN - vielleicht die Bandbreite.
Wenn nVidia die Karte für $899 verkaufen will, dann wird sie auch schneller als 50% werden. Ansonsten werden die Leute nämlich eher zur GTX690 greifen.
 
Genau deswegen wollte ich auch gleich die 15 smx

So sehe ich das ja auch. Wie gesagt, ich würde es nVdia zutrauen:d

Wir wissen doch überhaupt nichts von TITAN - vielleicht die Bandbreite.
Wenn nVidia die Karte für $899 verkaufen will, dann wird sie auch schneller als 50% werden. Ansonsten werden die Leute nämlich eher zur GTX690 greifen.

14SMX sind sogut wie bestätigt. 836 (875MHz) ebenfalls. Daraus kann man einfach die Theoretische Rechenleistung errechnen. Schneller als diese geht es einfach nicht...
 
Zuletzt bearbeitet:
so sieht es aus, ne Karte die nur 50% der 690 leistet kann nicht 100% der 690 kosten
das hätte gar keinen Sinn
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh