nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
@Berni_ATI

Nimm ihn nicht ernst, alleine das er auf deinen Namen eingeht zeigt, dass er keine Argumente hat, zum Tessalationcheating sag ich jetzt nix. Lass sie weiter in der Gerüchteküche kochen, wir schweigen und genießen. :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was genießt du denn?
das du in jedem Nv Thread deine ATI Love bekundest?

ich brauch auch keine Argumente, die liefert NVidia am 18.
und irgendwann mal wieder AMD und irgendwann wieder Nv
 
Die SI Limitierung fällt nicht weg ;)
Bestenfalls verschiebt sie sich nach hinten... Da die Bandbreite aber wohl spekuliert nur 50% zulegen wird, zu ner 680er, wird je nach GPU Takt das Bandbreitenlimit ggf. sogar noch größer als bei GK104.

Das Problem ist nämlich, dir nutzt der ganze GPU Takt nix, wenn du die Bandbreite nicht liefern kannst. Vor allem heizt die GPU dann unnötig ohne groß mehr Performance rauszuhauen.
Siehe GTX 670 zu 680. Aus über 20% mehr GPU Power kommen schlappe 10% mehr FPS raus... (Durchschnitt)

So sieht es nämlich aus. Im Verhältnis bei zu hohem GPU-Takt krankt ein Titan dann sogar noch stärker an zu wenig Bandbreite trotz 384Bit SI und 288GB/s. Wie gesagt, im Schnitt irgendetwas um 45-50%. Man darf auch nicht vergessen, dass die skalierung, je mehr Shader, irgendwann abfallen wird. Bei gleichem Takt dürften die 75% mehr Shader auch keine 75% mehr Leistung bringen, sondern eher um die 60.
 
Was ich genieße fragst du? Ich genieße den Thread und wie sich alle an irgendwleche Werte klammern die nicht mal offiziell sind. Aber am 18.02 wird dann vllt. die Bombe platzen oder viele werden sich einfach nur kaputt lachen, wir werden sehen.
 
siehst, du wartest bis zum 18. ich lach jetzt schon
Sachen gibts, so und nun ab auf die Liste, bist in guter Gesellschaft mit Schaffe und den anderen "roten"

@ LSSJBroly: ja 60% +/- halt ich für realistisch, 90% von 690 nicht wirklich, zumindest nicht ohne OC
 
siehst, du wartest bis zum 18. ich lach jetzt schon
Sachen gibts, so und nun ab auf die Liste, bist in guter Gesellschaft mit Schaffe und den anderen "roten"

@ LSSJBroly: ja 60% +/- halt ich für realistisch, 90% von 690 nicht wirklich, zumindest nicht ohne OC

Yeah ein Fanboy weniger, Pfui ridiculo!
 
Die Häme und Gehässigkeit kann der spanische Strand auch mal daheim lassen. Sowas ist einfach unreif und unnötig.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Abwarten und old school benchen :d

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
@ LSSJBroly: ja 60% +/-

Das bezog sich bei selben Takt! GK104 taktet aber mit bis zu 1124Mhz, also allein schon 12% höher als der Base-clock. Und GK110 wird auch mit max. Boost bei unter 1000Mhz Bleiben. Also weiterhin rigendtewas zwischen 40 und 50% im Durchschnitt.
 
ja hast recht aber @naennon springt darauf an und benimmt sich genauso kindisch.
ich habe ne 7950,bin ich jetzt ein roter?
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Nö käfdox, du diskutierst ja auf normalem Niveau ;)
Ich gehe halt auch nicht in AMD Threads und beweihräucher intel/NVidia... Darum geht es
 
Jetzt reichts aber Kollege, wo beweihräuchere ich AMD/nVidia? Hast du irgendwas geraucht? Ich gehe lediglich auf Beiträge ein wo irgendwelche Specs gepostet werden die nichtmal ansatzweise fix sind und gebe hier nicht Preis, dass ich ein AMD Fanboy bin. Komm mal von deinem hohen Ross, du bist nämlich derjenige der Berni angegangen ist, aufgrund seines Namens. Ich wette ich habe hier zu hause mehr nVidia Karten liegen als du jemals besessen hast also chill mal. Für mich ist das Thema jetzt erledigt, werde nicht weiter auf deine Beiträge eingehen.
 
Was ich genieße fragst du? Ich genieße den Thread und wie sich alle an irgendwleche Werte klammern die nicht mal offiziell sind. Aber am 18.02 wird dann vllt. die Bombe platzen oder viele werden sich einfach nur kaputt lachen, wir werden sehen.

von dir kommt nur häme und defätismus, man kanns förmlich riechen das du der karte nix gutes wünschst weil dann deine hauptsache billig karte nurnoch midrange mit miesen treibern ist
bleib doch einfach raus hier..
 
Zuletzt bearbeitet:
weil dann deine hauptsache billig karte nurnoch midrange mit meisen treibern ist

Und mich nennt ihr Fanboy, echt lustige Leute seid ihr. Auch dir schreib ich es gerne noch einmal, was als nächstes in meinem PC wandert hängt vom 18.02 ab, aber 40-50% Mehrleistung gegenüber der 7970 GHE geb ich mit Sicherheit keine 900€ aus und kaufe lieber eine zweite 7970 für 300€! Ja ALTER ich bin voll der Fanboy, weil ich es nicht einsehe für 50% Mehrleistung 600€ zu zahlen. :rofl:
 
Zuletzt bearbeitet:
@ Thrawn: Punkt
 
Und mich nennt ihr Fanboy, echt lustige Leute seid ihr. Auch dir schreib ich es gerne noch einmal, was als nächstes in meinem PC wandert hängt vom 18.02 ab, aber 40-50% Mehrleistung gegenüber der 7970 GHE geb ich mit Sicherheit keine 900€ aus und kaufe lieber eine zweite 7970 für 300€! Ja ALTER ich bin voll der Fanboy, weil ich es nicht einsehe für 50% Mehrleistung 600€ zu zahlen. :rofl:

weist du was der unterschied zwischen uns und dir ist ? Wir spammen nicht die AMD Freds voll, denkma drüber nach...

Achja Crossfire/SLI kommt für manche garnicht in Frage, ich für meinen Teil möchte maximalste single gpu leistung
 
was genießt du denn?
das du in jedem Nv Thread deine ATI Love bekundest?

ich brauch auch keine Argumente, die liefert NVidia am 18.
und irgendwann mal wieder AMD und irgendwann wieder Nv

Ich stalke ja lieber diesen Thread und versuche nicht meinen Spam hier los zu werden, aber Danke, dem kann man nur zustimmen.

Sollte der Titan seine Leistung bestätigen wird er verbaut.

Und mich nennt ihr Fanboy, echt lustige Leute seid ihr. Auch dir schreib ich es gerne noch einmal, was als nächstes in meinem PC wandert hängt vom 18.02 ab, aber 40-50% Mehrleistung gegenüber der 7970 GHE geb ich mit Sicherheit keine 900€ aus und kaufe lieber eine zweite 7970 für 300€! Ja ALTER ich bin voll der Fanboy, weil ich es nicht einsehe für 50% Mehrleistung 600€ zu zahlen. :rofl:

Dann wünsche ich dir viel Spass mit dem geruckel.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Is doch mal gut jetzt.
 
So will Finale Leistung sehn.
Meine Lightning hat nun einen neuen Besitzer.
 
Ich schreibe Käse aber ihr verteidigt eure fiktiven Gerüchte, cool story.
Wer ist "ihr"? Welche fktiven Gerüchte konkret? Falls es dir noch nicht aufgefallen ist, das ist ein Spekulationsthread, der ist logischerweise voll von "fiktiven Gerüchten" (was mal so ganz nebenbei eine selten dämliche Wortschöpfung ist). Du lederst hier pauschal durch die Gegend und merkst einfach nichts. Wie alt bist du?
 
von dir kommt nur häme und defätismus, man kanns förmlich riechen das du der karte nix gutes wünschst weil dann deine hauptsache billig karte nurnoch midrange mit miesen treibern ist
bleib doch einfach raus hier..

Ihr greift doch immer nur die Leute an, die es realistischer sehen und nicht soviel Mehrperformance erwarten, weil ihr euch dann selbst in die Eier gekniffen fühlt.
Ich kann mich nicht erinnern das espanolplaya je einen Kommentar geschrieben hat, der ohne Grund etwas sarkastisch oder mit Häme belegt war.
DAs passiert immer nachdem irgend ein Nvidia Boy ihn blöd von der Seite anmacht oder andere irgendwelche Kindergartenkleinkriege führen.
 
Schön, dass du jetzt auch deinen Senf dazugeben musst und deine Fähigkeiten im Fraktionsdenken präsentieren kannst. Es ist nicht was er sagt, es ist die Art wie er es sagt. Die Häme überliest du geflissentlich oder bist gar nicht in der Lage, sie zu erkennen, z.B.:

Ich bin gespannt was am 18.02 kommt, kann es kaum noch erwarten wie Träume platzen werden.

Also wer macht hier wen blöd von der Seite an?
 
Das war lediglich eine Anspielung darauf, was wäre "wenn" euer Titan nicht die erwarteten 60% erreichen sollte. Ich habe und wollte damit niemanden blöd anmachen! Aber ich drücke meine Beiträge für euch deutschen in Zukunft etwas präziser aus!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh