nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.

Neurosphere

Enthusiast
Thread Starter
Mitglied seit
06.11.2008
Beiträge
4.324
nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

2011-07-06_1327478uto.png


indexqgk7i.jpg

Bild eines GK104 PCB mit Chip

GTX 680 Launch Video:




Was ist bisher bekannt:​

Die Chips:


Codename: Kepler
Prozess: TSMC 28nm
Chipscode: GK1xx
High End: GK110
Performance: GK104
Entry: GK107/GK106


Änderungen gegenüber der Fermi-Architektur soweit bekannt:

-Keine Hotclocks mehr, diese Veräderung führt zu kleineren Shadereinheiten und somit zu mehr Einheiten pro Chip, was den niedrigeren Takt ausgleicht. Neuere Spekulationen gehen allerdings wieder in eine andere Richtung. So sollen die Hotclocks bleiben und der Chip wie immer breiter werden. Es wäre auch Denkbar das die ALUs ganz überarbeitet werden und neue Funktionen hinzu kommen die ihre Leistung erhöhen. Was davon richtig ist wird man wohl erst einige Wochen vor Launch erfahren.

-> Vorteil: Mehr ALU Leistung schadet nie.

-> Nachteil: Sollte NV einen exotischen Weg bei der Umgestaltung der ALUs gehen könnte es zu Problemen bei der Auslastung kommen.

-NV soll daran arbeiten die Chiptaktraten enorm zu steigern. Dadurch würden die TMUs wesentlich Leistungsfähiger werden da sie direkt an den Chiptakt gekoppelt sind. Target soll bei über 1 GHz liegen.

-> Vorteil: Die reine Spieleleistung steigt. TMUs spielen noch immer eine sehr wichtige Rolle bei Spielen, aufgrund der Entwicklung von GPUs zu HPC-Monstern wurde hier aber des öfteren "gespart".

-> Nachteil: Mehr Takt bedeutet meist immer hoher verbrauch, auch wenn sie von deutlich mehr Effizienz der Gen im Vergleich zu Fermi sprechen (mm²/Watt) muss sich das dann erst bewahrheiten.

-Gerüchten zufolge will NV mehr Features in den neuen Chip integrieren. Möglich scheint verbessertes/erneuertes PhysX und Cuda, aber auch Techniken ähnlich eyefinity von AMD könnte einzug halten.

-> Vorteil: Features sind immer gut. Gerade bei Multimonitoring auf einer Karte hatte NV bisher das nachsehen. PhysX bleibt die beste Physikbibliothek auf dem Markt.

-> Nachteil: Gerade bei PhysX besteht bei der GPU-Berechnung und dessen Unterstützung ziemlicher stillstand. Wenn NV nicht das Problem ihres proprietären Standards lösen kann wird PhysX auf der GPU auch weiterhin ein nischendasein führen.



Die Daten zu den beiden bisher bekannten Chips im Einzelnen:

geforcegkeyjcz.jpg





Vergleichsdaten und Technik der Vorgänger

Das es von NV keine offiziellen Informationen über den inneren Aufbau von Kepler gibt und nicht ganz klar ist wie er sich von Fermi unterscheidet (bis auf den Wegfall der Hotcklocks) liste ich hier mal die Daten des Vorgängers auf. Sie sollen zuminest helfen die generelle Technik zu verstehen.

Innerer Aufbau:


gf100.3upo0.jpg


Die GPCs:

Der GF100 besteht aus Graphics Processing Clusters (kurz GPCs). Jeder GPC besteht aus 4 Streaming-Multiprocessors (SM),
in denen jeweils 4 Texture Mapping Units (TMUs) und 32 Arithmetic Logic Units (ALUs) untergebracht sind.

Nach derzeitigen Informationen kann der GF100 maximal 4 GPCs verwalten, womit er auf die besagten 512 "Cuda-Cores" (ALUs) und 64 TMUs kommt.

Besonders beim GF100 ist, das jeder GPC auf eine eigene Raster-Engine zurückgreifen kann. Alle bisherigen Designs und Architekturen hatten nur eine Raster-Engine die vor den Shaderclustern lag. Dadurch erhöht sich die Pixelleistung auf 32 Pixel pro Takt (4 GPCs x 8 Pixel) wodurch ein Flaschenhals aller bisherigen Architekturen beseitigt wurde und die Geometrieleistung überdurchschnittlich steigt. Deutlich zu sehen bekommt man dies an der Tesselationsleistung des GF100, nach NV-eigenen Folien ist diese zwischen 2 bis mehr als 6 mal so hoch wie die der 5870 von ATI.


Nun weiter zu den SM:

Zu jeder ALU gesellt sich eine Floating Point Unit (FPU). Der GF100 ist IEEE 754-2008-Standard kompatibel was ihn für GPGPU Aufgaben interessant macht.
Anders als der GT200 führt der GF100 pro Takt keine MADD+MUL Berechnung mehr aus sondern eine FMA. Das schmälert zwar auf den ersten Blick etwas die Rechenleistung pro ALU, allerdings erreicht FMA eine höhere Genauigkeit bei den Nachkommastellen, was ebenfalls wieder wichtig für GPGPU ist.


Die TMUs:

Auf den ersten Blick hat NV hier weniger verbaut als beim GT200. Allerdings soll die Taktrate nicht über den Chiptakt laufen sondern evtl in Richtung des Shadertaktes gehen, des weiteren soll die Effizienz aufgrund des größeren L1 (12 Kb Texture Cache + 64 Kb L1/Shared-Cache) und L2 Caches (768 Kb) weiter gesteigert worden sein. NV gibt für die TMUs bis zu 1,6 mal soviel Leistung wie beim GT200 an.


Die ROPs:

Die Raster Operation Processors (ROPs) wurden beim GF100 dahingehend überarbeitet, das es nun sechs ROP-Partitions gibt in denen jeweils 8 ROPs enthalten sind. Eine ROP kann nach einem Takt ein 32-Bit-Integer-Pixel, ein 16-Bit-Floating-Point-Pixel nach zwei Takten oder ein 32-Bit-FP-Pixel nach vier Takten ausgeben.
An Jeder ROP-Partition ist ein 64 Bit Speicherinterface angeschlossen womit der GF100 auf ein insgesammt 384bit breites Interface kommt.

Es sei nochmal gesagt das sich dieser Teil auf GF100 bezieht, da Kepler aber wohl eine Weiterentwicklung ist soll er beim Spekulieren helfen!





Links zu News rund um Kepler:

Nvidia bestätigt: Kepler erst 2012
Prognosen zu AMDs Southern Islands und nVidias Kepler | 3DCenter.org
TSMC promises to deliver 28nm chips by year
Nvidia Kepler: Schneller als als Fermi bei geringerer TDP?
TSMC 28nm Fertigung weniger ertragreich uns später als bisher gedacht [pcgh]
Nvidia: We Are Well Prepared for 28nm Process Technology - X-bit labs
Kepler produziert 2011, verkauft 2012? [Computerbase]
Hardwareluxx - NVIDIAs "Kepler" soll noch dieses Jahr vom Band laufen
Nvidia stellt erste Sampels von Kepler her [HWL]
Kepler evtl im Dezember [Digitimes engl.]
Kepler früher als erwartet [Computerbase/Kitguru]
Gerüchte als Artikel verpackt bei 4gamer.net [4gamer.net, translatet englisch]
http://www.hardwareluxx.de/communit...samples-bereit-neue-spekulationen-858299.html
Kepler ohne Hotclocks [3DCenter]




Gesammelte Grafiken

Da immer wieder neue halbwegs glaubwürdige aber als Fakes enttarnte Grafiken die Runde machen sammel ich hier mal was es bisher in den Thread geschafft hat.

keplerxocb.png


005frdzg.jpg


0908157p020sn1srmmmklh8qnj.png


kepler_leakfzo64.jpg


gk104spekus8rw49.jpg


map_c_1120x941wxj7t.png


178802d1326730229-nvidia-gk100-geforce-6xx-geforce-7xx-speku-news-diskussionsthread-0645522fawh9zjhd4id8ad.jpg


179368d1327078184-nvidia-gk100-geforce-6xx-geforce-7xx-speku-news-diskussionsthread-gtx680plxk8.jpg


gtx680zljc9.png


180248d1327675391-nvidia-gk100-geforce-6xx-geforce-7xx-speku-news-diskussionsthread-angebliche-nvidia-kepler-benchmarkfolie2_preview.png


180777d1328026325-nvidia-gk100-geforce-6xx-geforce-7xx-speku-news-diskussionsthread-nvidia_mobile_gpus.png


124oz7.png


2dfrt9.png



Dieser Thread wird von mir aktuell gehalten und sobald handfeste oder glaubbare Infos bekannt werden auf den neusten Stand gebracht.:wink:









Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK100. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie kommt man auf GK100?

Irgendwie verwirren die Namen immer mehr...
Das man einen GF100 bzw. GF110 nach dem G200 bzw. GT200 gestellt hat, ist schon verwirrend. Aber warum geht man nun wieder auf die 100 zurück!?
 
Das GK klingt plausiebel. So wies ausschaut will NV bei den Bezeichnungen bleiben.
 
GF war für "Geforce Fermi", soweit ich weiß,
GK ist dann "Geforce Kepler" wenn man mal kurz überlegt :d

Das klingt logisch... War mir so gar nicht aufgefallen :fresse:

Die 100 stört mich aber trotzdem noch... :fresse2:
Aber die wissen schon was sie machen ;)

Was mich noch viel mehr wundert... Die Karten sollten ja Ende des Jahres/Anfang nächsten Jahres kommen. Das sind stand heute gerade mal drei und ein bissl Monate... Also ein viertel Jahr.
Es scheint im Moment aber so absolut gar nichts bekannt zu sein... Gab es sowas vorher schonmal!?
 
Naja, beim G80 war auch erst recht spät was bekannt und hätte GF100 sich nicht durch die Probleme so verschoben wären die Infos auch nicht so weit vor Launch bekannt gewesen.
 
Nvidias Karten kommen laut Spekulations-Schätzungen einiger Forenuser und auch Redakteure erst so um März/April (zumindest kaufbare Retailkarten).
Wenn man einen Respin, paar Probleme mit einrechnet, dürfte das gut hinkommen.
 
Diese Tabelle hier geistert schon monatelang im Netz herum. Ob es stimmt, keine Ahnung, aber ich will sie euch nicht vorenthalten:



Überzeugend sieht das für mich allerdings nicht aus, denn warum sollte man von 48 auf 24 ROPs zurückgehen? Wegen dem 512bit SI?
 
Zuletzt bearbeitet:
Ein 512Bit SI?
Also ich weiß nicht, das kann ich mir nicht so recht vorstellen.
 
Unmöglich wäre es nicht. Ich glaub beim Speicher ist man beim Takt schon ziemlich am Ende von GDDR5 (hat da wer Infos) also wäre nen breiteres SI ne Lösung falls man die Bandbreite für den Chip braucht.
 
TSMC will laut Fudzilla :-)fresse:) im 3.Quartal mit der Produktion der 28mm Chips für Kepler beginnen, damit Nvidia dieses Jahr mit der Kepler Produktion beginnen kann. Aber erst für Anfang 2012 sollen die Karten überall erhältlich sein.
 
Ich denke das sind halt schätzungen zu den karten wie sie kommen könnten! 768shader mit 96TMUs hmmm
Wenn das stimmen würde wäre ich echt mal gespannt was AMD da raushaut weil ich kann mir vorstellen das es da ein kopf an kopf rennen geben könnte!
Naja werden wir ja sehen ;)
 
Ich denke Kepler hat weiterhin das Fermi Design

896 1-D Shader, 448 Bit SI, 28nm HP (GTX670)
960 1-D Shader, 512 Bit SI, 28nm HP (GTX680)
1024 1-D Shader (GTX690), 512Bit SI (kommt wahrscheinlich erst wenn die Fertigung besser wird)

Wozu soll man das Design ändern, ist doch aktuell sehr gut, man muss nur die Shader erweitern & bei 28nm sehe ich kein Problem.
 
Zuletzt bearbeitet:
Bei gleichem Design wäre aber wohl kaum eine Steigerung der DP Leistung pro Watt möglich in dem Maße wie sie in dem oberen Diagramm von nV geplant ist.
 
Soweit ich weiß, limitieren die SM die ROPs, weshalb die Geforces gerade in höheren Auflösungen ihre volle Pixelfüllrate nicht so richtig ausspielen können. CB und PCGH geben nur effektiv 24 GPix/s an, was 32 ROPs entspricht.

Zitat y33H@:
Die Pixelfüllrate wird bei den Fermis nicht klassisch durch die ROPs limitiert (erst, wenn viel FP16 oder FP32 berechnet wird, da die ROPs hier zwei bzw. vier Takte benötigen), sondern durch die Anzahl der SMs. Daher erreicht die GTX 580 bei 772 MHz und 48 ROPs "dank" ihrer 16 SMs auch nur 24,7 GPix/s, denn ein SM kann pro Takt nur zwei Pixel verarbeiten (0,772 GHz * 16 SMs * 2 Pixel/Takt).

Vielleicht ändert man hier was?
 
Laut der Tabelle währe die 670 für Gamer am interessantesten. Wie die 460 es war. Die grosse Anzahl TMU's, 1.5GB Speicher und mehr Cores als die aktuelle 580 für 299$. Was mag da wohl die Leistungsaufnahme sein? Wieviel spart man den durch 28nm? Kommen noch zusäzliche Techniken?
 
Hier gibts noch einige Prognosen zu Kepler aufgelistet bzgl. Preis Spezifikationen etc.
Und Hier sind alle bisher ganzen "geleakten" Daten von Kepler.

Eine Leistungssteigerung der SM's wäre sehr wünschenswert^^
 
768 Shader? Nö das passt nicht zu Nvidias Stratgie mein Freund ;)

GTX280 = 240 Shader
GTX480 = 480 Shader

960 Shader wird das Top Modell mind. haben, dann ist Kepler 80-90% schneller als eine GTX480, das Ergebniss wäre 1A, DP hin hund her das braucht kein arsch.
 
Meint ihr, die starke Diskrepanz in der Rechenleistung zwischen AMD und NV wird weiter bestehen?
 
768 Shader? Nö das passt nicht zu Nvidias Stratgie mein Freund ;)

GTX280 = 240 Shader
GTX480 = 480 Shader

960 Shader wird das Top Modell mind. haben, dann ist Kepler 80-90% schneller als eine GTX480, das Ergebniss wäre 1A, DP hin hund her das braucht kein arsch.

Zieht man die Leistungsaufnahme bzw. TDP mit hinzu, wo eine 280GTX noch 236W bzw. die 285GTX mit 183W daher kommt, ist da reichlich zum GF100 bzw. GF110 Luft nach oben.
Aber ich behaupte deutlich über 300W wird es für eine SingleGPU aktuell nicht geben. Das ist einfach nicht effizient kühlbar.
Eine weitere Verdopplung der ALU Anzahl halte ich deswegen für ein Gerücht. Auch wenn es bisschen gegen die NV Strategie gehen könnte...
 
Naja, trotz des großen TDP-Unterschieds lagen die 280 und 285 beim absoluten Stromverbrauch recht nah zusammen (10-20W Differenz).

An eine Verdopplung zu GF100 glaube ich prinzipiell schon. Allein, weil es wohl keine größeren Änderungen gibt und man das ganze Transistorbudget in mehr Einheiten stecken kann. Allerdings will man sich sicher auch was für eine "GTX 685" aufheben. 60-70% Plus rechne ich aber schon im Vergleich zu GF100.
 
Naja, trotz des großen TDP-Unterschieds lagen die 280 und 285 beim absoluten Stromverbrauch recht nah zusammen (10-20W Differenz).

An eine Verdopplung zu GF100 glaube ich prinzipiell schon. Allein, weil es wohl keine größeren Änderungen gibt und man das ganze Transistorbudget in mehr Einheiten stecken kann. Allerdings will man sich sicher auch was für eine "GTX 685" aufheben. 60-70% Plus rechne ich aber schon im Vergleich zu GF100.

Das mag ja grundsätzlich auch nicht das Problem sein und ich wäre auch voll dabei dies zu glauben. Aber die 280GTX nimmt sich unter absoluter Vollast grobe 240W. Die 480GTX kommt mit 320W bei groben 90% Mehrleistung in der gleichen Anwendung.

Würde man das jetzt weiter spinnen, bräuchten wir schon ~425W für die kommenden 600er Karten um bei gleicher Effizienzsteigerung die gleiche Mehrleistung aus der doppelten ALU Anzahl zu kitzeln.
Dazu kommt, das eben die GF100er Produkte doch etwas mehr veränderte ALUs sind, als es noch die Vorgängerkarten waren. Was die Vermutung nahe legt, das die 600er Reihe eben weniger stark verändert/erneuert wird.

Wie gesagt unter normalen Bedinungen würde ich auch sagen 80-90%+ bei grob doppelten Ausführungseinheiten inkl. weiteren Optimierungen. Aber ich behaupte ebenso, die Machbarkeitsgrenze in Sachen Stromaufnahme und Kühlleistung ist aktuell ziemlich am oberen Ende... Und dementsprechend kann und darf man den Weg nicht weiter gehen.
 
Ich glaube aber, die Veränderungen von GTX 285 auf GTX 480 waren es, die die Effizienz so gedrückt haben. Meiner Ansicht nach wird man jetzt eine Weile auf diesem (schlechteren) Niveau bleiben.
 
Zwischen G80 und G200 sah es nicht besser aus ;)
Jetzt den Grund allein beim GF100 zu suchen halte ich für fragwürdig... Das Problem scheint viel eher die ziemliche ineffizienz der 1D Einheiten zu sein, was Leistung+Takt pro Fläche angeht.
Über 3Mrd Transistoren brauchen nunmal auch Strom. Es ist also nicht unbedingt verwunderlich, das ein Fermi hier deutlich mehr schluckt als der Vorgänger.
Gemessen daran das die GF100 GPU mehr als doppelt so viele Schaltungen besitzt als der Vorgänger in Form eines G200 Derivats, ist der Verbrauch der GF100 GPUs eigentlich gar ziemlich gut ;)
 
960 Shader wird das Top Modell mind. haben, dann ist Kepler 80-90% schneller als eine GTX480, das Ergebniss wäre 1A, DP hin hund her das braucht kein arsch.

Naja, das ist aber der Weg den NV seit GF100 eingeschlagen hat und an dem man sich auch orientieren muss.

Ich glaube aber, die Veränderungen von GTX 285 auf GTX 480 waren es, die die Effizienz so gedrückt haben. Meiner Ansicht nach wird man jetzt eine Weile auf diesem (schlechteren) Niveau bleiben.

Das liegt ganz einfach daran das man versucht einen breiteren Markt abzudecken und bei Spielen wohl langfristig eine Stagnation eintreten wird weil die Entwicklungskosten sonst zu hoch ausfallen. Neue Konsolen hin oder her.
 
Über die Spieleleistung sagt das leider noch noch nicht aus.
Wenn man so etwas hier zum Beispiel liest kann ich mir nix darunter vorstellen wie stark ein Kepler sein soll.

AMD gibt eine theoretische Rechenleistung von 2,7 TFLOPs in Single-Precesion und 675 MFLOPs in Double-Precision für die Radeon HD 6970 an. Die Radeon HD 6950 kommt auf 2,25 TFLOPs in Single-Precision und 563 MFLOPs in Double-Precision.
LINK
http://www.hardwareluxx.de/index.ph...test-amd-radeon-hd-6970-und-6950.html?start=1

Bei diesen sage ich mal Theoretischen Werten wäre er ja eine Krücke oder wie soll ich das sehen?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh