nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wer weis?
Ich hoffe, es ist eine gaaaanz normale TITAN :d

DUAL-Karte wäre der Hammer...dann würde ich :kotz:

Denn meine schöne 7970 ist schon verkauft...

Wer weiß...vielleicht eine GTX690 mit jeweils 4GB...und das war's dann auch schon :d:d:d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
15SMX ist zumindest möglich, wenn auch wenig wahrscheinlich. 512Bit ist schlicht eine Luftnummer. Und bleibt auch eine Luftnummer selbst mit WaKü drauf.
 
wobei auf GK104 Basis da nicht viel mehr Leistung zu erwarten ist.
Selbst wenn man da stark selektieren würde. Heist 1,3GHz auf die GPUs im Boost und 3,6GHz VRAM Takt. bekommst vllt um die 20% mehr Performance als 680er SLI bzw. ne 690er.
 
DUAL-Karte wäre der Hammer...dann würde ich :kotz:

Als zweiter Ausbau denn immerhin fliegen hier Preise durch den Raum die von 800-1600 reichen u das kann selbst mit Mondpreisen nicht mehr erklärbar sein

Quasi als GK110 Abfallverwertung um die teildefekten noch einer sinnvollen Verwendung zuzuführen
 
Zuletzt bearbeitet:
Ich würde auch für eine gtx690 mit mehr Takt und 4GB keine 900.-€ bezahlen!
Das wäre sowas von der Reinfall!
 
DualGPU ist es ganz sicher nicht. Das lohnt sich einfach nicht, weil man das in Form der 690 schon sehr gut hat.

Ich hab nochmal über die Taktratendiskussion nachgedacht. Ich weiß die Rechnung ist total simpel, aber:

2x GK104@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren.
1x GK110@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren

Im Endeffekt sind es ähnlich viele Transistoren, die mit Frequenz x schalten müssen, also warum sollten die 300W TDP nicht auch für Titan machbar sein mit ca. 260-270W Realverbrauch wie bei der GTX690?
 
DualGPU ist es ganz sicher nicht. Das lohnt sich einfach nicht, weil man das in Form der 690 schon sehr gut hat.

Hat man das wirklich oder ist diese EOL?

GK104 sollte mittlerweile ganz gut laufen sodas der Ausschuss hier marginal sein dürfte

Dagegen müsste der Big Boy anfälliger sein

12 aktive SMX Cluster kann keiner mehr verwerten nach derzeitigem Stand es sei denn man baut daraus nen 690er Refresh

Speichercontroller des großen ließen sich deaktivieren sodas man auf 2x256Bit käme
 
Zuletzt bearbeitet:
Weiß nicht ob es schon im Thread gepostet wurde, aber bei den Kollegen von PCGH kam diese neue Website ins Spiel:
CLBenchmark - OpenCL Compute Performance of NVIDIA GeForce GTX Titan
Da steht dann drin, dass die Karte 14SMX, 875Mhz Taktrate, und 6GB VRAM haben soll. Und laut Redakteure noch andere Sachen, worüber jene Person nicht reden darf.
Damit ist mit den Andeutungen anzunehmen, dass dies die wahren Werte sind, aber natürlich ist es trotzdem nicht verifiziert, und somit immernoch ein Gerücht.
 
875 inkl Turbo oder plus Turbo ?
 
Hab kein plan, wahrscheinlich ohne Turbo.
Aber Meldung soll ja eh schon alt sein. Ich lese den Thread halt auch nur einmal täglich, und dann dort nur letzte und vorletzte Seite.
 
Hat man das wirklich oder ist diese EOL?

GK104 sollte mittlerweile ganz gut laufen sodas der Ausschuss hier marginal sein dürfte

Dagegen müsste der Big Boy anfälliger sein

12 aktive SMX Cluster kann keiner mehr verwerten nach derzeitigem Stand es sei denn man baut daraus nen 690er Refresh

Speichercontroller des großen ließen sich deaktivieren sodas man auf 2x256Bit käme
Naja eine karte mit 12 SMX ist aber bei 1064Mhz@ turbo auch mal eben 50% schneller als die GTX680 ;) Somit hat man zwei fliegen mit einer klappe geschlagen.
1. Die defekten Tesla gpus noch sinnvoll verkaufen und
2. trozdem die schnellste single GPU am markt
 
Ich hab nochmal über die Taktratendiskussion nachgedacht. Ich weiß die Rechnung ist total simpel, aber:

2x GK104@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren.
1x GK110@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren

Im Endeffekt sind es ähnlich viele Transistoren, die mit Frequenz x schalten müssen, also warum sollten die 300W TDP nicht auch für Titan machbar sein mit ca. 260-270W Realverbrauch wie bei der GTX690?

Ist denn überhaupt berechenbar, wie hoch dediziert der Unterschied zwischen Baseclock und min. Turbo ausfällt?
Auch die 690er hält ihre 1019MHz Turboclock wenn mich nicht alles täuscht im Powertarget 100% idR stabil. (wenn man vllt nicht bei 40°C Raumtemp agiert)

Denn wenn man so simpel rechnet, müsste man dediziert vom Turbo ausgehen. Denn der liegt bei Last zu 99% immer in der min. Stufe an. Ebenso die volle Turbospannung.
Heist also:
2x GK104@915 Baseclock + Turbo@1019 = 300W TDP bei 7 Mrd. Transistoren.
1x GK110@915 Baseclock + Turbo@ ~1000 = 300W TDP bei 7 Mrd. Transistoren
jeweils gleiche Spannung von 1,175V.

Nur ich kann mir beim besten Willen nicht vorstellen, das dies so kommen wird.
Gehen wir von 14 SMX aus als K20X, heist 1000MHz = 36,6% mehr Takt. Bei gleicher Spannung und Temperatur wären das 36,6% mehr Verbrauch!
235" TDP x 1,36 = 321W... -> etwas viel ;)
Nimmt man 13 SMX als K20 non X, heist 1000MHz = 319W... -> ebenso etwas viel

Selbst wenn der Realverbrauch etwas drunter liegt als die TDP Angabe der Tesla Modelle, so quetscht du das vllt gerade so in den 300W Rahmen.
Und man agiert völlig an der Brechgrenze... Keine Luft für Spielereien, keine Luft für etwas schlechtere GPUs usw.
 
@Powerplay

Also zu nvidia würde es doch eher passen das sie nicht nur die Singelcorekrone zurück holen sondern auch beim Dualchip wieder vorlegen fürs Image;)
 
jo, ich denke jetzt wirds echt mal Zeit für ein paar Fakten. 1 Woche noch :/

scully Postfach voll
 
Ist denn überhaupt berechenbar, wie hoch dediziert der Unterschied zwischen Baseclock und min. Turbo ausfällt?
Auch die 690er hält ihre 1019MHz Turboclock wenn mich nicht alles täuscht im Powertarget 100% idR stabil. (wenn man vllt nicht bei 40°C Raumtemp agiert)

Denn wenn man so simpel rechnet, müsste man dediziert vom Turbo ausgehen. Denn der liegt bei Last zu 99% immer in der min. Stufe an. Ebenso die volle Turbospannung.
Heist also:
2x GK104@915 Baseclock + Turbo@1019 = 300W TDP bei 7 Mrd. Transistoren.
1x GK110@915 Baseclock + Turbo@ ~1000 = 300W TDP bei 7 Mrd. Transistoren
jeweils gleiche Spannung von 1,175V.

Nur ich kann mir beim besten Willen nicht vorstellen, das dies so kommen wird.
Gehen wir von 14 SMX aus als K20X, heist 1000MHz = 36,6% mehr Takt. Bei gleicher Spannung und Temperatur wären das 36,6% mehr Verbrauch!
235" TDP x 1,36 = 321W... -> etwas viel ;)
Nimmt man 13 SMX als K20 non X, heist 1000MHz = 319W... -> ebenso etwas viel

Selbst wenn der Realverbrauch etwas drunter liegt als die TDP Angabe der Tesla Modelle, so quetscht du das vllt gerade so in den 300W Rahmen.
Und man agiert völlig an der Brechgrenze... Keine Luft für Spielereien, keine Luft für etwas schlechtere GPUs usw.

Ich glaube nicht, dass du die TDPs für Geforce und Teslas so gleichsetzen kannst. Auch bedenke, dass die GPU nicht der einzige Verbraucher auf einer Grafikkarte ist.

Und sind wir ganz sicher, dass der Verbrauch immer linear mit dem Takt steigt? Mit Kepler ist es recht schwierig, das zu untersuchen wegen dem Turbo, aber ich könnte wenn ich übermorgen wieder daheim bin mit einer 580 mal schauen, ob das wirklich der Fall ist.

Hier z.B. hat guru3d bei einer um 21% übertakteten 7970 8W weniger gemessen als rechnerisch eigentlich rauskommen sollten:
http://www.guru3d.com/articles_pages/radeon_hd_7970_overclock_guide,3.html

Und ob GK110 tatsächlich auch 1.175V hat oder einen Tick weniger, ist auch noch nicht klar. Also da sind einfach zu viele Unbekannte.
 
Zuletzt bearbeitet:
Ich denke ein Tesla K20 mit 384 Bit Speicherinterface, deaktivierten (oder defekten) SMX Clustern, 6GB GDDR5 RAM, höheren Takt und 300 Watt TDP wirds sein. Eine Restverwertung für den Konsumerbereich, die es in keinen neue Workstation geschafft hat.
 
@Powerplay

Also zu nvidia würde es doch eher passen das sie nicht nur die Singelcorekrone zurück holen sondern auch beim Dualchip wieder vorlegen fürs Image;)

Aber sie liegen doch nur im single GPU zurück weil eine costum HD7990 ist doch nix offizielles und bis heute hat AMD eine solche karte nicht gebracht!
Ich hatte doch von anfang an gesagt das ich das mit 12-13SMX für am plausibelsten halte weil warum sollte man die teuren GPUs verschleudern und die defekten verschrotten?
So bringt man einfach die teildefekten auf den desktop markt und mal wirklich 12SMX@ 1064Mhz (oder auch 1019) sind nun schon recht mächtig im vergleich zur GTX680.
Wenn die 7970GE im schnitt 15% vor der GTX680 liegt liegt der titan dann nun im schnitt mit 35% vorne so das man theoretisch sogar nochmal einen mini Titan drunter ansetzten kann welche die taktraten nicht gepackt hat und schon hat man zwei karten welche an der spitze liegen! Vieleicht dann nochmal durch selektieren eine 385Watt TDP Dualkarte auf den markt werfen und NV hat für jeden was im programm!

Ich würde es so an NV seiner stelle genau so machen wenn es machbar ist ;)

Edit: Ich würde auch nur 3GB VRAM verbauen und für 6GB extra zur kasse beten. 3GB sollten bei der leistung auch auf jedenfall reichen
 
Zuletzt bearbeitet:
Ich glaube nicht, dass du die TDPs für Geforce und Teslas so gleichsetzen kannst. Auch bedenke, dass die GPU nicht der einzige Verbraucher auf einer Grafikkarte ist.

Und sind wir ganz sicher, dass der Verbrauch immer linear mit dem Takt steigt? Mit Kepler ist es recht schwierig, das zu untersuchen wegen dem Turbo, aber ich könnte wenn ich übermorgen wieder daheim bin mit einer 580 mal schauen, ob das wirklich der Fall ist.

Zumindest zwischen Kepler K5000 und GTX 670/680 passt das wie Arsch auf Eimer ;)
Schau paar Posts weiter oben (gestern abend) hab ich die Rechnung erst gebracht.
Und ja, Takt skaliert ziemlich genau 1:1 mit dem Verbrauch. Und die Spannung skaliert im Quadrat mit dem Verbrauch... Wenn man so will, quasi eisernes Gesetz.
Und gerade GK10x GPUs sind an der Stelle recht einfach zu vergleichen, weil die Turbospannung ansich ziemlich identisch ist.

Gesamtsystemmessungen taugen da leider nicht viel :( Da viel zu viele andere Bausteine mit reinpfuschen können und du nie 100% vergleichbare Bedinungen bekommst.

Wo ich aber mitgehen würde, die von dir oft genannten zum Teil unklaren Verbrauchswerte für den VRAM müssen berücksichtigt werden. Speziell wenn man ne 2GB Karte gegen ne womöglich 6GB Karte antreten lässt, ist davon auszugehen, das man mit Settings misst, die die 2GB nicht überfordern (was sonst die GPU Last der 2GB Modelle massiv senken würde)
Somit liegen mindestens 2/3 des VRAMs brach und die Gesamtverbrauchswerte der ganzen Karte mit 6GB VRAM kann in Extremszenarien nochmal über dem gemessenen liegen. Selbst bei 5W pro GB wären das noch 20W an "Reserve", die so ne Karte einkalkuliert haben müsste. Also anstatt 300 eben 280W.


PS: ja das mit der Spannung ist interessant.
Komisch ist aber, wie gesagt K5000 skaliert ziemlich linear 1:1 gegen GK104 als 680er im Verbrauch. Und K5000 hat Taktraten von 700MHz... Man sollte also ausgehen, dort mit der VGPU Spannung was runter gegangen zu sein, scheint aber nicht der Fall. Sonst wäre die 680er unnatürlich effizient, oder die K5000 unnatürlich ineffizient :fresse:
 
Und sind wir ganz sicher, dass der Verbrauch immer linear mit dem Takt steigt? Mit Kepler ist es recht schwierig, das zu untersuchen wegen dem Turbo, aber ich könnte wenn ich übermorgen wieder daheim bin mit einer 580 mal schauen, ob das wirklich der Fall ist.

Tut er nicht je höher der Takt je ineffizienter wird das Ganze,darum kann auch ein breiter niedrig taktender Chip wirkungsvoller sein,,wie ein hochtaktendes Design

Dabei ists egal ob fermi,kepler,tahiti,pentium,athlon,bulldozer usw,usf ist ne gewissse Schwelle überschritten driftet das ganze ins Nirvana ab

Der sweet Spot iegt bei jedem Design natürlich an ner anderen Grenze
Da hat schon jeder der großen seinen Worst Case gehabt u kann ein Liedchen von singen
 
Zuletzt bearbeitet:
^ weil du die Spannung erhöhen musst. Ich meinte bei gleichbleibender Spannung.

@fdsonne:
Die Vergleiche K5000 vs GK104 kannst du so nicht machen, weil jede GPU leicht unterschiedlich ist. Außerdem gibt es bei der Leistungsaufnahme auch einen statischen Anteil, der mit dem Takt nix zu tun hat. Das Beste wäre wirklich, ein und dieselbe GPU entsprechend zu untersuchen und dort zu messen.
 
Zuletzt bearbeitet:
Tut er nicht je höher der Takt je ineffizienter wird das Ganze,darum kann auch ein breiter niedrig taktender Chip wirkungsvoller sein,,wie ein hochtaktendes Design

Dabei ists egal ob fermi,kepler,tahiti,pentium,athlon,bulldozer usw,usf ist ne gewissse Schwelle überschritten driftet das ganze ins Nirvana ab

Da hat schon jeder der großen seinen Worst Case gehabt u kann ein Liedchen von singen

Das die Effizienz schwindet, liegt aber nicht am Takt. Sondern an der Spannung. Miss selbst nach ;)
Gib deiner CPU mal 10% mehr Spannung bei gleichem Takt, miss den Gesamtsystem CPU Volllastverbrauch und mach das selbe mal mit 10% mehr Takt ohne mehr Spannung ;)
Gesamtsystemmessungen sind zwar nicht 100% repräsentativ, aber zeigen den Unterschied dennoch.
 
^ weil du die Spannung erhöhen musst. Ich meinte bei gleichbleibender Spannung.

Auch da ists wohl entscheident wie hoch der Chip seinen Grundtakt schon hat,die Physik spielt da genauso mit rein,je höher der Takt je mehr brauche ich um einen stabilen Takt zu kreieren

Das ist das selbe wie beim Cern je näher das Teilchen der Lichtgeschwindigkeit kommt um so mehr Resourcen an Energie vernichtet es dabei

Der Takt ist letztendlich auch nichts anderes als Geschwindigkeit
 
Zuletzt bearbeitet:
Wieso bei boostcklock sieht man ne 1 die für 1000 irgendwas steht.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh