nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja bei der GTX580 waren damals 1.15V frei darüber bios flash auf 1.21 V frei.
Tdp 245W 6 +8 Pin
Die Spannung wird entscheiden wo die Reise hingeht.
 
Zuletzt bearbeitet:
Bzgl. Speicher sehe ich die Logik schon. Der Füllstand ist egal, denn du kannst pro Zeiteinheit nur auf eine bestimmte Menge zugreifen, egal wieviel Speicher du hast. Und diese Menge wird durch die Transferrate über das Interface bestimmt. Ich kann eine riesige Flasche haben oder eine kleine, wenn ich kippe fließt bei gleichem Flaschenhals dieselbe Menge pro Zeiteinheit raus. Und diese rausfließende Menge muss weiter hinten in der Flasche auch "addressiert" werden, also ist das ein und dasselbe.

Das würde aber auch bedeuten, das es sch... egal ist, wie viel VRAM bzw. allgemein RAM verbaut ist, da es ja nur am Bus hängt. Somit dürfte der Verbrauch zwischen vier 8GB Riegeln auf nem Desktop Brett bei Dualchannel (2x64Bit) im Vergleich zu 2x512MB Riegeln nicht steigen. Aber das tut er. Zwar nicht linear mit der Größe, aber er steigt. Und bei diesen Ausmaßen wohl gar über das doppelte. (allein für die Riegel)
Das bezweifle ich irgendwie.
Denn ne Speicherzelle ist und bleibt ne Speicherzelle. Und diese Speicherzelle benötigt Energie, um ihren Betriebszustand zu halten. Auch ist es flüchtiger Speicher, von Zeit zu Zeit benötigst du nen "Refresh" der Speicherzelle, sonst verliert die ihren Inhalt. Um so mehr Speicherzellen, desto mehr absolute "Refreshes" benötigt das ganze Teil.

Vllt versteht ich aber auch nur das Beispiel falsch. Dennoch müsste es so sein, das bei nem 384Bit SI und in Summe 3GB VRAM Ausstattung (also 12 Chips) eben jeweils zwei Chips zu je 32Bit pro 64Bit Controllerteil klemmen. Bei 24Chips und 6GB sinds aber doppelte Anzahl an Modulen. Würde der Energieverbrauch quasi gar nicht steigen (so lese ich das aus dem Beispiel), würden diese zusätzlichen 12 Controller quasi ohne Energie laufen. Und das kann nicht sein.
Denn die Module werden optimalerweise immer alle angesprochen. Sonst würde Bandbreite verloren gehen.

Ich würde vollends zustimmen, schon allein der logik nach, wenn da eine Art Switch zwischen wäre, sprich 384Bit SI und 12 Chips zum einen werden befüllt bzw. genutzt, und irgendwann liegen die ersten 12 brach und die anderen würden genommen. Dann würde der Verbrauch nicht steigen. Aber das ist ja eben soweit mir bekannt nicht der Fall. Du nuckelst zwar immer an der selben Bandbreite, aber es arbeiten die doppelte Menge an Speicherzellen. Und das muss Energie kosten...
Ich könnte mir aber vorstellen, das diese dann wohl 16Bit Speicherchips in vierfacher Ausführung pro 64Bit Controller eben als vierer Paar effizienter pro MB arbeiten als zwei 32Bit Chips als dual paar pro MB. Das würde auch erklären, warum der Energieverbrauch nicht linear mit dem reinen (V)RAM Größenausbau steigt.

Thema 680er, Rechnung wäre auch via +50% gegangen.
Mhh ne, denn dann wäre weniger rausgekommen für GK110. Oder hab ich nen Denkfehler?
Mit 876MHz default Turbo wäre GK110 bei 14 SMX ca. 44,9% über der 680er (ebenso default Turbo von 1058). Gleichsam mit 50% mehr Bandbreite.
Würde bedeuten 44,9% mehr Leistung wegen 1:1 Bandbreite + Rohleistung.
Bleiben ~3,52% verhältnismäßig mehr Bandbreite übrig. Die mit dem selben Verhältnis von 2:1 skaliert. Wären also ~1,76% mehr FPS Leistung.
Unterm Strich 1,449*1,0176 sind aber "nur" 47,45% anstatt obigen 50%. :fresse:
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

47,45% ??? Kackkarte!


;)
 
@fdsonne:
Skysnakes Erklärung zielte noch darauf ab, dass die normalen Refreshes, um den Inhalt zu halten, den geringsten Teil des Verbrauchs ausmachen. Beim Lesen oder Schreiben wird vorzeitig refreshed, und das macht zusammen mit dem Interface den absoluten Löwenanteil aus. Ich weiß nicht, wie dieses Verhältnis bei DDR3 aussieht.

Hoffentlich ist morgen wirklich NDA-Fall. Ich hab irgendwo gehört, dass es noch ein paar Tage dauern könnte...
 
Naja, wenn die Karte wirklich ne Sperre bei 1,1 oder sogar nur 1,05V hat, könnte man sogar davon ausgehen, dass Nvidia wohl noch einen Refresh bringen wird und versucht zu verhindern, dass diese leistung schon mit Titan erreichbar ist.
Mal abwarten, was kommt:)

gibt keinen Refresh
Titan is halt ein K20 fürn Desktop und fertig
GPGPU raus, SMX/TMU rein, Gamerchip Platz 1 Ende

und VCore wird sein wie bei Kepler generell
bissel Spannung ja und fertig
das Ding heißt nicht umsonst Titan, die haben das Powerlimit und VCore schon großzügig gelassen weil
1. 690 bleibt 690
2. 680 wird von 780 abgelöst und 780 spielt nicht in Titans Revier
3. die 880 wird die Titan ablösen, bis dahin genug Umsatz generiert
4. ist und bleibt es ne Enthusiastkarte, die zum Glück nicht jeder haben wird/kann, da ist NVidia sicher nicht so strikt
5. hab ich Vögel zwitschern hören bzgl OC/Spannung :)
6. nein niemand aus dem Forum
 
@fdsonne:
Skysnakes Erklärung zielte noch darauf ab, dass die normalen Refreshes, um den Inhalt zu halten, den geringsten Teil des Verbrauchs ausmachen. Beim Lesen oder Schreiben wird vorzeitig refreshed, und das macht zusammen mit dem Interface den absoluten Löwenanteil aus. Ich weiß nicht, wie dieses Verhältnis bei DDR3 aussieht.

Man müsste mal bei ht4u.net oder anderen bekannten nachsehen, wie sich ne 680er 2GB gegen ne 680er 4GB im Verbrauch schlägt... Eventuell könnte man daraus Rückschlüsse ziehen. Das Verfahren dürfte ja gleich bleiben. Auch die Speicherchips in Sachen Standard scheinen gleich.
Leider gibts so 100% verlässliche Werte nicht. Und selbst direkt Kartenmessungen werden von vielen Bauteilen drum rum ggf. sogar schon verfälscht.
Eventuell kann man direkt an den Spawas der VRAM Module messen?

Naja, wenn die Karte wirklich ne Sperre bei 1,1 oder sogar nur 1,05V hat, könnte man sogar davon ausgehen, dass Nvidia wohl noch einen Refresh bringen wird und versucht zu verhindern, dass diese leistung schon mit Titan erreichbar ist.
Mal abwarten, was kommt:)

Das wäre aber wirklich dann "Kundengänglung"...
Ich mein OK, ne GK104 mit massivem OC erreicht heute schon gut und gerne 22-23% mehr Rohpower.
Wäre die Spannung nicht fix, auch für die VRAMs nicht, würde man sicher auch 3,6-3,8GHz auf die VRAMs packen können. Und die GPU noch weiter treten. Sprich bei 1,25-1,3V unter Wasser dürften da sicher ~1,4GHz GPU Takt und besagter VRAM Takt drin sein.
Rechnerisch wären das grob über dem Daumen 25-30% über Stock 680er und somit ~15% Vorsprung für Titan.
Hab ich vollstes verständnis für, vor allem, weil NV scheinbar weit im Vorfeld geplant hat, das GK110 Teil für so nen extremen Preis zu bringen.

Aber ganz ehrlich, langsam hört dann der Spaß aber auch auf.
Den Titan Refresh mit 15 SMX wäre so oder so nur vllt 5-10% schneller. Das Bandbreitenproblem bleibt dazu bestehen.
Wenn die hier die Sperre rein drücken, um sich die Luft zu lassen, dann läuft da einiges verkehrt muss ich sagen.
 
Wenn die eine Sperre einbauen, dann gibts halt kein Titan mehr.
 
Zuletzt bearbeitet:
Man müsste mal bei ht4u.net oder anderen bekannten nachsehen, wie sich ne 680er 2GB gegen ne 680er 4GB im Verbrauch schlägt... Eventuell könnte man daraus Rückschlüsse ziehen. Das Verfahren dürfte ja gleich bleiben. Auch die Speicherchips in Sachen Standard scheinen gleich.
Leider gibts so 100% verlässliche Werte nicht. Und selbst direkt Kartenmessungen werden von vielen Bauteilen drum rum ggf. sogar schon verfälscht.
Eventuell kann man direkt an den Spawas der VRAM Module messen?

Problematisch, denn keine zwei Karten sind genau gleich. ht4u misst bei den beiden 680ern (EVGA und Zotac) aus dem ersten Test schon 6-8W Differenz, was die Sache ordentlich verfälschen dürfte, hätte eine 2GB und die andere 4GB.
 
1. 690 bleibt 690
2. 680 wird von 780 abgelöst und 780 spielt nicht in Titans Revier
3. die 880 wird die Titan ablösen, bis dahin genug Umsatz generiert

Wenn das stimmt das die single gpu nachfolge der 680 die Titan noch nicht in grund und boden stampft (=überholt) würde die Karte ihren preis auch vermutlich wert sein.
Meine 580er hat damals auch knappe 500€ gekostet (zuzüglich wak) und daher wurde auch die 680 ausgelassen das einfazu zu wenig leistungszuwachs fürs investment kommt.
Weiß denn dein vögelchen auch ob und wann mit wasserkühler zu rechnen ist ?
 
Naja, "Kundengängelung" macht nVidia schon seit der GTX 680. Ich meine, Performance-Karte für High-End Preis:fresse: Aber es verkauft sich ja. Und ja, nen GK104 mit mehr Spannung würde teils massiv mehr Taktspielraum besitzen. Ist nicht GK104 die bisher am höchsten taktende GPU gewesen, mit mehr als 2GHz? Ich sehe es genauso, dass nvidia von Anfang der 680 an einen Riegel vorschieben wollte. Interessant ist ja auch, dass auf der 680 nur 4 von max. 5 Spannungswandler sitzen. Mehr Takt sollte da eigentlich nichtmal ein problem sein.

Mal abwarten, was nvidia schon vor hat. Wer ne Single-GPU für 1000€ verkaufen will, dem traue ich auch soetwas zu:d
 
Problematisch, denn keine zwei Karten sind genau gleich. ht4u misst bei den beiden 680ern (EVGA und Zotac) aus dem ersten Test schon 6-8W Differenz, was die Sache ordentlich verfälschen dürfte, hätte eine 2GB und die andere 4GB.

Das ist leider das Problem...
Ggf. könnte man aber, sofern man die Möglichkeit hat, zwei Karten suchen, die sich so recht gleichen.
Wenn mich nicht alles täuscht, packt nämlich Zotac auf die 680er etwas mehr Spannung drauf. Bzw. EVGA etwas weniger.
Die Zotac läuft bei ht4u.net auch mit mehr max. Turbo. Ebenso ist im OC was mehr drin.
Und meine beiden Zotacs laufen auch 1296MHz auf der GPU. Gibt nur ne Hand voll GPUs hier im Forum, die mehr schaffen... Und das auch teils nur mit diesem 1,2irgendwas V Bios...
Bei mir ist da alles default. Takt rauf, rest stock... -> lüppt.

Man könnte wohl bestenfalls nen Mittelwert aus viele einzel Messungen bilden. Hilft uns nur so alles nicht zwingend weiter :fresse:
 
Das ist leider das Problem...
Ggf. könnte man aber, sofern man die Möglichkeit hat, zwei Karten suchen, die sich so recht gleichen.
Wenn mich nicht alles täuscht, packt nämlich Zotac auf die 680er etwas mehr Spannung drauf. Bzw. EVGA etwas weniger.
Die Zotac läuft bei ht4u.net auch mit mehr max. Turbo. Ebenso ist im OC was mehr drin.
Und meine beiden Zotacs laufen auch 1296MHz auf der GPU. Gibt nur ne Hand voll GPUs hier im Forum, die mehr schaffen... Und das auch teils nur mit diesem 1,2irgendwas V Bios...
Bei mir ist da alles default. Takt rauf, rest stock... -> lüppt.

Könnte sogar wirklich so sein: Meine 680 besitzt stock auch nur max. 1,162V statt 1,175V. Mit forcierten 1,187V (1,175V) sind ebenfalls irgendetwas zwischen 1280 und 1293MHz stabil.
 
ohne jemandem zu nahe treten zu wollen, aber in allen anderen foren wo ich unterwegs bin und war hätten sone leute wie espanolplaya schon lange ne auszeit bekommen für den geistigen dünnschiss der hier ständig von sich gegeben wird...

Gruß JM
 
gibt keinen Refresh
Titan is halt ein K20 fürn Desktop und fertig
GPGPU raus, SMX/TMU rein, Gamerchip Platz 1 Ende

Da wäre ich mir nicht so sicher. Je nach dem wann Maxwell kommt könnte man da noch was nachschieben, die Möglichkeiten wären wohl da. Der einzige Grund das nicht zu tun wäre Maxwell nicht zu gefährden.

und VCore wird sein wie bei Kepler generell
bissel Spannung ja und fertig
das Ding heißt nicht umsonst Titan, die haben das Powerlimit und VCore schon großzügig gelassen weil
1. 690 bleibt 690
2. 680 wird von 780 abgelöst und 780 spielt nicht in Titans Revier
3. die 880 wird die Titan ablösen, bis dahin genug Umsatz generiert
4. ist und bleibt es ne Enthusiastkarte, die zum Glück nicht jeder haben wird/kann, da ist NVidia sicher nicht so strikt
5. hab ich Vögel zwitschern hören bzgl OC/Spannung :)
6. nein niemand aus dem Forum

Vcore ist halt so ne Geschichte. Sieht man es aus deiner Perspektive gäbe es eigentlich auch keinen Grund die GK104 so im Powerlimit zu beschneiden.
 
ohne jemandem zu nahe treten zu wollen, aber in allen anderen foren wo ich unterwegs bin und war hätten sone leute wie espanolplaya schon lange ne auszeit bekommen für den geistigen dünnschiss der hier ständig von sich gegeben wird...

Gruß JM

Hau ihn auf die Ignore, dann siehst nichts mehr von ihm.

BTT: Gibt es schon neues zum Preis? Bei 1.000 Euro würde ich sicherlich etwas warten, weil das einfach ne Unverschämtheit wäre.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh