nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ich glaube kaum, das man da so auf die Kacke haut, bestimmt gibt es wieder wegen der immensen Chipgröße riesen Probleme mit den Yields und man deaktiviert wieder ein paar Einheiten und geht mit dem Takt runter auf ~900mhz.
Ich denke mal GK110 wird im Spielebetrieb ca 40 bis 50% schneller wie die GTX 680 und ca ~ 40% schneller als die HD 7970 Ghz.

Wenn AMd früher am Markt ist und 25% oben drauf packt, dann kann sich GK110 ja gar nicht mehr weit absetzen und es sieht wieder so aus wie HD 7970 vs GTX 680.

Das passt doch schon ganz gut zu der Prognose. Wenn AMD nur 25% bringt, wird man aber ein gutes Stück hinten liegen, so um die 20-25%

Btw Downsampling bei Kepler ist "gefixt". Blaire hat rausgefunden, dass man mit den Gesamtpixeln runter gehen muss und nicht hoch wie bei Fermi. Wer kommt auf sowas...3840x2160@60Hz geht, wurde schon von mehreren bestätigt mit unterschiedlichen Monitoren.

Edit:
Ach ja, Lovesuckz (Sontin?), jetzt darfste mit deinen 60+% kommen ggü. GF110, diesmal stimmen die bestimmt :fresse2:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
boxleitnerb schrieb:
Wenn AMD nur 25% bringt, wird man aber ein gutes Stück hinten liegen, so um die 20-25%

Wenn Nvidia 45% bringt und AMD 25%, dann sinds bei leibe keine 20 bis 25%, sondenr eher ~15%, die Gigahertz Edition is um die 5% schneller als die GTX 680.
Naja es wird auf jeden Fall spannend, wobei ich glaube, dass AMD noch was in der Kiste hat und diesmal mit Rory Read etwas fetter austeilt, siehe HD 7970 Gigahertz Edition.
 
GTX690 ausbauen geh:rofl:

Dann heißt's ja schnell verticken, bevor man dafür nichts mehr bekommt:fresse2:

Ich denke, die GTX 780 wird vllt irgendetwas zwischen 25-15% schneller als die HD 8970. Dann hätten wir in etwa wieder das selbe verhältnis wie bei GTX 580 und HD 6970.

Allerdings würde ein netter Preiskampf uns allen zu gute kommen. Wobei, wenn ich ne Karte kaufe, will ich dann aber auch, dass diese dann unumstritten die schnellste ist, nicht so wie bei HD 7970, GTX 680, HD 7970 GHz Ed.:banana:
 
Wenn Nvidia 45% bringt und AMD 25%, dann sinds bei leibe keine 20 bis 25%, sondenr eher ~15%, die Gigahertz Edition is um die 5% schneller als die GTX 680.
Naja es wird auf jeden Fall spannend, wobei ich glaube, dass AMD noch was in der Kiste hat und diesmal mit Rory Read etwas fetter austeilt, siehe HD 7970 Gigahertz Edition.

Sollte das aus dem Zitat stimmen (40% für die 770), würde ich 50% für die 780 rechnen. 150%/125%=120% -> 20% schneller. Ich glaub aber auch, dass man damit soviel verbraucht wie die 480. Anders kann ich mir das nicht vorstellen.
 
Wer zieht GPGPU Vergleiche?

Mache posten hier echt mitm Klammerbeutel gepudert, ich klink mich mal wieder aus.
 
Zuletzt bearbeitet:
Warum soll AMD´s Design veraltet sein? Erklär das mal konkret, anstatt immernur deine Lügen hier aufzutischen. :d
Selbst die GTX 680 ist in vielen Fällen langsamer als die HD 7970 ohne Gigahertz, sei es bei 2560x1600 bei Downsampling oder 8xSGSSAA, oder halt in einigen anderen Spielen, aber was soll das rumgeeiere? Kannst du nicht normal spekuieren wie andere ohne wieder Fanboykriege zu provozieren?

das ist aber ein ziemlicher käse das die gtx 680 langsamer sei als die hd 7970..
 
Das Downsampling wieder mit Treiber bei 3840*2160 rennt finde ich geil.
 
Das Downsampling wieder mit Treiber bei 3840*2160 rennt finde ich geil.

Das funktionierte jedenfalls von anfang an. Ich hatte nie Probleme mit Kepler und meinem 2048x1152 Monitor 4096x2034 mit 52Hz laufen zu lassen. Der muss von sich aus schon eine geringe Pixelanzahl verwenden...
 
*grunz*
könnt ihr mal aufhören ?!

normaler Weise konnte man sich bislang freuen wenn beide ähnlich gute Pakete abgeliefert haben -> Preiskampf
Immo bin ich mir garnicht so sicher ob das GUT für uns wäre, denn immo sind die Preise eher zum kotzen lange weit oben und hätte eher Bedenken wegen Preislimitabsprachen (natürlich mache die das doch nicht :asthanos:)
 
normaler Weise konnte man sich bislang freuen wenn beide ähnlich gute Pakete abgeliefert haben -> Preiskampf
Immo bin ich mir garnicht so sicher ob das GUT für uns wäre, denn immo sind die Preise eher zum kotzen lange weit oben und hätte eher Bedenken wegen Preislimitabsprachen (natürlich mache die das doch nicht :asthanos:)

Eigentlich fehlt, wie bei den CPUs, ein dritter Mitbewerber. Die Quasi-Monopolisten tun sich nicht wirklich weh, zu mal beide beim selben Hersteller fertigen lassen, wenn ich mich nicht irre... :d
 
Gerade bei SlI und Singleplayern ein muss für mich diese Auflösungen.

Sontin wusste ich nicht zu release der 680er haben alle nur von 2560*1440 berichtet bei einem Full HD Monitor.
Mit meinem Benq hatte ich damals bei den 580ern auch immer die Pixelclocks angepast für 3840*2160.
 
Eigentlich fehlt, wie bei den CPUs, ein dritter Mitbewerber. Die Quasi-Monopolisten tun sich nicht wirklich weh, zu mal beide beim selben Hersteller fertigen lassen, wenn ich mich nicht irre... :d

ja leider..
das was da mal aufzuckte ist ohnehin nicht von Belang und weiter geht´s wie gehabt :/

Die prophezeiten 40% wären ja ne dolle Sache.
Inwiefern sich das letztendlich auf das von mir gewünschte Paket auswirkt bleibt abzuwarten.

BF3@ultra@5760x1080@SLI würde da etwa bei 64-69fps liegen bei optimaler Skalierung.
Ne ecke besser würde mir da schon gefallen @ 120hz.

Vielleicht wirkt das Game schon flüssiger wegen der ausbleibenden Nachladeruckler die sich ab und an mal einschleichen. Ist ja auch schon was wert :).
fps sind ja nicht alles. Das allgemeine Spielegefühl bringts ja. Wenn NV es noch schaffen sollte deren MGPU Technologie so zu optimieren das ein normales SLI wie ne 690 arbeitet..:bigok:
 
ja leider..
das was da mal aufzuckte ist ohnehin nicht von Belang und weiter geht´s wie gehabt :/

Die prophezeiten 40% wären ja ne dolle Sache.
Inwiefern sich das letztendlich auf das von mir gewünschte Paket auswirkt bleibt abzuwarten.

BF3@ultra@5760x1080@SLI würde da etwa bei 64-69fps liegen bei optimaler Skalierung.
Ne ecke besser würde mir da schon gefallen @ 120hz.

Vielleicht wirkt das Game schon flüssiger wegen der ausbleibenden Nachladeruckler die sich ab und an mal einschleichen. Ist ja auch schon was wert :).
fps sind ja nicht alles. Das allgemeine Spielegefühl bringts ja. Wenn NV es noch schaffen sollte deren MGPU Technologie so zu optimieren das ein normales SLI wie ne 690 arbeitet..:bigok:


wenn 3dfx nun plötzlich wieder auferstehen würde ..... dann würden einige am Anfang Aufpreise zahlen - freiwillig *lacht

Voodoo6 2013 Edition .... und PhysX mit kleiner Partnerkarte - als RagePro 256MB - passiv versteht sich und 25 Watt *lacht :)
 
Zuletzt bearbeitet:
Zumal das ja erstmal nur auf den Salvage Part bezogen war,das dicke Ende käme da dann ja noch mit dem Vollausbau

klingt als würde dann ein SLI ein 690er SLI verbraten :hmm:....dann wäre ich mehr als nur happy :fresse2:
 
ein GK 110 sli dürfte ja fast flotter sein als ein 680er quad sli ,einfach weils heftig besser skaliert und es keine probleme geben dürfte
 
..dürfte ja fast flotter sein..

du machst mir den Mund wässrig :) ... warten wir ab was unterm Strich bei raus kommt :p
 
Aber sicherlich nicht im quad sli, niemals !
Im quad sli performt alles recht bescheiden im verhaeltnis zu preiss, aufwand und stromverbrauch
 
klingt als würde dann ein SLI ein 690er SLI verbraten :hmm:....dann wäre ich mehr als nur happy :fresse2:

Wenn das Monstrum,sich an die festgesetzten Normen für Referenzprodukte halten soll,sicherlich nicht.

Aber mit potenten Netzteilen,und falls??? NVIDIA nicht wieder das OC einschränkt,wegen festgenagelter VID,könnten zwei Vollausbauten dem Ganzen,schon gefährlich nahe kommen.

Ich mach schonmal die Slotschrauben der 690er los:)
 
Aber sicherlich nicht im quad sli, niemals !
Im quad sli performt alles recht bescheiden im verhaeltnis zu preiss, aufwand und stromverbrauch

Find ich nicht. 370% Skalierung bei 400% Preis und 350-400% Verbrauch find ich sogar sehr gut. Beim Sprung 670 vs 680 oder 7950 vs 7970 (GHz) stimmt das mit Preis und Verbrauch schonmal nicht.
Den Fehler, den viele machen ist, sich solche Benchmarks im CPU-Limit anzuschauen. Dann ist die Skalierung natürlich schlecht.

So gesehen find ich MGPU was P/L und Verbrauch angeht im Highendsegment eindeutig die beste Lösung - wenn es funktioniert, das muss man dazusagen. Ist aber meistens der Fall.
 
Jo die skalierung ist besonder unter sehr hohen auflösungen mit max aa zu sehen.
In full hd stossen ohne sgssaa schon meistens 2Karten ins Cpu limt.

Wenn das mit 50% mehrleistung hinkommen sollte wird man 3GTx680 bestimmt bügeln können.
Vor allem bei settings wo die Bandbreite und ram wichtig wird sollte der Gk110 im sli einem tri Sli oder manchmal einem Quad sli bestehend aus gk104 zeigen wo der Hammer hängt gut bei 4 Clasfied wohl er nicht bei 4GB.5
 
Zuletzt bearbeitet:
So langsam frage ich mich, wie Nvidia die neuen Karten bewerben will?
"300fps in Borderlands 2 mit FXAA in Verbindung mit einem mit flüssigem Stickstoff gekühlten i7-3770K@8GHz" :d

Mit dem FXAA und der Weigerung SGSSAA offiziell zu machen, stellt man sich doch selbst ein Bein. Da kann man ja nur hoffen, die neue Konsolengeneration wird Ruckelorgien statt Spiele hervorbringen, sonst lohnt sich das außer für uns Enthusiasten doch gar nicht (abzgl. Ausnahmen).
 
Zuletzt bearbeitet:
Boxer hoffnung habe ich noch etwas zumindest wen man dem Dokument von intel glauben schenken darf und es stimmt das erste Monitore mit 3840*2160 in 2013 erscheinen sollen.
Dann kommt auch mit 3Karten und mehr freude auf.
Ich glaube über die Zeit wird die tendenz mehr zu hohen Auflösungen gehn um das Bild zu glätten.
Die Auflösungen sollen ab 24Zoll starten Supersampling beginnt dan überflüssig zu werden.

Ich habe mit der Auflösung schon viele games ausprobiert wenn der ram nicht limitiert sind die games im single player schon sehr gut spielbar teilweise sogar noch mit 2* mssaa war zumindest bei bf3 und 2 HD7970ern @1350 MHZ der Fall.
MFG
 
Zuletzt bearbeitet:
SGSSAA ist viel effizienter als hohe Auflösungen, so würde man unnötig Leistung verbraten. 4x SGSSAA sieht besser aus als 2x2 DS und ist noch schneller. Zudem sind höhere Auflösungen auf gleicher Fläche und DS nicht dasselbe, denn bei DS findet eine Mittelung statt, was das Aliasing verringert - bei 4k@24" nicht, denn da werden die einzelnen Pixel nämlich direkt angezeigt.

Dennoch sind hohe Auflösungen nativ nicht verkehrt, aber da fehlt noch etwas sehr wichtiges: Der Content. Da braucht es schon wirklich viele viele feine Details (und Texturen!), sonst kann man sich das gleich sparen.
 
Vielleicht bekommen wir ja dann unser 64 Anisotrop oder noch schönere Texturen.
Also ich finde der Einsatz von 8Fach Sgssaa oder ssaa kostet mindesten genau so viel an leistung wie hohe auflösungen die Karten gerade auch bei Nv waren eh meist auf full hd optimiert da ist also auch hardware seitig genug verbesserungs potentzial vorhanden für hohe Auflösungen.
Der GK110 klingt zumindest von den specs so alls wäre er für solche szenarien wie geschaffen @SLi+.
Ich glaube auch das es für die programierer von den entwicklungs kosten einfache wäre ein Textur mit mehr informationen zu füllen als sich mit aa modis rum zu schlagen.
 
Zuletzt bearbeitet:
8xSGSSAA find ich auch etwas overkill, das kostet immerhin bis zu 75% Leistung im Vergleich zu keinem AA.4xSG reicht mir gut aus, dafür hab ich dann lieber flüssige 60fps in etwa. Ich kann das ja mal grad checken mit Black Mesa.

185fps mit 4xSGSSAA vs. 190fps mit 3840x2160 ohne AA. Okay praktisch gleich schnell, aber mit DS sehe ich noch gut Treppchen und Aliasing, mit SGSSAA nicht.
 
Zuletzt bearbeitet:
Hey, 3840x2160 mit 32xS und 8xSGSSAA geht auch :d
Glaub da geht selbst einer 4GB-Karte der VRAM aus...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh