nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

Naja selber Schuld ;)
Eine 680 auf 1250-1300 hat mal richtig Dampf
 
Ich fand die Preise für 256 Bit Karten auch absolut unverschämt da her habe ich mir auch gesagt NV sieht für ein Mittelklassen layout keinen cent von mir
Sehe ich genauso. Nvidia hätte niemals mehr als 350€ für so einen Kindergartenchip von mir gesehen (ich hab 300 bezahlt :d) - das 256Bit SI muss ja nicht schlecht sein, wenn der Speicher effektiv mit 4000MHz takten würde - dann hätte man ja auch 256GB/s :fresse: -nur der Verbrauch wäre wohl recht hoch - daher ist 384Bit und nierdriger Takt wohl einfach sinnvoller, da effizienter und stromsparender.
Und eine HD 7970 oder GTX 680 mit jeweils 1200-1300/3500MHz sind beinahe genau gleich schnell (im Durchschnitt vllt nur max. 5% unterschied), die Spiele entscheiden da umso mehr.

@Naennon
Der Hohe Takt bringt im Verhältnis zu höherem Speicher-OC dennoch meistens weniger. So ist eine Karte mit 1241/3506MHz sicherlich schneller als z.B. deine mit 1306/3304 MHz :d


@logitech!
Normalerweise reichen mir 2GiB auch schon für Downsampling und Textur-mods (z.B. in Skyrim). Allerdings wäre mehr auch nicht verkehrt, allein, um einen Buffer für die Zukunft zu haben.
 
Zuletzt bearbeitet:
Ich geb euch noch mal etwas Futter:

Oh, and we asked about desktop GPUs, and we were told that we should expect something this year based on Nvidia’s previous statements regarding GK110’s path. That means that we likely won’t see Maxwell products this year, but we probably will see GK110 based GeForce and Quadro cards.

Quelle

Übrigens wird in Zukunft vehementer Wert auf das PCB gelegt. Das kann auch einiges an Verlustleistung einsparen.
 
Zuletzt bearbeitet:
Naja selber Schuld ;)
Eine 680 auf 1250-1300 hat mal richtig Dampf


da gehts garnet drum, mir gehts da wie auch Thunderburne ums prinzip. Ich werf NV gerne für ne echte High End Hubraumkarte 500+ in den Rachen (meine GTX 580 hat zu Relese 540 gekostet..), aber bei der GTX 680 seh ich das nicht ein
 
Naja selber Schuld ;)
Eine 680 auf 1250-1300 hat mal richtig Dampf


da gehts garnet drum, mir gehts da wie auch Thunderburne ums prinzip. Ich werf NV gerne für ne echte High End Hubraumkarte 500+ in den Rachen (meine GTX 580 hat zu Relese 540 gekostet..), aber bei der GTX 680 seh ich das nicht ein
 
da gehts garnet drum, mir gehts da wie auch Thunderburne ums prinzip. Ich werf NV gerne für ne echte High End Hubraumkarte 500+ in den Rachen (meine GTX 580 hat zu Relese 540 gekostet..), aber bei der GTX 680 seh ich das nicht ein

Jup, vor allem, da man wusste, dass das die schnellste Single-GPU ist und auch von den Spezifikationen nach echtem High-End aussah. Bei der GTX 680 ist das leider nicht der Fall. Allein mit einem 384Bit SI + 3000MHz Speicher dürfte die karte deutlich schneller sein, als es die GTX 680 heute ist. Allerdings ist der GK104 auch heute nichts anderes als der Performance-Chip.
 
Du Doppelpost-Nerd :cool: Seh ich genau so. Für 294 mm² geb ich keine 450-550 Euro aus.
 
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

LSSJBroly: meine macht schon 3600 Ram ;) und 1350 Core auch
 
Eine 7970 mit 1400 auch.^^

Nur wie alltagstauglich sind 1400MHz? Selbst mit ner Wakü glaube ich nicht, dass das 100% stabil ist. Und der verbrauch (Dank mehr als 1,3V) wird wohl auch jenseits von Gut und Böse liegen - wohl mehr als 350 Watt - da wirkt ein GK110 schon wie ein Stromsparwunder :fresse:

LSSJBroly: meine macht schon 3600 Ram ;)
Dann ist ja gut - meine Riegelt da leider schon ab 3400MHz ab. Zwar ist ein Game noch nie bei 3500MHz abgeschmiert, allerdings zeigen verschiedene Tools schon Fehler an und Heaven will auch nicht ganz so. Naja, gut, dass GK110 schon recht viel bandbreite besitzen wird :)
 
Nur wie alltagstauglich sind 1400MHz? Selbst mit ner Wakü glaube ich nicht, dass das 100% stabil ist. Und der verbrauch (Dank mehr als 1,3V) wird wohl auch jenseits von Gut und Böse liegen - wohl mehr als 350 Watt - da wirkt ein GK110 schon wie ein Stromsparwunder :fresse:


Dann ist ja gut - meine Riegelt da leider schon ab 3400MHz ab. Zwar ist ein Game noch nie bei 3500MHz abgeschmiert, allerdings zeigen verschiedene Tools schon Fehler an und Heaven will auch nicht ganz so. Naja, gut, dass GK110 schon recht viel bandbreite besitzen wird :)

Meine braucht 1.3V für 1400 Core (kann übrigens bis 1.4v, ist mir jedoch unter Luft zu gefährlich), Crysis und BF3 stabil. Temps stimmen unter Luft auch noch.
 
Meine braucht 1.3V für 1400 Core (kann übrigens bis 1.4v, ist mir jedoch unter Luft zu gefährlich), Crysis und BF3 stabil. Temps stimmen unter Luft auch noch.

Dann ist das ne außergewöhnlich gute Karte. Aber trotzdem. Die Karte ist vllt rund 10-15% schneller als eine GTX 680 mit 1300MHz, verbraucht aber sicher rund 40% mehr Strom - Die Effizienz geht da aber ganz schnell flöten. Das wird wohl selbst GK110 deutlich besser machen können :d
 
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

Hier gings um 580 zu 680 und nicht 580 zu 7970 ;)
7970 und 680 beide OC schenken sich nicht wirklich was
 
Hier gings um 580 zu 680 und nicht 580 zu 7970 ;)
7970 und 680 beide OC schenken sich nicht wirklich was

Jup, auch meine Karte, die rund 15% schneller als Stock ist, ist schon deutlich schneller, als eine GTX 580, hätte ich am Anfang auch nicht gedacht. Und zur 7970 und 680 stimm ich dir voll und ganz zu.
 
1390 MHZ Wakkü BF3 Stable mit einer VTX X Edition gehabt 1825 MHZ im Ram weit über 300GBs mit 384 Bit .
Die jetzigen Kepler Karten sind da gegen Kinderspielzeug .
Und ja +100 MHZ Ram ergeben 1.5 FPS in Farcry 3
 
Zuletzt bearbeitet:
Also wirds doch was im März oder eher Juni? Wat isn jetzt? Gibt scheinbar nulli dulli Infos nur billige Gerüchte!
 
Lange wird es nicht mehr dauern da Nvidia die Preise der GTX680 gesenkt hat.

ja, das ging letztes Jahr aber schon deutlich früher los :fresse2:

@supermax ... für dich erst im Juli, damit du uns deine "ich wäre jetzt bereit für..." Kommentare ersparst
 
Zuletzt bearbeitet:
Also, ich wäre bereit für eine GTX 790:bigok:

Mit zwei GK110? Ich weiß ja nicht... bei der GTX 690 hat es gut funktioniert, da der GK104 schon recht wenig verbraucht. Aber schon mit der 7970 gab es keine HD 7990 mehr, bzw. Probleme mit der Leistungsaufnahme.
Nein, custom-lösungen zählen nicht, ist nicht offiziell von AMD. Jede custom "7990" verbraucht in games mal eben locker 100 Watt mehr als eine GTX 690.
Und falls ein GK110 wirklich um die 250 Watt verbraucht, wird nVidia sicherlich nicht zwei davon auf ein PC setzen. Wenn, dann nur mit deutlich niedrigeren Taktraten, wie eben auch bei der GTX 590.
 
Zuletzt bearbeitet:
Also wirds doch was im März oder eher Juni? Wat isn jetzt? Gibt scheinbar nulli dulli Infos nur billige Gerüchte!
Rein theoretisch wäre es sinnvoll für Nvidia eine neue Generation an Karten noch vor Haswell auf den Markt zu schmeißen, weil es doch ein paar Leute geben sollte, die mit dem neuen Sockel komplett neu aufrüsten, was sich günstig auf die Verkäufe auswirken könnte. (ich bin übrigens einer davon und möchte möglichst bald meine 8800 gt und den intel e8400 in Rente schicken)
 
Hier gings um 580 zu 680 und nicht 580 zu 7970 ;)
7970 und 680 beide OC schenken sich nicht wirklich was

Also laut aktuellen Benches von CB (mit aktuellen Treibern) liegt eine HD7970GHz Edition (sprich 1GHz GPU Takt sowie 1,05GHz Boost) schon ~12% vor einer GTX 680 (default Takt). Sprich bei grob Taktgleichstand ca. 12% mehr Leistung.
Bekanntermaßen skaliert GPU OC bei GK104 nicht ganz so astrein und benötigt dazu auch nen ordentlichen Schub an mehr Speicherbandbreite. Auf realistische alltags 3,5GHz legst du ~16,7% Bandbreite zu bei ner 680er. Mit 1,3GHz aber schon ~22% mehr GPU Power. Und im default Takt profitiert die GPU teils schon allein durch mehr Speicherbandbreite.

Bei der AMD schaut das anders aus, da kannst du dir Speicher OC fast sparen bzw. es wirkt weit weniger Effektiv. Dafür aber GPU OC. Und mit 1,3GHz sind das auch noch über 22% mehr (ausgehend vom 1,05GHz Boost der GHz Edition)
Selbst wenn die AMD bei 1,3GHz nur mit ~15% mehr Leistung um die Ecke kommen würde (was sie definitiv nicht tut), wäre es schon ein Vorsprung von ~38% auf eine default GTX 680. Das erreichst du schlicht nicht durch OC dieser. Bestenfalls noch mit irgend ner Spezial Lightning oder whatever ;) Aber auch das ist schon grenzwertig.


Stromverbrauch ist natürlich klar die NV vorne, keine Frage. Was mich aber wundert, warum man aktuell wieder so extrem auf den Verbrauch pocht. Speziell von den NV Karten besitzern... Zu Fermi Zeiten sowie G200(b) Zeiten, und da waren es die selben Leute! hat das schlicht niemanden dieser interessiert.

Mit zwei GK110? Ich weiß ja nicht... bei der GTX 690 hat es gut funktioniert, da der GK104 schon recht wenig verbraucht. Aber schon mit der 7970 gab es keine HD 7990 mehr, bzw. Probleme mit der Leistungsaufnahme.
Nein, custom-lösungen zählen nicht, ist nicht offiziell von AMD. Jede custom "7990" verbraucht in games mal eben locker 100 Watt mehr als eine GTX 690.
Und falls ein GK110 wirklich um die 250 Watt verbraucht, wird nVidia sicherlich nicht zwei davon auf ein PC setzen. Wenn, dann nur mit deutlich niedrigeren Taktraten, wie eben auch bei der GTX 590.

Stimmen die Gerüchte zumindest im Ansatz, das man mit GK110 zumindest ähnliche Effizienz wie GK104 erreicht vllt gar bessere, dann denke ich mal, wird sich durch einen möglicherweise niedrigeren Takt einer Dual Karte wohl nicht so extrem viel sparen lassen.
2x250W sind 500W und somit locker flockig zwei drittel über den Spezifikationen. Das machst du nicht mal eben mit etwas weniger Takt wett... Da muss wohl mehr passieren.
Und auch mit was weniger Takt wird man wohl die Spannung nicht massiv runtersetzen können. Irgendwo sind da auch Grenzen drin. Und ich behaupte, man wird die Spannung so schon so niedrig wie irgend möglich platzieren, damit der Verbrauch der Single GPU nicht aus dem Ruder läuft...

Die 590er war ja auch nicht gerade ein Paradebeispiel in Sachen Einhaltung der PCIe Spezifikationen bei 360W mit Ansage :fresse:
Und das trotz 20%+ weniger Takt als die 580er.
 
Zuletzt bearbeitet:
Abgesehen davon sollte man mal an die Kosten denken. Eine Dual-GK110 würde dir 1000-Euro-Marke locker sprengen!
 
zu release der 690 kostete die auch 1000,-€ -1200,-€ und zwei singlekarten ebenso. Ich glaube nicht das die wenn überhaupt nochmal son geiles Ding hinbekommen. Vielleicht kommt ja ne Dualchiplösung. Quasi als Refresh der jetzigen Dualkarte. Das wäre vielleicht auch noch interessant für den reinen Gamer, aber nicht das was man als neue Gen erwarten würde.
Ich warte gespannt darauf wie weit ein 780er SLI ein 690erQuad schlägt und ob da auch die Technik vs MR drin stecken wird wie bei der 690.
 
hä?, ich dachte es wäre erst mit der 690 erschienen, weshalb sie deutlich bessere Ergebnisse im Bereich MR Erzielt als ein normales SLI.
Ich kann mich auch irren, aber das war afaik für einige der Umrüstgrund. Habe die Folie noch vor Augen, finde die aber jetzt nicht auf die Schnelle im Netz.
 
Also ich hab jetzt schon öfters gelesen, dass auch ein 680 SLI smoother ist als ein 580 SLI bei gleichen Frameraten.
Hundertprozentig sicher bin ich natürlich nicht.

Hier sieht man, dass 680 SLI und 690 sehr ähnlich sind und sich deutlich von der 590 unterscheiden, speziell in der ersten Hälfte des Verlaufs, wo die Spielfigur nur geradeaus läuft.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index4.php

Von einem EVGA Product Manager:
All 600 series cards support framerate metering when in SLI, so the experience should be similar (if not identical) to GTX 690.
http://www.evga.com/forums/fb.ashx?m=1684086
 
Zuletzt bearbeitet:
ja, das stimmt ja auch. Da gibts ne Folie mit nem Vergleich ein oder zwei Singlekarten, GTX580 SLI, 680SLI, 690 und glaube 7970 CF. Die Zacken beim CF waren extrem, danach das 580er SLI, dann schon deutlich besser das 680er SLI und das Diagramm der 690 ähnelte schon annähernd das der Singlekarte. Vielleicht finde ich die Folie ja noch.
 
Das war beim Computerbase Review.
Dazu muss man aber auch sagen, dass die Messungen mit Fraps problematisch sind, weil man das Framemetering damit eigentlich gar nicht messen können sollte, wenn es nach Nvidia geht. Da gabs mal einen Artikel bei techreport dazu, inside the second oder so. Aber augenscheinlich kann man ja Unterschiede messen. Sehr mehrwürdig.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh