nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wo die GTX690 herauskam hat sie genau das doppelte einer GTX680 gekostet trotz niedrigerem Takt das gab es so bei Dualkarten noch nie meist waren sie gut 150 Euro billiger als 2 Single.

weil die Skalierung der Karte dem eines 680er SLI entsprach. Das hatte man zuvor nicht so.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meist war das ehr ein Cpu limit bin ich der Meinung Grinseman.

Wo bei habe gerade nen alten CB Test aufgemacht hast Recht gehabt Grinsemann.
Intel Core i7 2600k (übertaktet per Multiplikator auf 4,5 GHz
Kann aber da mit zu tun gehabt haben das das SLI in den meisten Test nur 2.0+8Fach gehabt hat und die GTX690 direckt über 2.0 *16Fach angebunden war

Ok auch nicht gerade nen Test mit 2011 Sockel angesehen.

Habe ich das jetzt richtig mit bekommen kommenden Sonntag gibt es ofizielle Test oder wie was?
 
Zuletzt bearbeitet:
Das Problem wird die Kühlung. Sagen wir mal 300 Watt @ stock mit aktivem Booster Verbrauch liegen an. Das würde ein Kühler der GTX 580 Klasse grade so schaffen. Mit extrem Lärm gehen auch 350 Watt, also ca 10% OC. Ich vermute mal das 15% OC bei so einem Basismonster unter einer solchen Luftkühlung in 400 Watt Verbrauch ausarten würde und das Ganze bei 95 Grad an der Kotzgrenze liegt.

Titan kann eigentlich nur mit einer anderen/besseren Kühllösung triumphieren. Vielleicht geht man deshalb auch aus dem typischen Bezeichnungsschema raus und wir bekommen eine Ares Kühlung mit 120er Radiblock..... Oder man baut die Kühlung ähnlich wie die der GTX 590 auf, indem man zwei Kühlkörper neben die GPU platziert und über einen Axiallüfter die warme Luft leise in zwei Richtungen abbefördert.

Titan kann eigentlich nicht mit einer herkömmlichen Kühlung glänzen....
 
Naja, NV hat bisher immer recht ordentliche Kühllösungen gebracht, da bin ich zuversichtlich. Eine Lösung wie Ares will ich nicht so ganz glauben. Imho gehört so eine Karte unter einen Shaman/Peter/MK-26 mit zusätlichen guten Kühler für VRM, oder halt eben gleich eine richtige WaKü. O.K. ich sehe das auch bei Karten wie GF114 oder GK104 so :fresse2:
 
3Slot Kühlung:fresse:
Mal abwarten wo bei mich die Lautstärke in der Klasse eh nicht interessiert da eh ne Wakkü drauf gehört.
Wer weis vielleicht überrascht NV bei der Kühlung und Design genauso wie mit dem Namen Titan.
 
Die wird eh unter Wasser gesetzt. Unter normalen Specs wird die auch <300W liegen. Mal keine Panik hier ;)
 
ich fände ja eine kühöung ala Corsair H100i nicht schlecht, vollcover wakü aber mit ner fertigwakü kombiniert, die wakü leuts können die natürlich in ihr system einbinden und der rest hätte auch was gutes
 
ne Referenzkarte als 3Slot Customdesign !? :shot:
Ich dachte das würde auch in den Referenzvorschriften beinhaltet sein, oder beinhaltet "Referenz" lediglich das Design des PCB ?
Kann ich mir nicht vorstellen, dann wäre SLI bis Quad SLI garnicht möglich. Bock hätte ich da sicherlich auch nicht drauf. Selbst im Falle einer Areskühlung. Wohin mit den anderen 2-3 Radies !?? :fresse:
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Aber warum soll man da nen 500w nt brauchen?
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Weil das die Nvidia Vorgabe ist...
Gibt ja auch minderwertige 500W-Netzteile mit effektiven 420W auf der 12V Leitung, daher wird da seit jeher ein wenig "großzügig" dimensioniert.

Kann zudem ja auch sein, dass da noch ein Q6600 als CPU arbeitet, oder ein Fx955.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hm jo... Gibt nämlich noch keine sfx nt mit mehr als 450w
 
Yes 2*8Pin wäre Hammer mir geht einer ab 1200 Mhz locker.
 
Nur nicht zu früh freuen aber das wäre echt mal ein Zeichen das man die Enthusiasten mit dieser Karte nicht verhungern lässt:)
 
Zuletzt bearbeitet:
na !? wer schummelt, diese oder letztere Folie :d .. beide ?

bei letzter Folie stand ne null zum Schluß der Baseclock und nun plötzlich wieder identische Werte zur 690 ?! ... ich bitte euch :shake:
 
Ich habe auch nichts gesagt. Ich habe nur darauf hingewiesen, dass in der Datenbank auch Karten aufgeführt sind, die (laut Datenbank) im Dezember erscheinen sollen.
 
Müsstest du nicht schon fleißig am testen/tippen sein? um die Ecke gefragt:)

Ja ich weiß das du die Antwort schuldig bleiben wirst:d
 
Zuletzt bearbeitet:
schonwieder 502mm², ich dachte der soll 550mm² groß sein...

Dualslotdesign, war ja klar..
Anschlußvielfalt ok, ich hätte lieber 3x DVI gesehen. Heißt für mich entweder auf 60hz dümpeln dank HDMI oder erst später direkt zwei kaufen -> kein DP port an den TFTs :heul: ..oder gibts dafür Adapter? DP auf DVI?
235W TDP ...Spekulationsschwankungen von 235-250 .. ok, kann man vielleicht von ausgehen das es tatsächlich nur 1x6Pin +1x8Pin werden.
Der Unterschied zwischen DX11 und DX11.1 ist wohl genau so wichtig wie zwischen DX10 und DX10.1 :d

€dit
@Box
hatten wir schon vor 2-3 Seiten :d
 
Zuletzt bearbeitet:
Die erzielten Ergebnisse decken sich mit unseren und spiegeln daher tatsächlich die Leistung des künftigen Nvidia-Chips wider.

Woher wollen sie denn die eigenen Ergebnisse haben? Ist schon lustig das alles zu lesen ...
 
Zuletzt bearbeitet:
Einzige interessante Part sind die 5,4 TFLOPs SP. Macht 1019MHz mit Boost.
57% mehr als die GTX680. Hm, Yam Yam.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh