nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
EK ist qualitativ eher schlecht. Von den Nickelproblemen mal abgesehen, sind meine beiden Kühler nicht "dicht" im Sinne, dass am Rand der Deckel sich leicht von der Bodenplatte abhebt, da ist ein Spalt. Wasserdicht ist es, weil da noch die Dichtung kommt, aber es sieht unschön aus, wenn man genau hinschaut. Von "top" Qualität kann man sicher nicht sprechen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf jeden Fall werden Kühler kommen.
Wichtig ist das eine AKTVE Spannungswandler Kühlung zur verfügung steht so weit ich weis haben das zur Zeit alle Hersteller im Angebot.
 
bin mal gespannt ob der preis sich hält.

dann müsste die Titan aber mehr leistung bringen als ne 690er
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Naja...zumindest die gleiche. ..und 2x8pin :d

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Immerhin geschieht schon was :) .. dürfte ja heißen die haben auch ein Kärtchen bekommen, oder irre ich ?

Nich zwingend, das ganze wird doch nur im PC designt.
Die werden im Vorfeld alle schön nur ein paar detailierte CAD Zeichnungen des PCBs inkl. aller Bauteile bekommen haben und dann darauf aufbauend kann man die Kühler planen und designen.
Wenn NV nicht geschlampt hat, bei den Zeichnungen, dann passt das Teil auch ohne jemals in der Planungs/Produktionsphase auf so ner Karte gesessen zu haben ;)

EK ist qualitativ eher schlecht. Von den Nickelproblemen mal abgesehen, sind meine beiden Kühler nicht "dicht" im Sinne, dass am Rand der Deckel sich leicht von der Bodenplatte abhebt, da ist ein Spalt. Wasserdicht ist es, weil da noch die Dichtung kommt, aber es sieht unschön aus, wenn man genau hinschaut. Von "top" Qualität kann man sicher nicht sprechen.

Ist es denn nur bei dir bei dem einem Kühler der Fall?
Könnte ja ggf. auch einfach nur ein Produktionsfehler oder Ausrutscher sein. Passiert selbst den "Besten" mal ;)

Muss aber zugeben von Wakü Null Dunst zu haben :fresse:


Was mich aber interessieren würde, bekommt man so ne ~250W Karte mit nem Single 120er Radi anständig gekühlt?
Weil ich könnte mir ggf. vorstellen für die GPU only ne Wakü drauf zu packen.
Bei mir wirds wohl auch über kurz oder lang bei einer Karte bleiben. Im Case ist aber nur Platz für nen Single 120er. Ggf. nen zweiten im Doppelpack zum ersten von Hinten ans Case. Obwohl dann zwingend die Abluft des einen durch den anderen strömen würde. Lautstärke spielt wie so oft keine Rolle. Sprich alles was geht darf der Lüfter auch abrufen...

Der Aufwand lohnt imho aber nur, wenn das Teil dann auch signifikant besser kühlt als mit stock Luft@100%...
Sind ja immerhin sicher gut 200-300€ all inkl. für Pumpe, Schläuche, Radi, AGB usw.
 
Stimmen die 6GB VRAM. So geht dem Teil definitiv deutlich später die Puste aus, als es bei ner 690er der Fall ist.
Die jenigen, die sowas wollen, kaufen auch dementsprechend bei dem Preis -> ich zum Beispiel. Wobei es sicher auch 4GB getan hätten. Aber besser man hat, als man hätte. :fresse:
 
jo ich möchte das teil ja auch haben da ich 5760x1080 zocke und manchmal mit 3d vision, aber die leistung muss bei dem preis schon auch passen. sag wenn sie 10 - 15 % hinter ner 690er liegt ok.

Aber weniger darfs nicht sein.
 
Nein war es vor ca 2 Jahren noch nicht.
Teilweise passiv mit Kupfer bedeckt.
Ek war ganz vorn da bei mit Aktiver Wassekühlung bei den Spawas.
Erinere mich da noch gut an die HD5970er zeit Dualgpu.
In der Leistungsklasse von 300W +OC war das immer sehr wichtig für mich.
Auch wen EK dann 1-2°C schlechtere Temps auf der GPU hatte so waren sie dann aber auch bei OC um 40°C besser bei den Spawas im vergleich zu pasiv.
Aber wie schon erwähnt haben so zihmlich alle gleich gezogen.
 
Zuletzt bearbeitet:
Also wo das Wasser nicht durch den ganzen block fliesst, sondern nur im Bereich der GPU? O.K. das ist Käse.
 
Also wo das Wasser nicht durch den ganzen block fliesst, sondern nur im Bereich der GPU? O.K. das ist Käse.

Man versucht eher so viel Fläche wie möglich zu generieren. Somit hast du diverse Windungen des Wasserflusses im GPU Kühler selbst. Das Wasser fließt schon fast überall im Block.
Wichtig ist halt, das die Spawas auch entsprechend Kontakt zum Kühlkörper haben. Wenn da noch milimeter dicke Pads zwischen sind, nutzt dir das alles verhältnismäßig wenig. Der Kuperkühler sollte direkt auf den heißesten Teilen aufsitzen, damit die Wärme auch an den Wakühler übergehen kann. Das wasser transportiert es dann weg.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Bei nem 120er bleibt aber nicht mehr viel Platz für OC, falls er die Hitze überhaupt packt.
 
Mit nem 120er Radi wirst eher sehr schlechte Wassertemps haben, vorallem bei OC wär schon mal ein triple nicht ganz verkehrt.
Mit lukü wärst glaub ich besser dran.
 
Ist es denn nur bei dir bei dem einem Kühler der Fall?
Könnte ja ggf. auch einfach nur ein Produktionsfehler oder Ausrutscher sein. Passiert selbst den "Besten" mal ;)

Muss aber zugeben von Wakü Null Dunst zu haben :fresse:


Was mich aber interessieren würde, bekommt man so ne ~250W Karte mit nem Single 120er Radi anständig gekühlt?
Weil ich könnte mir ggf. vorstellen für die GPU only ne Wakü drauf zu packen.
Bei mir wirds wohl auch über kurz oder lang bei einer Karte bleiben. Im Case ist aber nur Platz für nen Single 120er. Ggf. nen zweiten im Doppelpack zum ersten von Hinten ans Case. Obwohl dann zwingend die Abluft des einen durch den anderen strömen würde. Lautstärke spielt wie so oft keine Rolle. Sprich alles was geht darf der Lüfter auch abrufen...

Der Aufwand lohnt imho aber nur, wenn das Teil dann auch signifikant besser kühlt als mit stock Luft@100%...
Sind ja immerhin sicher gut 200-300€ all inkl. für Pumpe, Schläuche, Radi, AGB usw.

Ist nur bei einem von beiden Kühlern, hab grad nochmal geschaut. Aber ich hatte lange Probleme mit denen. Trotz keinerlei Veränderung am System wurden die Temperaturen immer schlechter, da hat sich wohl was verzogen, dass es nicht mehr gepasst hat am Schluss - bei beiden. Musste die Abstandshalter abfeilen, bis es wieder ok war.

Ich hab seit 2007 Wasserkühlung, das passt schon, die Zusatzinvestitionen beschränken sich auf die Kühler selbst. 200-300 Euro...lol. Ich hab bisher bestimmt 1500 Euro in meine Wasserkühlung seit eben 2007 investiert. Wenn schon, dann richtig.
Die Temperaturen sind hier unter Last ca. 40 Grad geringer als mit Luft und es ist flüsterleise. Lohnt sich also schon find ich und schön sieht es auch aus. GPU only würde ich nie machen, da hätte ich ein viel zu mulmiges Gefühl. VRMs und VRAM sollten mitgekühlt werden.
 
Lochfraß FTW made by EK:)

wtf das is ja bei ner DCII, also noch nichtmal so alt und zurückliegend....
weiß man wieso? was hatte der denn im Kreislauf, weil einfach so passiert sowas nicht...
 
Nein das ist bedingt richtig fdsonne habe damals test gesehen ein Wakkü passiv bei den Wandlern und einmal halt ek mit aktiv .
Der passive ereichte mit padso um die 98°C und der ek um die 54°C getestet mit OC.
Natürlich were der direkte kontakt besser leider sind die Toleranzen bei den Grafikarten an diesen stellen aber zu hoch bei der Fertigung also die Bauteil höhe.
Aktiv bringt ne Menge nur so konnte ich damals 1000 MHZ auf der HD5970 fahren die Passiv gekühltetn haten da schon längst mit 130°C kapituliert.
 
was ist denn da pssiert? hat der säure getankt? mit aquatuning protect hatte ich nie Probleme....mh kommt des davon wenn man alu und kupfer mischt oder...kann mir garnicht vorstellen das ek alu verbaut....ist auch in keinem kühler verbaut....bestimmt Sabotage...
 
Zuletzt bearbeitet:
@ boxleitnerb
Was für pumpen hast du?
Bei mir musste ich die beiden d5 bis auf stufe 1 zurückdrehen damit ich nichts mehr hörte.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
@ boxleitnerb
Was für pumpen hast du?
Bei mir musste ich die beiden d5 bis auf stufe 1 zurückdrehen damit ich nichts mehr hörte.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

hab ne Laing DDC-Pumpe 12V DDC-1T mit aquacover auf nem Sandwich...höre Garnichts selbst bei geöffneten case.
 

Lochfraß FTW made by EK:)[/QUOTE]

Da stimmt aber irgendwas nicht. Es ist unmöglich das sich das Kupfer dermaßen zersetzt, auch wenn Alu im Kreislauf ist, da unedler. Selbst die Abdeckplatte die wohl aus Edelstahl ist wurde angegriffen. Entweder hat er Gold im Kreislauf oder das Zeug das er da reingekippt hat war verdammt sauer...


BTT Btw
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh