nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Also das wäre mir völlig wurscht. Dualslot ist ohnehin das Standardlayout, daher denke ich mal, dass NV wohl die Klötzchen beibehalten wird. Auch wenn Singleslotkarten besser aussehen hat es doch nur eine Auswirkung, wenn man Triple-SLI fahren und noch ein paar Zusatzkarten verbauen will. Hab meine 580er auch im Singleslot Design, allerdings kommt das noch vom meinem alten Mobo. Ist jetzt kein Thema mehr.
Die Gehäuse und Boards geben es doch her. Oder ;) ?
Und eines ist auch unter Wasser nützlich; eine Dualslotkarte sitzt um einiges stabiler im Slot als eine Singleslotkarte.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei einem SingleSlot-Design könnte man dann aber den PCIe1x-Slot direkt unterhalb der Graka für z.B. eine Soundkarte nutzen. Das hat also schon Vorteile. Ich hatte auch Probleme mit meinen GTX580ern, wenn über der Graka meine X-Fi steckte, weil die Wärme nicht entweichen konnte. So hatte sich das PCB der Graka aufgeheizt und die Karte lieferte trotz Wakü und Stock-Takt Bildfehler in z.B. Mafia2. Jetzt mit der Singleslot-Karte und der X-Fi darunter habe ich keine Probleme mehr.

Ich wünsche mir also auch ein mit der GTX580 vergleichbares Layout für den BigKepler und auch ein 512bit Speicherinterface mit 4GB VRAM. Die 3GB VRAM sind mir eigentlich zu wenig, um im SLi das Potential ausnutzen zu können und 6GB braucht es dann wohl doch nicht. Weiter könnte ich mir auch gut vorstellen das der GK110 von der Bandbreite gut profitieren könnte. Aber leider wird ja wohl das 384er Speicherinterface und auch die 3GB VRAM kommen.
 
Bei einem SingleSlot-Design könnte man dann aber den PCIe1x-Slot direkt unterhalb der Graka für z.B. eine Soundkarte nutzen. Das hat also schon Vorteile. Ich hatte auch Probleme mit meinen GTX580ern, wenn über der Graka meine X-Fi steckte, weil die Wärme nicht entweichen konnte. So hatte sich das PCB der Graka aufgeheizt und die Karte lieferte trotz Wakü und Stock-Takt Bildfehler in z.B. Mafia2. Jetzt mit der Singleslot-Karte und der X-Fi darunter habe ich keine Probleme mehr.

Ich wünsche mir also auch ein mit der GTX580 vergleichbares Layout für den BigKepler und auch ein 512bit Speicherinterface mit 4GB VRAM. Die 3GB VRAM sind mir eigentlich zu wenig, um im SLi das Potential ausnutzen zu können und 6GB braucht es dann wohl doch nicht. Weiter könnte ich mir auch gut vorstellen das der GK110 von der Bandbreite gut profitieren könnte. Aber leider wird ja wohl das 384er Speicherinterface und auch die 3GB VRAM kommen.


denke auch das 384bit und 3gb ram kommen, 512 bit ist einfach unnötig da der gddr5 ram flott genug ist mit 384bit si, würde nur unnötig teuer werden..
Für mich reichen 3g ram, BF3 in ultra und full hd zieht bei mir 1460mb gpu ram...
Denke aber 6gb ram versionen werden auch folgen, nimmste dir einfach dann so eine ;)
 
ja, bei mir staut sich auch die Hitze zwischen Sound und Graka...
Die Soundkarte tackert dann vor sich hin das ich sie lieber ausbaue, vor Allem kommen nach ner Zeit Bildfehler in BF3 -> auch ohne OC wenn die Soundkarte drin ist. Ohne Sound-Karte alles schick.

A-Karte^^

Deine gewünschte Karte wird es auch nur vielleicht als Refresh vor Maxwell geben :)
 
4GB 512 Bit würde ich auch nicht nein sagen wo bei man mit 3GB schon sehr gut bedient wäre auf längere Sicht.
 
Was macht ihr denn mit euren Karten?

Ich hab ne Soundkarte (PCI) direkt zwischen den 680ern. Das geht absolut schmerzfrei. Und damals mit den beiden 470ern war das gar noch deutlich schlimmer bei ~100-105°C GPU Temp inkl. der Abwärme der beiden Karten welche das PCB noch frei setzt. Ich habe weder Sound noch Bildausetzer.

Ich sehe an der Stelle eigentlich kein Problem...
 
meine xfi hat schön paltz zur graka und überhitzt nicht. sie steckt in dem X16 platz der mit X4 angebunden ist :)

die untere GTX 260 ist jetzt im 2. pc, also nichtemhr da drinnen
 

Anhänge

  • ImageUploadedbyiPhoneApp.jpg
    ImageUploadedbyiPhoneApp.jpg
    202,9 KB · Aufrufe: 67
Was macht ihr denn mit euren Karten?

Ich hab ne Soundkarte (PCI) direkt zwischen den 680ern. Das geht absolut schmerzfrei. Und damals mit den beiden 470ern war das gar noch deutlich schlimmer bei ~100-105°C GPU Temp inkl. der Abwärme der beiden Karten welche das PCB noch frei setzt. Ich habe weder Sound noch Bildausetzer.

Ich sehe an der Stelle eigentlich kein Problem...



Ich wollts nicht sagen, ich hatte da auch nie Probleme:



Und das war schon richtig richtig eng ;)
 
Bei mir ist die Soundkarte dazwischen :fresse:
Ganz oben steckt ein 1x Raidcontroller, ganz unten im 16x elektr. 4x Slot steckt die 470er... Ergo komplett voll die Hütte. -> und keine Probleme
 
uhhh UHJJ36 wie kannste uns das nur antun, jetzt schlaf ich ne woche nicht beim anblick von amd karten :eek::fresse2:
 
fdsonne schau dir mal das Bild in meinem Profil an (Sysprofil: System offen). Genau in der Konfiguration hatte ich die Problem mit Bildfehlern (wie Grinsemann auch). Ich hatte dann zeitweise die Blechverkleidung von der X-Fi demontiert und einen Lüfter zwischen X-Fi und 580er blasen lassen, um der Probleme Herr werden zu können.

Auf dem x79-Brett kann ich die X-Fi anders platzieren und es läuft problemlos. Aber bei TriSLi hätte ich schon wieder Probleme eine 16x,8x,16x-Konfiguration zu machen, wenn ich die Karten nicht auf Singelslot umbauen könnte. Egal jetzt rennt eh nur einfaches SLi, reicht. Aber die Monitor-Anschlüsse auf zwei Slots verteilt raubt einem einfach die Flexibilität. :(
 
Zuletzt bearbeitet:
Hey, was sollte ich machen GA... AMD hatte die flotte HD5870 raus gebracht damals und von Nvidia gabs nur die ollen lahme GTX285...
Und ewig auf den Fermi wollte ich nicht warten, ich brauchte sofort Gaming Performance ;)
Die zwei HD5870 gingen auf 1050MHz schon nicht schlecht, leider waren die Crossfiretreiber damals nicht das gelbe vom Ei (wer jetzt hier das gegenteil behauptet labert diesmal aber 100%tigen Fanboymüll) -> GTX580 wurde vorgestellt und weg waren die zwei Cypress XT ;)
 
Zuletzt bearbeitet:
ne lösung wäre ein board mit xfi onboard sound, gibtsja auch schon..

oder ein recht starker lüfter der da dazwischen durchpustet
 
Ich sehe da auch keine Probleme... naja, zugegeben; das ist eine Frage des Mobo-Layouts ;)
 
Was macht ihr denn mit euren Karten?

Ich hab ne Soundkarte (PCI) direkt zwischen den 680ern. Das geht absolut schmerzfrei. Und damals mit den beiden 470ern war das gar noch deutlich schlimmer bei ~100-105°C GPU Temp inkl. der Abwärme der beiden Karten welche das PCB noch frei setzt. Ich habe weder Sound noch Bildausetzer.

Ich sehe an der Stelle eigentlich kein Problem...

ja, habe die auch dazwischen gehabt. Ein Lüffie in der Position wäre sinnvoll, ja. Müsste mir aber auch erstmal ne Halterung bauen und neu testen.
Habe die Karten auch nicht unter Wasser was ich zu Anfang eigendlich vor hatte. Mit meinem vorherigen CF hatte ich nicht die Probleme. Da waren die Karten aber unter Wasser...hmm

vorher


jetzt zwar unschön und immernoch Provisorisches Stadium^^


weniger Platz für die Zusatzkarte

Boardlayout hin oder her ... viele Möglichkeiten gibts ja nicht wirklich und mit nem Tripple ohnehin fürn Anus
 
Zuletzt bearbeitet:
nun, wenn ein Tripple anständig skalieren würde, dann hätte ich auch 3 Karten. Aber immo kann man besser die Karten OCen und hat da mehr Performancegewinn. Da gebe ich dir also vollkommen recht.
 
Klein bissl fehlt da noch, aber ich würde fast sagen, partielles CPU-Limit.

Ein Zitat aus dem 3DC, mit einer Ladung Salz genießen:

Bis jetzt zumindest waren die bisherigen Projektionen auf den Punkt richtig fuer die Kepler Mitglieder. GK104 wurde einige Zeit vor dem launch auf ~580+30% eingeschaetzt als Ziel und GK106 nur einen Schnitt schneller als GTX570. Der erste GK110 salvage part ist um >40% schneller als eine uebertaktete Tahiti nach genau der gleichen Quelle.

Sabber...
 
über 40% schneller wie welcher übertaktete Tahiti:d

Wenns die GHZ Edition oder 7970 ist:hail:
 
Zuletzt bearbeitet:
@boxleitnerb: Hört sich doch gut an. Salz haste ja schon, ich hol noch Zitrone und Tequila... ;-)

cu


Sent from my iPhone 4s
 
Ich glaube kaum, das man da so auf die Kacke haut, bestimmt gibt es wieder wegen der immensen Chipgröße riesen Probleme mit den Yields und man deaktiviert wieder ein paar Einheiten und geht mit dem Takt runter auf ~900mhz.
Ich denke mal GK110 wird im Spielebetrieb ca 40 bis 50% schneller wie die GTX 680 und ca ~ 40% schneller als die HD 7970 Ghz.

Wenn AMd früher am Markt ist und 25% oben drauf packt, dann kann sich GK110 ja gar nicht mehr weit absetzen und es sieht wieder so aus wie HD 7970 vs GTX 680.
 
Zuletzt bearbeitet:
Wenn das wirklich stimmen sollte, dann hätte sich das warten auf GK110 voll gelohnt xD
 
Das könnte endlich mal wieder praktisch eine Verdopplung der Performance sein. Also ggü. der 580. Naja nicht ganz, ich gehe von 85% auf, mindestens. 135% (GTX680 vor GTX580) * 140% = 189%
 
Selbst bei 80% wäre ein Wechseln es schon wert und mal wieder wirklich spürbar, nicht so wie die "läppischen" 30% der GTX 680. Wer weis, vllt werden es bei mir ja direkt zwei -mein AX850 will auch mal ausgelastet werden xD
 
Ich bin zwar noch reichlich skeptisch

aber wenn das stimmt liegt der Big Boy ohne Beschneidung ja bei ca 50-60%

GTX690 ausbauen geh:rofl:
 
Zuletzt bearbeitet:
Ich hoffe das AMD mal so richtig auf die Kacke haut und nen ~450mm² Chip ausm Ofen hervorholt und Nvidia mal stramm unter Druck setzt, damit´s endlich mal wieder nen schönen geschmeidigen Preiskampf gibt.
Dazu noch Downsampling im Treiber und mehr Bildquali für alle^^
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh