nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ich glaub langsam, unser aeugle weiß gar nichts und wollte uns veraeugeln. Nix für ungut, aber das ist mein Eindruck.
.

Heist doch nicht umsonst "Spekulationsthread".
Ist aber echt interessant was sich hier tummelt. Von Profis bis zum Kindergarten.

---------- Post added at 12:55 ---------- Previous post was at 12:54 ----------

Empfehle Dir ne gebrauchte GTX690 aus dem Amzon Marketplace.
sind gerade günstige drin.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
War klar das sich NV die Karte ordentlich etwas kosten lässt. Ich glaube auch nicht einmal daran das sich der Preis großartig ändern wird.

@aeugle: Deine 690 bekommt von dir sicherlich nicht nur Streicheleinheiten oder?
 
War klar das sich NV die Karte ordentlich etwas kosten lässt. Ich glaube auch nicht einmal daran das sich der Preis großartig ändern wird.

@aeugle: Deine 690 bekommt von dir sicherlich nicht nur Streicheleinheiten oder?

Nein gar ned. die hatte ich am Anfang gehasst wie die Sau. Weil die soviel lauter als meine Asus GTX680 DC2 war.
Hätte die fast wieder verkauft.
 
975 niemals. Da muss die die 690 deutlich vernichten.....niemals:(

Locker durch die Hose atmen u abwarten was seriöse Händler abrufen werden wenn die Karten auch vorrätig sind;)

Auch hier gilt wieder selbes Szenario wie zu jedem Release

Ist doch nichts neues das einige unbekannte Shops frühzeitig mit überzogenen Preisen das Produkt ausschreiben
 
Zuletzt bearbeitet:
Davor ist ein Wochenende, und für nächste Woche wäre schon arg früh. Aber Nvidia hat auch mal an einem Samstag gelauncht, glaub die GTX480. Ich hoffe nur, dass wirklich genug Karten verfügbar sein werden und vor allem, dass der Preis noch etwas runtergeht. 800 Euro vielleicht...ich glaub ich nehm wirklich nur zwei, alles andere ist mir zu teuer.
 
Locker durch die Hose atmen u abwarten was seriöse Händler abrufen werden wenn die Karten auch vorrätig sind;)
Ich atme so locker durch die Hose wie nur möglich. Aber alles über 800€ ist das allerletzte. Dann muss das Teil die 690 vernichten.
Aber warten wir die Preise mal ab...
 
wieso werde ich dieses verdammte Gefühl nicht los, das Geforce Titan die gleichen Spezifikationen bekommen wird, wie K20X, aber nen Turbo oben drauf erhält!?

Nur mal so spaßhalber nachgefragt: Wie bzw. womit willst Du ein Tripple-SLI oder gar Quad-SLI befeuern?

Mit genügend fordernden Settings.
Downsampling von 3840x2160 auf FullHD + SGSSAA sieht in einigen Games schon reichtlich extrem aus. Ggf auch mehr (2x2 auf 1440/1600p)
Und läuft mit nem 680er SLI bzw. 580er SLI aus je zwei GPUs teils äußerst Mau bis gar nicht...
Da reicht imho dann auch ne human übertaktete CPU auf Sandy/Ivy Basis, vor allem, wenn man nicht 120FPS durchgehend will, sondern sich mit um die 60FPS zufrieden gibt, dürfte das durchaus drin sein.
Kommt halt drauf an, wie viel das Teil zulegen wird. Sind die Settings hoch genug, dürfte zumindest die Mehrleistung auch spielend auf die Straße kommen... Da BQ gesteigerte Optionen ala SGSSAA keine mehr CPU Power benötigen.
 
Zuletzt bearbeitet:
- Also folger ich daraus: Bei eher niedrigen Auflösungen (= FullHD) brauch ich für konstante 120 FPS ne sehr schnelle CPU (eigentlich derzeit nicht zu bekommen), Titan macht hier in größeren Mengen (~ 3 St. und mehr) keinen Sinn.
- Zudem: Bei höheren Auflösungen und BQ (Tripple-Monitoring) macht eher die GPU den Ausschlag und nicht die CPU.

Kann man das so allgemeinverbindlich festhalten?
 
Spiel mal 1vs1 gegen jemanden, der einen 120hz Monitor besitzt, du wirst verlieren. ;)
Btw mir reichen auch 60hz/60fps.

Der jenige hat aber mindestens das selbe Problem... Zumahl meine Erfahrungen bis dato mich gelehrt haben, dass die meisten Pro Multiplayergamer idR nicht die leistungsstärkste Hardware haben...
Heist also, er wird mindestens genau so dran knabbern, 120FPS zu halten. Heist also, wenn beide mit 120Hz Monitoren spielen, bestehen zumindest gleichwertige Vorraussetzungen.
Außer das man mit HighEnd Hardware eben mehr BQ erhält, wenn man diese auch abruft.

Für mich gilt das im übrigen auch, spiele idR sehr selten, MP sogut wie gar nicht.
Viel eher sowas wie Strategiegames oder Rollenspiele ala Gothic, The Elder Scrolls, Anno usw. Und dafür muss die BQ dann auch ansprechend sein. ;) Sozusagen nahe dem theoretisch maximal möglichen, wenn nicht gar genau dem maximalen.
 
Cloudstrife in BF3 must du auf schnellere Cpus warten .
Bis dahin gibt vieleicht schon BF4:fresse:
Zu dem Preis da hat scully auch recht.
Kurz vor release der HD7970 haben no name shops versucht die Karte für 700 Euro an den Mann zu bringen .
Der Startpreis selbst belief sich aber bei 500 und nach 4 Tagen gab es vereinzelt shops die die Karte für 439 angeboten haben.

Ich bin gespannt auf die Leistung und den ofiziellen Preis bei launch.
 
Jo, denke auch, dass die Preise fallen werden, sofern es keinen (künstlichen) Engpass seitens des Herstellers gibt.
Habe sowieso noch etwas Zeit, da ich ja auch noch einen Wasserkühler benötige.

Hier darf man gar nicht mehr mitlesen ... mit jedem Posting wünscht man sich den NDA-Fall mehr und mehr herbei.
 
Ja fühle mit.
Geld ist da aber die Leistung muss je nach Preis schon passen.
Dürfte sogar 1100 kosten wenn es ein GTX690 Killer wäre das wäre mir am liebsten da ist dann auch kein wenn und aber mehr von mir zu hören.
Leider wird sich das aber nicht erfüllen.
 
Zuletzt bearbeitet:
Der jenige hat aber mindestens das selbe Problem... Zumahl meine Erfahrungen bis dato mich gelehrt haben, dass die meisten Pro Multiplayergamer idR nicht die leistungsstärkste Hardware haben...
Heist also, er wird mindestens genau so dran knabbern, 120FPS zu halten. Heist also, wenn beide mit 120Hz Monitoren spielen, bestehen zumindest gleichwertige Vorraussetzungen.
Außer das man mit HighEnd Hardware eben mehr BQ erhält, wenn man diese auch abruft.

Für mich gilt das im übrigen auch, spiele idR sehr selten, MP sogut wie gar nicht.
Viel eher sowas wie Strategiegames oder Rollenspiele ala Gothic, The Elder Scrolls, Anno usw. Und dafür muss die BQ dann auch ansprechend sein. ;) Sozusagen nahe dem theoretisch maximal möglichen, wenn nicht gar genau dem maximalen.

Richtige Pro-Gamer spielen auch nicht mit Ultra Settings, sondern regeln die Grafik aufs minimum. :-)
 
Ja fühle mit.
Geld ist da aber die Leistung muss je nach Preis schon passen.
Dürfte sogar 1100 kosten wenn es ein GTX690 Killer wäre das wäre mir am liebsten da ist dann auch kein wenn und aber mehr von mir zu hören.
Leider wird sich das aber nicht erfüllen.

Den 690er Killer hast du genau dann, wenn du Settings eindrehst, die deutlich mehr wie 2GB VRAM verbraten und mit nur 2GB VRAM überhaupt nichtmal im Ansatz laufen. Da wäre eine Karte sogar der 690er QuadSLI Killer ;)
Gilt natürlich auch analog zum Tahiti Killer, wenn die Settings mit 3GB nicht laufen.
Vor allem, wenn sich die 6GB wirklich bewahrheiten bleibt für so Spielereien deutlich Luft. -> was mich durchaus freudig stimmt.
 
Es heißt ja auch das die 1 in der Mitte GPGPU-exklusive features involviert, also ist GK114 mit genau gleicher Oberfläche und gleicher Anzahl von ROPs wie GK104 schon abwegig genug um Skepsis aufkommen zu lassen.
Wie gesagt: gebt erst mal nix auf die so genannten Infos ;) Übrigens meinte aeugle das glaub ich ironisch...
 
Richtige Pro-Gamer spielen auch nicht mit Ultra Settings, sondern regeln die Grafik aufs minimum. :-)


Fast, die regeln die Grafik so lange runter bis es keine FPS drops mehr gibt. Was nicht immer heißen muss low settings :)

BTW bis 1K € würde ich auch ~ca zahlen nur dann muss die Leistung auch passen Titan > GTX 690. Ich würde allerdings keine 1K zahlen wenn die GTX 690 ~20% schneller oder mehr ist.
 
Fast, die regeln die Grafik so lange runter bis es keine FPS drops mehr gibt. Was nicht immer heißen muss low settings :)

Das sowieso, spielt man jedoch Spiele wie Armed Assault 2 (!NEIN! kein DayZ) sondern Arma 2 eSports Bundesliga, regelt man die Grafik auf low, weil dann z.B. kein Gras mehr vorhanden ist (grobes Beispiel). ;)
 
Zuletzt bearbeitet:
Es heißt ja auch das die 1 in der Mitte GPGPU-exklusive features involviert, also ist GK114 mit genau gleicher Oberfläche und gleicher Anzahl von ROPs wie GK104 schon abwegig genug um Skepsis aufkommen zu lassen.
Wie gesagt: gebt erst mal nix auf die so genannten Infos ;) Übrigens meinte aeugle das glaub ich ironisch...

Woher stammt diese Aussage? Gibts dazu ne offizielle Bestätigung?

Denn beim GF1xx aka Fermi war die 1 in der Mitte schlicht die simple Weiterzählung in Form eines Refreshs. Zeigte also die zweite Version. GF100 zu GF110. (beide mit GPGPU Features). GF104 zu GF114 (beide ohne dedizierte GPGPU Features)

Noch dazu ist es auch in meinen Augen unwarscheinlich, das GK110 als Gamerkarte überhaupt auf volle DP Performance zugreifen können wird. Warscheinlicher liegt da wieder ein Runterstufen auf 1/8 der DP Performance von den Tesla Produkten. Was diese sonst irgendwie ziemlich unnötig machen würde. Speziell wenn man 6GB mit ECC VRAM bekommt ;) Wonach es aktuell schon irgendwie ausschaut.
 
Ja fühle mit.
Geld ist da aber die Leistung muss je nach Preis schon passen.
Dürfte sogar 1100 kosten wenn es ein GTX690 Killer wäre das wäre mir am liebsten da ist dann auch kein wenn und aber mehr von mir zu hören.
Leider wird sich das aber nicht erfüllen.

Oh man ich dreh am Rad 1100€ .Andersherum wenn ich die ca. 120% Aufpreis von einer ELSA irgendwas die 1996 auch fast 1000.-DM gekostet hat geht das ja noch.Preissteigerung ca. 7% pro Jahr.
Da kann ich nur gespannt abwarten was da nun erscheint.

Gruß herm
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh