nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Schön wäre es, da ich ursprünglich geplant hatte, 2 x EVGA Classified Hydro Copper (inkl. je 6GB) zu holen - aber vom ersten Titan wird das nicht möglich sein. :)
Aber vermutlich wird das dauern, also müssen wohl doch erstmal zwei Karten im Referenzdesign her, nun ja - mit 3GB VRAM wäre ich auch erst einmal sehr gut bedient, auch im Hinblick auf Skyrim mit HD-Texturen + SGSSAA (Custom Bits) oder Max Payne 3 mit Downsampling + AA. :d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

naja mal sehen welche Kühlung das Teil bekommt, Krawallbruder mag ich nicht
 
Also die Kühlung sollte natürlich schon wertiger sein wie bei den Referenz SGPU-Lösungen aktuell, auch dank Vapor Chamber der bei den TDPs einfach Sinn macht.
An einen Axiallüfter glaube ich aber eher nicht, sollte ja auch noch 3-way oder 4-way tauglich sein. :)

Vor allem wenn man wirklich 899$ oder gar mehr ansetzen will. ;)
 
scully, hast du schon gesehen, bei CB stehen möglicherweise halbwegs finale Spezifikationen für die neue Xbox bereit.
Das Teil soll 8GB Speicher bekommen.

Ich mach mir immer noch keine Sorgen denn ich hab 32GB DDR3 Ram im Quad Channel Interface falls du den Ram der CPU Unit meinst mit seinem 68GB/s Datendurchsatz

Das wichtigste hast du vielleicht überlesen

Darüber hinaus gibt es einen 32 Megabyte großen „eSRAM“-Speicher mit einem deutlich höheren Datendurchsatz, der bei 102 GB/s liegen soll. Dieser wird der GPU unterstützend zur Seite gestellt, ähnlich wie der eDRAM bei der Xbox 360, dessen Bandbreite mit 256 GB/s aber deutlich höher ist. Dies wird jedoch durch bessere Komprimierung heutiger GPUs etwas egalisiert – ob die deutliche Absenkung jedoch zutrifft bleibt abzuwarten

Schaut mir immer noch nicht so aus als das wir bald mörder Texturmods erleben werden,MS scheint da doch lieber an besseren Komprimierungsalgorithmus zu basteln,anstatt das ganze noch weiter aufzublähen
 
Zuletzt bearbeitet:
Wenn NVidia das ernst nimmt mit dem "only"-Ref-Design, dann wird es wohl leider keine "EVGA GeForce Titan Classified HydroCopper" geben. Eher nur eine "EVGA GeForce Titan HydroCopper" - was mir völlig reichen würde :d
 
Ich mach mir immer noch keine Sorgen denn ich hab 32GB DDR3 Ram im Quad Channel Interface falls du den Ram der CPU Unit meinst mit seinem 68GB/s Datendurchsatz

Das wichtigste hast du vielleicht überlesen



Schaut mir immer noch nicht so aus als das wir bald mörder Texturmods erleben werden,MS scheint da doch lieber an besseren Komprimierungsalgorithmus zu basteln,anstatt das ganze noch weiter aufzublähen

Du nutzt ja aber auch den RAM des Systems nicht für als Speicher für deine Grafikkarte(n) ;)
Denn genau das wird bei OnBoard Designs getätigt. Ebenso bei den APUs oder auch Intels IGP in der CPU. ;)
Bei der neuen Xbox wird es wohl so laufen, analog wie die 360er.

Die XBox 360 hat 512MB "shared" RAM als Speicher für die CPU sowie die GPU. Stimmen die Spezifikationen der neuen XBox, so wird das eine Ver-16-fachung. ;) Es wäre also auch spielend möglich davon 2-4GB dediziert (vllt auch dynamisch zugeteilt) der GPU zuzuweisen. Deswegen schrieb ich ja, unter Berücksichtigung des RAM Verbrauchs heutiger Games. Viel mehr wie 4GB wirst du da idR nicht sehen. Vor allem ist idR ja alles noch 32Bit Software, somit auf max. 4GB beschränkt.


Dieser eSRAM ist wohl eher als schneller Cache zu betrachten. Aber nicht für Texturen und Co. Die 360er Xbox hat 10MB eDRAM. Die neue dann wenn es stimmt 32MB eSRAM. Das "e" steht dabei für embedded. Der ganze Spaß ist eher vergleichbar mit nem L3 Cache heutiger CPUs. ;) Nur das er wohl zusätzlich auch von der GPU nutzbar ist. Was beim L3 Cache einer CPU so nicht primär der Fall ist.
Das passt auch vollkommen zusammen, da die AMD APUs ja keinen L3 Cache native haben. ;)
 
Zuletzt bearbeitet:
Bitte lass die 2880 Shader war sein im Feb.
 
Bitte lass die 2880 Shader war sein im Feb.

Zumindest spekulationen über sehr hohe Produktionskosten stimmen mich dazu nicht gerade zuversichtlich. Volle 15 SMX heist auch keine Reserve und auch, die Produktion muss sehr gut laufen.
Wobei man die Teildefekten GPUs auch immernoch im Profibereich bzw. bei nem kleineren Ableger abschieben könnte :fresse:
 
Keine Highend Karte hält ewig. Nach nem Jahr gibts was schnelleres, nach 2 Jahren sowieso. 800€ wären Wucher, da würde ich direkt mit BGB Paragraph 138 gasgeben: Sittenwidriges Rechtsgeschäft; Wucher!
Ein Rechtsgeschäft, dass gegen die guten Sitten verstößt. Genau das ist hier gegeben :d

Eine absolute Schweinerei wäre das. Aber die wird garantiert langsamer als ne 690 sein und somit auch nur 500€ ca. kosten, da bin ich mir doch recht sicher. Und wenns net die Titan ist (wie auch immer), dann halt ne minimal langsamere, aber immernoch 10-30% schnellere Karte, als die 680. Mehr muss ja auch net sein :)

Aber en 800er Latzen ist für Tiere, Enthusiasten und Geldgötter!
 
Dann erklär mir bitte was für dich ein auffälliges Missverhältnis in Hinblick auf den Vermögensvorteil ist? Außerdem kaufen die Leute die Karten so oder so...
 
Die Frage ist erst mal wie viele kaufen sie. Ja sie wird gekauft, aber bestimmt seltener, als wie bisher für 500€. Nvidia wird trotzdem gut verdienen, is klar. Trotzdem ne Schweinerei.
Vermögensvorteile, die in einem auffälligen Missverhältnis zu der Leistung stehen. Und genau da kommen die 800€ ins Spiel. Highend Leistung, wie jedes Jahr seit Jahrzehnten quasi, aber diesmal nicht für 450-550€, sondern für 800. Absolut inakzeptabel.
Das Hauptproblem wäre aber tatsächlich diese 690, die in diesem Preissegment angesiedelt ist und mit Pech ähnlich schnell wie die 780 ist. Da würde ich mal sagen sofort die 690 absägen, oder aber die Leistung der 780 schön unter der 690 platzieren, um den Preis auf 500 stauchen zu können.
 
Fdsonne stimm mich positiv bitte .
Na ja bringt ja dann auch nix außer Enttäuschung wen weniger kommt.
 
Meinerseits will NV eine NICHT zu überbietende Singel GPU Karte raushauen, um die Performance Krone sich zu sichern!
Dies wird mit der Titan Karte auch passieren, lassen sich aber auch den Preis vergolden!
Denn mit dem Kleinen Ableger wird mal wohl auf 30 bis 40% vor einer GTX 680 liegen,- und dabei bräuchte AMD in etwca. 20-25% über HD7970 Ghz Performance um gleichzuziehen.
Jene 15+ Mehrperformance lässt sich NV somit auch dementsprechend bezahlen.

AMD wird seine HD8970 wahrscheinlich unter die 449 Euro anbieten können,- mit einem dennoch recht akzeptablen Leistungsplus gegenüber der HD7970/ bzw. etwas geringerem gegenüber HD7970 Ghz Edition.
 
Zuletzt bearbeitet:
Und mehr bekommen hat. Bis auf den Kühler, aber man darf auch in Zeit von Ultrabooks eine höhere Verarbeitungsqualität erwarten, besonders bei dem Preis.
 
Vermutlich kommt es so - Titan wird ein Prestigeobjekt, wie damals etwa die 8800 Ultra, nur dass man früher weniger zahlen musste. :)

Na ob sie den Kultstatus erreicht muss sich erst noch zeigen

Aber du hast ja schonmal bestes Material released was darauf hindeutet:)

Ich glaub noch nichtmal das man früher weniger bezahlt hat,die Inflation hat damals einfach weniger auf den Geldbeutel gedrückt
 
Zuletzt bearbeitet:
Eine absolute Schweinerei wäre das. Aber die wird garantiert langsamer als ne 690 sein und somit auch nur 500€ ca. kosten, da bin ich mir doch recht sicher. Und wenns net die Titan ist (wie auch immer), dann halt ne minimal langsamere, aber immernoch 10-30% schnellere Karte, als die 680. Mehr muss ja auch net sein :)

Wie kommst du darauf?
Ne 690er kostet heute schon noch seine 860€ mindestens. Die Lücke zwischen 500€ und 860€ ist extrem. Wieso sollte eine Karte, die ganz paar Vorteile als Single GPU ziehen kann, auf einmal so massiv im Preis drunter liegen? Laut deiner Theorie sind das immerhin 360€ und somit 42%.

Absolutes HighEnd ist immer vergleichsweise teuer. Das war so, das ist so und das wird immer so bleiben ;)
Nur mal zum Vergleich. GTX 680 2GB, Releasepreis ~500€. GTX 590 2x1,5GB, Preis bei 680er Release ca. 650€... -> ging auch ;)
Und die 590er war streckenweise genau so schneller. Teils um 15%+, wenn ihr der VRAM nicht ausging.
 
Ich bin mal gespannt was das gibt. Ich vermute ich werde eh auf eine zweite 670 ftw satteln. da müssen die Neuen schon einiges mehr an Leistung bringen und auch vom Preis her stimmen. 30% mehr werden mich wohl kaum dazu bewegen umzurüsten, zumal ich dann auch noch neue Kühler kaufen darf
 
Ich finde es erschreckend wie kritiklos ein solcher Preis hingenommen werden würde u. als Rechtfertigung zieht man dafür die ebenfalls deutlich überteuerte GTX690 (gleiches gilt auch f. die inoffizielle HD7990) heran. Aus der Annahme heraus, dass die GK110 Karte tatsächlich die spekulierten ca. 85% Performance einer GTX690 bringt mag das ja noch eine gewisse Logik haben, aber eben m. dem Fehler, dass diese GTX690 schon unangemessen teuer gestartet ist. Dies wird besonders deutlich wenn man sich mal die Einführungspreise älterer MGPU Karten ansieht: HD5970 - ca. 560€ / HD6990 - ca. 630€ / GTX590 - ca. 640€.

Da braucht mir auch keiner m. den angeblich so viel höheren Kosten der 28nm Produktion zu kommen od. m. der allseits beliebten "HighEnd ist immer unverhältnismäßig teuer" Floskel. Beide Hersteller haben m. Einführung v. 28nm einfach die Chance genutzt die Preise f. ihr gesamtes Portfolio kräftig anzuziehen u. haben gesehen das es klappt. Jetzt legt man halt noch mal ne Schippe oben rauf, aber solange es genug Schafe gibt die das anscheinend auch noch begrüßen (das wirkt wahrscheinlich so schön HighEnd wenn irgendwas abartig überteuert ist), wird sich daran nichts ändern. Schöne Entwicklung echt nicht schlecht.
 
msp der ultra war 830$ /UVP 700€ und das war 2007.... wo sich sich dann echt einpendelt werden wir sehen falls sie kommt....
 
Ich finde es erschreckend wie kritiklos ein solcher Preis hingenommen werden würde u. als Rechtfertigung zieht man dafür die ebenfalls deutlich überteuerte GTX690 (gleiches gilt auch f. die inoffizielle HD7990) heran. Aus der Annahme heraus, dass die GK110 Karte tatsächlich die spekulierten ca. 85% Performance einer GTX690 bringt mag das ja noch eine gewisse Logik haben, aber eben m. dem Fehler, dass diese GTX690 schon unangemessen teuer gestartet ist. Dies wird besonders deutlich wenn man sich mal die Einführungspreise älterer MGPU Karten ansieht: HD5970 - ca. 560€ / HD6990 - ca. 630€ / GTX590 - ca. 640€.

Da braucht mir auch keiner m. den angeblich so viel höheren Kosten der 28nm Produktion zu kommen od. m. der allseits beliebten "HighEnd ist immer unverhältnismäßig teuer" Floskel. Beide Hersteller haben m. Einführung v. 28nm einfach die Chance genutzt die Preise f. ihr gesamtes Portfolio kräftig anzuziehen u. haben gesehen das es klappt. Jetzt legt man halt noch mal ne Schippe oben rauf, aber solange es genug Schafe gibt die das anscheinend auch noch begrüßen (das wirkt wahrscheinlich so schön HighEnd wenn irgendwas abartig überteuert ist), wird sich daran nichts ändern. Schöne Entwicklung echt nicht schlecht.

Dir ist schon klar, dass die 690 und die 7990 gemessen an ihrer Leistung ziemlich günstig sind, oder? Sonst zahlst du in der Regel überproportional viel für das letzte Quentchen Performance, siehe 680 vs 670 oder 7970 GHz vs 7950 Ghz - bei den beiden MultiGPU-Karten ist das nicht der Fall! Die vorangegangenen MultiGPU-Karten waren gemessen an ihrer Leistung viel zu billig, da ist nämlich dein Denkfehler.
 
Na so hält man die Nachfrage auf einem Niveau das man bedienen kann. Die 899 $ sind ja nun auch nicht final. Momentan gibt's wohl eh viel Wirbel hinter den Kulissen.
Meiner Meinung nach reibt sich nVidia die Hände weil man mit jeder verkauften GK104 mehr einfährt als erwartet und das wiederum freut Anleger sowie Analysten :d

Edit: @ boxleitnerb: Die aktuelle Gen war aber seitens nVidia von Anfang an überteuert. ;)

Und hier mal eine Untermauerung meiner obigen Aussage: Nvidia nach starkem dritten Quartal mit verhaltenem Ausblick | ZDNet.de
 
Zuletzt bearbeitet:
aha...ULTRA
die 6800Ultra /Ultra extreme hatte damals auch was zwiscehn 800,-DM und 1000,-DM gekostet zum Release meine ich.
Jetzt fangen die also damit wieder an. Bin gespannt ob das Namens-System komplett wieder aufgerufen wird.

Die normale Titan dann zum normalen Preis, vielleicht dann wieder mit freischaltbaren shadern die dann zur Ultra werden kann :fresse:
Jau...das gibt freie Bahn für Spekus ohne Ende. Welche Karte wird als Maßstab genommen ? Titan oder Titan ultra ?
Wird ein Titan SLI genau so flott wie ein 690er Quad und ein Titan Ultra dann in den Raum gestellte 15% schneller ?
Wird ein Titan Ultra SLI so flott wie ein 690er Quad und die normale Titan wird ne herbe Enttäuschung so das es sich nicht ansatzweise lohnen würde umzusteigen ....
 
billig? Nicht wirklich. MultiGPU mit all den Problem kann man nicht mit einer Singel-GPU vergleichen. Auch wenn die Probleme geringe geworden sind so sind sie nicht weg.

Übrigens 400€ für Multi-GPU.
Test: Nvidia GeForce GTX 295 (Seite 26) - ComputerBase

Was kommt als nächstes Inflation und Rohstoffpreise um sich die magere Performancesteigerung schön zu reden? Naja wers braucht.

Nvidia behauptet 85% einer GTX690. Sind mit Ach und Krach auch nur 30% über einer 7970GHz. Neue ungekannte grafische Sphären!?! Fehlanzeige. 1 Jahr zu spät? Jap.
 
Zuletzt bearbeitet:
Vielleicht werden es doch schön runde $999 :d

Na dann ohne mich, bzw. kommt ne zweite GTX 680 rein. Solch ein Preis wäre nur gerechtfertig, falls 1)AMD nichts vergleichbares bringt und 2)diese Karte so schnell wie eine GTX 690 wird. Da aber sowohl 1) als auch 2) auszuschließen sind, bleibt solch ein Preis, auch als High-End absolut nicht gerechtfertig. Oder @box, zwischen welchen Karten würdest du dich entscheiden? Ne HD 8970, welche nur 15% langsamer als Titan ist, aber "nur" 550€ kostet oder eben ne 900€ teuere Karte? Ich denke, ich würde da lieber 1100€ zahlen und hab somit deutlich mehr Performance als Titan, MR mal außen vor :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh