nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
man muss echt humorbefreit sein mit der aussage zu prollen um dann am schluß auf ner gtx260 zu enden... die vollkommen beschnitten war. :)

gk110 sieht gut aus. 8+6pin ist das maximum laut specs für grakas, da werden hersteller wie evga schon abhilfe leisten.
6gb sind auch ok, werden aber wieder programmierer verleiten speicher zu verschwenden. muss man amd jetzt genauso ankreiden wie man es vielleicht vorher bei amd tat.

schön wenn man aussagen trifft ohne hintergrundwissen...

die gtx 260 war eine reine üvergangskarte und wurde ganz am ende des produktzyklus spottbillig gekauft..
aber hauptsache mal versucht irgendwo nen angriffspunkt zu finden..
 
ach komm, das is doch jetzt wirklich einfach nen ziemlich kleingeistiger versuch meinen Standpunkt warum auch immer zu unterhöhlen.
Das ist genau dasselbe warum ich mir nurn Mustang mit V8 Motor statt der V6 Version kaufen würde, auch wenn der V6 auch genug power hat ;)
 
ach komm, das is doch jetzt wirklich einfach nen ziemlich kleingeistiger versuch meinen Standpunkt warum auch immer zu unterhöhlen.
Das ist genau dasselbe warum ich mir nurn Mustang mit V8 Motor statt der V6 Version kaufen würde, auch wenn der V6 auch genug power hat ;)

Wenn du meinst will ich dir dein Kopfkino nicht nehmen,nicht das du irgendwann noch heraus finden musst,das du schon mehr redundantes Material erworben hast in vergangenen Zeiten;)
 
Zuletzt bearbeitet:
es ist einfach ein völlig unnötig aufgemachtes fass über ein aus der luft gegriffenes thema das in diesem fall def nicht zutreffend ist und mir in anderen fällen furz egal ist, nur eben bei der graka nicht. (mein apple TV hat z.b. einen Dualcore Appla A5 der aber nur mit einem Kern läuft)
 
Ein probates Mittel sowohl bei Nvidia als auch bei AMD selbst bei angeblichem "Vollausbau"

Beim Vollausbau gab es so etwas noch nie, alle SMX/GPC´s bzw Shader sind aktiv.
Redundanzen gibts velleicht woanders, aber nicht bei den Streamprozessoren.

espanolplaya schrieb:
Wollte es eben schreiben, 6GB sind nix neues, wers braucht..

Zwar absolter Overkill, aber schon recht geil.
3GB bekommt man aktuell in keinem spielbaren Setting voll, da muss es schon SLI oder Tripple SLI sein, um davon zu profitieren.
Aber dann bitte auch bei 4K.

Wie kastriert, wo kastriert, das Teil wird uns allen die Gurke wegblasen! Wir reden hier doch nicht von ner billigen 480GTX Stinkmühle! Der Titan wird die Zukunft!

In dem Thread sind echt viel verblendete. Seit froh wenn das Teil 13 statt 12 SMX hat und mit mehr als 720 mhz (+ Turbo) tatet und die 7970ghz um 20 bis 30% schlägt.

Nvidia verkauft doch kaum nen Vollausbau oder ne 14 SMX Version wen es im Tesla Markt viel mehr Geld für gibt.
Ich denke mal 12 SMX bei 900 mhz Takt inkl. Turbo.

Ihr habt schon wieder soviele Luftschlösser gebaut, dass es ja nur ne Enttäuschung werden kann.
 
Zuletzt bearbeitet:
.
Redundanzen gibts velleicht woanders, aber nicht bei den Streamprozessoren.
.

Nur schnell mal was aktuelles für dich Experten


Aber hey was weiß Anand schon über Redundanz,ist ja nur der Noob Intel dem das einfällt

---------- Post added at 00:47 ---------- Previous post was at 00:39 ----------

Ich denke mal 12 SMX bei 900 mhz Takt inkl. Turbo.
.

Deine Wurst Käse Affinität auf irrationale Katastrophenvorhersagen hat sich seit dem "Brillenbenchmark" nicht gebessert.Aber ich kann dich beruhigen es sind dann doch 14SMX;)

Das ist nicht der Brüder Grimm Laden wo solche Geschichten noch ziehen
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ich glaub ich verkauf meine 7970er jetzt doch und schau mir erstmal an, was kommt. Ist das ein Hin und Her hier. Ob ich mir dann nen Titan hol, höchstwahrscheinlich nicht, ich wollt mir mal die Preise der 7970GHz anschaun, wenn die ein bischen fallen.... Andererseits, Maaann nu hat mich das blöde Titanfieber auch erwischt. :d
 
Was soll denn bei der 7970 GHZ Edition noch am Preis fallen ?
Die dinger sind P/L mässig unschlagbar. Und wenn Titan so hoch angesiedelt ist gibs doch gar keinen Grund noch weiter mit dem Preis runter zu gehen.

Wenn ich durch 3D Vision samt passenden Monitor (Asus VG278HE) nicht an NV gebunden wäre, (Ich weiß man könnt tricksen aber Treiber seitig wird man so schön bei den grünen Verwöhnt in Sachen S3D . ) hätte ich davon 2 im Rechner.
 
Aber hey was weiß Anand schon über Redundanz,ist ja nur der Noob Intel dem das einfällt

Intel´s Architektur unterscheidet sich von Nvidia und AMD.
Ich sprach von SMX und GPC´s.
Wenn du keine Argumente hast und auf Dinge ausweichen musst die nicht zur Debatte stehen, dann lass es doch gleich, anstatt wieder rumzueiern.
Zeig mir lieber mal wo so etwas bei AMD oder Nvidia im "Vollausbau" redundant ist. Sowas wäre einfach nur Die Space Verschwendung, Notfalls kann man noch etwas abschalten und dann hat man ne beschnittene Version.

Deine Wurst Käse Affinität auf irrationale Katastrophenvorhersagen hat sich seit dem "Brillenbenchmark" nicht gebessert.Aber ich kann dich beruhigen es sind dann doch 14SMX

Was soll daran eine Katastrophe sein`? 12/13 SMX bei höherem Takt, als 14/15 SMX kann doch die bessere Lösung sein, schreibst du doch selbst.
Ich kann dich nur bitten mit deinen persönlichn Atacken aufzuhören, die haben hier nichts zu suchen.

Und den Blödsinn mit mehr als 50% zur GTX 680 glaubt doch eh niemand, das ist doch wirklich unwahrscheinlich.
 
Zuletzt bearbeitet:
man sollte bedenken das die bisherigen nvida karten die auf BigK basieren nur deswegen wengier smx haben als eigtl möglich wären weil zu releaszeitpunkt die yields für einen 28nm 7mrd transistoren chip zu schlecht waren
 
Intel´s Architektur unterscheidet sich von Nvidia und AMD.
Ich sprach von SMX und GPC´s.
Wenn du keine Argumente hast und auf Dinge ausweichen musst die nicht zur Debatte stehen, dann lass es doch gleich, anstatt wieder rumzueiern.
.

Ich muss nicht ausweichen u auch nicht rumeiern ich hab dir nur ein aktuelles Beispiel gezeigt,wo Redundanz verwendet wird um die Ausbeute zu steigern,dabei ist die Architektur belanglos

Aber für dich Experten nochmal ein Hinweiß weil du ja unbedingt ATI haben möchtest

3DCenter Forum - Einzelnen Beitrag anzeigen - Ausbeute von ATI

So und jetzt darfst du wieder "rumeiern" u Codas Hinweiß zu deuten versuchen in deiner Parallelwelt

Fakt ist das sowohl nvidia,amd u intel diese Vorgehensweiße sehrwohl verfolgen u anwenden auch bei sogenannten Vollausbauten
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Was soll denn bei der 7970 GHZ Edition noch am Preis fallen ?
Die dinger sind P/L mässig unschlagbar. Und wenn Titan so hoch angesiedelt ist gibs doch gar keinen Grund noch weiter mit dem Preis runter zu gehen.

Wenn ich durch 3D Vision samt passenden Monitor (Asus VG278HE) nicht an NV gebunden wäre, (Ich weiß man könnt tricksen aber Treiber seitig wird man so schön bei den grünen Verwöhnt in Sachen S3D . ) hätte ich davon 2 im Rechner.

Evtl mach ichs auch so, ich verkauf meine erstmal und hol mir dann zwei GHz. Im Moment is echt zu viel Info zum Titan da. Wenn der jetzt doch nicht so kommt, wie angenommen, dann beiss ich mir sonstwo hin. Ich kann nämlich immernoch nicht an die 900€ glauben, weil ich persönlich von max 60% Plus zur 680 ausgeh.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

man bin ich geil auf die titan...
wollte bis zur 780/880 gtx warten,sprich ende dieses jahres oder mitte 2014 zuschlagen.
wann fällt der mantel in form von grünes licht der berichterstattung bzgl titan?am 18.2.?!?
bitte nicht,halt es nicht aus,allein das lesen hier macht mich fertig.
mag wer zwei asus gtx580 DCII umgebaut auf wakü (EK) kaufen? ;)
 
Ich habs nicht mehr ausgehalten :fresse:

Und mir ne GTX680 bestellt auch wenn die Titan "nur" noch 700€ kosten würde sind 200€ zu viel, seit meiner Ati 9800 pro die 500€ gekostet hat ist das mein Limit.
 
Wenn mich das Teil überzeugt wird erstmal 1 Karte gekauft bei den Preisen werde ich auch das erste mal da rauf achten das es eine Evga wird im Bezug auf Kühler wechsel und Garantie sollte man bei dem Preis nicht mkehr knausern .
Wenn das ding irgendwie aus irgend einem Grund über den Jordan geht.
Hat Evga immer noch dieses Upgrade Program am laufen falls ne neue Karte erscheint innerhalb eines Jahres (z.b2888 Shader).
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wenn mich das Teil überzeugt wird erstmal 1 Karte gekauft bei den Preisen werde ich auch das erste mal da rauf achten das es eine Evga wird im Bezug auf Kühler wechsel und Garantie sollte man bei dem Preis nicht mkehr knausern .
Wenn das ding irgendwie aus irgend einem Grund über den Jordan geht.

Ja so seh ich das auch hoffe nur das NV Titan nicht so kastreirt wie den GK 104. V coe lock wers braucht. Ich nicht.
 
Zuletzt bearbeitet:
wer hat schon bestellt? (wieviel?, w0?)
Würd emich mit 2en anschließen (falls nicht zu laut und es mein NT backt (siehe sig))
 
wer hat schon bestellt? (wieviel?, w0?)
Würd emich mit 2en anschließen (falls nicht zu laut und es mein NT backt (siehe sig))

dein nt reicht sicher, jedoch würde ich auf keinen fall gleich bestellen. kann sein, da der preis nach 1 woche schon 50 - 100 euro niedriger ist (kann sein, muss aber nicht....je nach verfügbarkeit)
 
Zuletzt bearbeitet:
Fdsonne wenn ich bei dir mit lese vergesse ich den Punkt Leistung fast und möchte schon fast ohne jegliche Tests kaufen.:fresse:
Nur zu, solange du mir eine übrig lässt ;)

Aber du magst auch recht haben vielleicht werden mehr Kerne bald noch besser angesprochen.

Also die Treiber sind schon massivst Threadoptimiert. Da gibts Skalierungsbenches von PCGH über die Coreanzahl. Und unter vier gehts da deutlich zurück mit den FPS.
Das GPU Auslastungsproblem in Games bekommst du aber wohl nur durch mehr Takt (oder IPC + Takt) gelöst.
Etwas besser steht S2011 wohl aufgrund von mehr L3 Cache aber schon da (bei Takt + Coregleichstand)

Ja wenn die Next gen konsolen wirklich so nen jaguar bekommen mit 8 kernen zu mindest ist das bei einer konsole gefallen könnte sich endlich was tun bei 6 oder 8 kern desktop cpus.

Abwarten, Gerüchten zur Folge soll das Teil ja eher aus zwei CPUs bestehen. Bekanntermaßen sind AMDs aktuelle Cores bei den ganzen BD Ablegern eher mit Cores zu vergleichen als mit echten CPU Cores der Konkurenz. Auch wenn AMD das anders sieht.
Denke aber mal nicht, das sich da für die nächsten zwei Jahre in Sachen Games massiv viel ändern wird...

Octa - SLI mit Titanen und Dual CPU mit Ivy - E 15 Kernern und los geht der Spaß:banana:

Wird schwer... Denn du musst da schon irgendwie 8 Karten aufs Board bekommen...
Ich glaube das SR-2 sowie SR-X bieten selbst nur 7 PCIe Slots ;)
Dazu kommt die fehlende OC Möglichkeit der CPUs. So ein Gespann bekommst du im Leben nicht ausgelastet mit "popligen" default CPU Takt ;)

Das Windows nur 4 GPUs unterstützt...wisst Ihr schon, oder?

Wie kommst du darauf?
Es gibt aktuell nur ne CF/SLI Beschränkung auf vier GPUs... Aber wohl auch nur, weil die Skalierung ziemlich stark sinken würde. Sowie der Optimierungsaufwand dazu noch massiv steigen würde. Das will sich niemand ans Bein binden...

Ah ich hatte auf 2x8Pin gehofft nun dann werdens doch "nur" ~300Watt

Ich sagte ja, mein Gefühl lügt oft nicht...
14 SMX mit um die 732MHz wie K20X ;)

Na kacken die AMDler schon ein wegen den 6GB Ram? :haha:

Wieso sollten sie?
Vor ein paar Tagen wurden die 2GB der 680er noch aus vollkommen ausreichend für jede Lebenslage angesehen. Nun kommt ne Karte mit womöglich 6GB und auf einmal soll sich AMD bzw. die AMD Käufer ins Höschen machen? Da fehlt jegliche Logik. Aber wie so oft wird man wohl wieder die Fankeule schwingen und AMD ins schlechte Licht drücken, weil diese nur 3GB verbauen...

Ja fein, den GK110 Tesla kannste mit 24GB Ram kaufen^^
Außerdem sind beim GK110 die 6GB Serie :p

Wo denn?
Das sind vier Karten zu 6GB... Nix da 24GB ;)
 
beschnitten ?, max 300W, schon 1000$ Listungen !?? :fresse:
ist aber keine schöne Feierabend News :shake: ... aber wie gedacht ein schwarzes PCB.
Ob bei der Karte direkt eine BP montiert ist oder Kühlplatte? Wegen der Ram auf dem Rücken.

Den Spaß schaue ich mir erstmal genau an...
 
Wenn man mit dem Takt zurück geht, sollten die VRAMs auf der Rückseite sicher auch ohne Kühlung laufen... Hinderlich natürlich beim OC ;)
Aber diese Platte von EVGA dürfte da auch nicht welten bessere Temps bringen...

PS: macht dir nix aus den 300W. Weil 1x6Pin + 1x8Pin heist zwar 300W spezifiziert, aber lange nicht, das nicht auch mehr gehen, wenn das NT diese liefern kann ;)
Siehe HD4870X2 mit 1x6 + 1x8Pin Anschluss und unter Volllast im default Takt mit über 370W Verbrauch ;) -> das geht also schon.
 
Zuletzt bearbeitet:
Die VRAMs auf der 7970 6GB laufen auch ohne Kühlung, ist doch kein Problem. 732MHz glaubt ihr doch selbst nicht, das Ding taktet mit ca. 850MHz. Wie oft müssen wir noch die exakten K20X-Taktraten wiederkäuen? Die sind schon hundertmal verdaut.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh