nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Bei genauem hin sehen sind die unterschied denoch erkennbar zwischen 4* und 8* so mit ist die perfektion auch nicht gewährleistet.
Da rauf wollte ich eigentlich auch nicht hinaus für den endverbraucher wir ein ein sehr schönes bild ohne mods und tools bereit gestellt.
Die entwicklungs kosten sinken auf so ein kleines klientel wie uns sgssaa oder saa fetischisten werden die wohl möglich keinen wert legen und einen kosten günstigeren weg gehn.
Ich will hier nicht diese aa modis schlecht machen im gegenteil zur zeit ist es das beste was man nutzen könnte doch wird es die spiele industrie nicht interessieren und man wird den weg der Auflösung gehn.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach boxer noch was kann mir auch gut vorstellen das 3840 pixel nativ ganz anders rüber kommen als herunterskalierte denke mal es würde sehr viel potenzial drin stecken in dieser Auflösung.
Lassen wir uns überaschen.
Mit deinem gespann zur Zeit kannst ja die show noch ganz enspannt geniesenbis zum big K.
Mfg
 
So langsam frage ich mich, wie Nvidia die neuen Karten bewerben will?
"300fps in Borderlands 2 mit FXAA in Verbindung mit einem mit flüssigem Stickstoff gekühlten i7-3770K@8GHz" :d

Ja Intels Integer Leistung ist echt zum Wegrennen für solche Monster:)

Hoffen wir das Spieleschmieden bald nen Weg finden 6 und 8Core Support effektiv anzubieten sonst ist SLI u Crossfire bald obsolet

Wobei man Spiele wohl leider nicht unendlich paralellisieren kann,summa summarum müssen doch andere Renderingverfahren her(Raytracing@Cuda)um hier aus der Sackgasse zu kommen
 
Zuletzt bearbeitet:
Ich finde GK110 ja auch sehr interessant, nur welche CPU soll die nextgen GPUs auf meinem 22" auslasten? :confused:

Ich brauche nicht unbedingt 24" und wollte den auch erst austauschen wenn er hopps geht. Dafür rennt BF3 jetzt so wie ich mir das wünsche, keine spürbaren Slowdowns.
 
Wieso? Es gibt doch 8xSGSSAA oder DS? Auch den GK110/SLI wird man ganz klein bekommen, wenn man will. Dann dürfte auch ein FX ausreichen um das SLI zu befeuern:fresse:




Das "Rumgehacke"auf AA Modis oder DS kann aber nicht der Weißheit letzter Schluss sein.Irgendwann will man mit der zu verfügung stehenden Leistung doch nicht nur Kanten glätten sondern das gerenderte Bild der Realität auch näher bringen:d

Mittelfristig führt da denke ich kein Weg an neuen Methoden des Renderns vorbei weil eben Intel und AMD beim CPU Part nicht mehr Schritt halten
 
Zuletzt bearbeitet:
Ich glaub die Erklärung für Euphemismus hätte er sich selbst ergooglen können... :d

Aber mal zum Thema: Was wird die Anti-Hartz IV-GPU wohl kosten, so grob? Nicht das die jemals in mein Budget passen würde... :d
 
Zuletzt bearbeitet:
Ich denke mal auch im Preisbereich der 680er zu Releasezeiten vielleicht sogar noch etwas höher

---------- Post added at 23:46 ---------- Previous post was at 23:42 ----------

Ich glaub die Erklärung für Euphemismus hätte er sich selbst ergooglen können... :d

War keine Wikierklärung sondern eher "Poesie":haha:
 
Um mal wieder zum eigentlichen Thema zurück zu kommen...

... im 3DC geht man davon aus das es deutliche Vorteile für uns gibt das NV den GK110 erst so spät als Geforce bringt. Bis dahin ist das Design nämlich in der Fertigung und wohl auch Treibertechnisch deutlich ausgereift, was wieder in besseren Chipeigenschaften (Stromverbrauch, Takt) gipfelt.
 
Ich war mal so frei den ganzen Unsinn hier wegzuputzen. Ich bitte darum nicht in Bashorgien zu verfallen und zurück zu GK110 zu kommen. Und dabei fällt im großen und ganzen auch die AMD Produktpalette raus!


SGSSAA ist viel effizienter als hohe Auflösungen, so würde man unnötig Leistung verbraten. 4x SGSSAA sieht besser aus als 2x2 DS und ist noch schneller. Zudem sind höhere Auflösungen auf gleicher Fläche und DS nicht dasselbe, denn bei DS findet eine Mittelung statt, was das Aliasing verringert - bei 4k@24" nicht, denn da werden die einzelnen Pixel nämlich direkt angezeigt.

Im Grunde aber auch wurscht... Denn bei ner Diagonale von 22-24" hast du bei heutigen Auflösungen (FullHD) eine Pixelgröße von X. Mit ner 4k Auflösung bei gleicher Bilddiagonale sinkt die Pixelgröße deutlich. Ergo auch weniger sichtbar auffallende Treppchenbildung. Ich behaupte, der sichtbare Unterschied zwischen ner DS Auflösung und ner nativem Auflösung bei gleicher Diagonale dürfte sehr sehr gering ausfallen.

Dennoch sind hohe Auflösungen nativ nicht verkehrt, aber da fehlt noch etwas sehr wichtiges: Der Content. Da braucht es schon wirklich viele viele feine Details (und Texturen!), sonst kann man sich das gleich sparen.

Das mit den Texturen könnte in der Tat ein Problem werden. Nur müssen diese auch irgendwo abgelegt werden. Sofern man weiter gegen die VRAM Ausbauten ist und eher weniger als mehr verbaut, wird das früher oder später zu einem Problem werden. Oder man setzt weiter auf wenig hochauflösende Texturen inkl. eben der daraus resultierenden Optik :fresse:

Hoffen wir das Spieleschmieden bald nen Weg finden 6 und 8Core Support effektiv anzubieten sonst ist SLI u Crossfire bald obsolet

Wobei man Spiele wohl leider nicht unendlich paralellisieren kann,summa summarum müssen doch andere Renderingverfahren her(Raytracing@Cuda)um hier aus der Sackgasse zu kommen

Das dürfte aber wohl dem Problem keine Abhilfe schaffen. Da im Moment der ganze CPU Skalierungsspaß scheinbar vollkommen SingleThreaded läuft. Zumindest das, was nicht direkt auf die Threadoptimierungen des Games selbst zurückzuführen ist und was nicht durch den Treiber kommt (der ja angeblich Multithreadoptimiert sein soll) Was man wunderschön rausbekommt, wenn man auch mit nem DualCore oder gar teildeaktivertem DualCore den Takt hochrammelt und die FPS fast Linear skalieren.

Mittelfristig führt da denke ich kein Weg an neuen Methoden des Renderns vorbei weil eben Intel und AMD beim CPU Part nicht mehr Schritt halten

Im Grunde müssen sie da auch nicht unbedingt mithalten, es wäre ja schon von Vorteil, wenn die Programmierer endlich mal die Anforderungen an aktuelle Hardware anpassen. Aber das scheint so nicht zu sein. Mit etwas Optimierungsarbeit dürfte da so einiges zu machen sein. Aber leider kosten Optimierungen Geld / Zeit und sind somit oft sehr uninteressant.
Mal gucken, vllt geht mit dem Free4Play Zeugs was, denn dort kann sich dann niemand mehr verstecken hinter hohen Preisen und schlechten Titeln. Wenns murks ist, kauft niemand. Finde ich ne gute Politik um die Qualität sowohl optisch als auch spielerisch zu steigern.
 
Treppchenbildung ist nicht alles, wenn es um Antialiasing geht. Ich bin jetzt nicht so in der Materie drin, aber ich habe gelesen, dass es Artefakte gibt, die sich selbst mit deutlich höheren Auflösungen nicht so effektiv bekämpfen lassen wie mit richtigem AA mit einer entsprechenden Maske. Zudem ist auch immer die Frage, wie das in Bewegung aussieht. Temporales Aliasing kann man schwierig anhand von Screenshots beurteilen, wo eine höhere Pixeldichte gut aussieht.
 
Schon die News auf 3dcenter gelesen?
Das würde direkt so einiges erklären und etwa zu dem passen, was wir hier schon vermutet hatten. Allerdings könnte ich mir vorstellen, dass NV den einen oder anderen Chip doch noch früher unter das Volk bringen wird... zu einem satten Preis, versteht sich ;)
 
Zuletzt bearbeitet:
joa das hatten wir ja schon vermutet, fertig sein mmuss er ja wenn er schon an die supercomputerhersteller geleifert wird..

mmn ist tsmc immer mehr der engpass, ja nicht nur für gpus sondern mittlerweile auch für etliche arm chips usw..
 
dann müssen die noch mehr anbauen...wo ist das Problem ? Geld ist da...Platz wird man wohl auch noch finden auf der Welt.
Arbeitssuchende gibts auch satt und genug auf dem Markt ... :d
 
Habt ihr eigentlich Hoffnungen, dass es Singleslotvarianten von GK110 geben wird? Ich habe hier die EVGA Hydro Copper im Auge - da gabs sowas für 480 und 580, aber 680 HC war leider Dual-Slot.
 
Habt ihr eigentlich Hoffnungen, dass es Singleslotvarianten von GK110 geben wird? Ich habe hier die EVGA Hydro Copper im Auge - da gabs sowas für 480 und 580, aber 680 HC war leider Dual-Slot.

Mmm... mir kann ne Single-Slot zwar egal sein, da ich keine Wakü hab/auch nicht vor habe eine zu kaufen, kann mir allerdings wirklich gut vorstellen, dass da Single-Slot klar besser aussieht. Liegt wohl daran, wie die Anschlüsse hinten an der Slotblende angelegt werden...
 
Den Prügel wird es wohl kaum als Singleslot Version geben. Aber. um mal etwas Öl in das Feuer der Hoffnung zu gießen; dieses hier ist ein Bild eines K20 (halbnackt). Wie man sieht, liegen die Stromanschlüsse hinten, nebeneinander. So könnte man mit einem Wasserkühler tatsächlich Singleslot realisieren. Aber nicht vergessen; das ist NICHT die Desktop-Version ;)
 
2x DVI braucht leider viel Platz. Ich will mir ja 3 verbauen und dazu noch meine X-Fi und evtl. eine GT640 für PhysX. Das wäre nur machbar, wenn die Dinger Single Slot wären.
 
Habt ihr eigentlich Hoffnungen, dass es Singleslotvarianten von GK110 geben wird? Ich habe hier die EVGA Hydro Copper im Auge - da gabs sowas für 480 und 580, aber 680 HC war leider Dual-Slot.

wenn du es so ansprichst... ich denke weniger. Bei der HC GTX680 aber nur wegen dem Turm. Entsprechend konnte man beim Anschlußdesign freie Hand haben.
NV Surround mit nur einer Karte wurde groß beworben. GK110 ist dafür sogar noch prädestinierter als GK104. Ich könnte mir sogar vorstellen das es 3 DVI Anschlüsse geben könnte.
 
. Ich könnte mir sogar vorstellen das es 3 DVI Anschlüsse geben könnte.

Wozu nicht moderne Technologien wie mini HDMI/DP verwenden,bei einer modernen Grafikkarte und meinetwegen noch einen Dual Link DVI.

Dann wären die "Recourcen" für 4HD Displays auf einer Ebene unterzubringen,ergo Singleslot,zumindestens was den Aufbau von Big K ohne Kühlung betrifft
 
Zuletzt bearbeitet:
Den Prügel wird es wohl kaum als Singleslot Version geben. Aber. um mal etwas Öl in das Feuer der Hoffnung zu gießen; dieses hier ist ein Bild eines K20 (halbnackt). Wie man sieht, liegen die Stromanschlüsse hinten, nebeneinander. So könnte man mit einem Wasserkühler tatsächlich Singleslot realisieren. Aber nicht vergessen; das ist NICHT die Desktop-Version ;)

Ergänzend:
Die PCIE-Buchsen sitzen hinten weil es im Rack Wartungsfreundlicher und weniger Lufstrom-behindernd ist:




Mal was neues: GK110 Tesla K20 mit 15 SMX! GK110 für Desktop nur "salvage parts" mit 13 bzw. 14 SMX. Logisch betrachtet nicht verkehrt. Vor allem wenn ich aus 15 SMX 3000 $ und aus 14 SMX 700 $ ziehen kann wäre das mehr als 14 SMX für 3000 $ und "nur" 15 SMX für 600 $... u know what i mean? :hmm:
 
Zuletzt bearbeitet:
Quelle?
Klingt unwahrscheinlich, denn Teslas hatten bisher immer 225W TDP, bei Desktopkarten hat man aber deutlich mehr Luft bis maximal 300W.
 
Oder man hat den Takt dementsprechend angepasst.
 
GK110 Tesla K20 mit 15 SMX! GK110 für Desktop nur "salvage parts" mit 13 bzw. 14 SMX.

Wenn ich mich nicht sehr irre ist die Sache genau umgekehrt. Die ersten K20 haben "nur" 13-14 SMX, die Desktopversion ist noch nicht sicher, könnte aber mit Vollaustattung kommen. Ich denke mal, dass NV das sowohl von der nächsten AMD-Karte als auch vom Stromverbrauch abhängig machen wird.
 
Wozu nicht moderne Technologien wie mini HDMI/DP verwenden,bei einer modernen Grafikkarte und meinetwegen noch einen Dual Link DVI.

Dann wären die "Recourcen" für 4HD Displays auf einer Ebene unterzubringen,ergo Singleslot,zumindestens was den Aufbau von Big K ohne Kühlung betrifft

ich finde die anschlüsse bei der GTX 680 richtig beschissen, sehr schade das nvidia da amds weg gegangen ist und 2 dvi anschlüsse übereinander platziert hat. Das führt dazu das beim Standardkühler weniger Luftlöcher vorhanden sind um die luft aus dem gehäuse zu pressen, ergo mehr druck und lautstärke aufgebaut werden müssen. das mag beim GK104 noch gehen, aber beim 250watt+ GK110 wirds kritisch, und ist auch unnötig. Sollen einfach 4 mini hdmi o.ä. platzieren und gut is, gibtja adapter auf dvi...
 
Kann man den oberen DVI-Anschluss nicht einfach abflexen und sich ne eigene Blende basteln? :d
 
Flexen brauchst du gar nicht, den kannst du einfach knicken und falten... :d
Marktlücke; eine Karte mit modularen Monitoranschlüssen. Bei Bedarf einfach zustecken. Geht bei Netzteilen und Lego ja auch ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh