nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Findest du? Ich nicht. Mir ist mein geld schon noch was Wert, bin kein verblendeter Fanboy und bin auch nicht bereit dazu, es aus dem Fenster zu werfen. Bis 700€ könnte ich wohl auch noch mit leben. Darüber aber nicht.

ich sehs so, ich zocke eh weniger wie früher, das teil wird min 2 jahre, eher 3-4 im rechner bleiben, da geht die investition, früher hab ich öfters aufgerüstet, da wars was anderes. die GTX 580 ist jetzt auch schon über 2 jahre in benutzung und hat noch massiv power..

was zumindest für mich ein weiteres pro argument ist, je teurer das teil je exklusiver der club der nutzer^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was zumindest für mich ein weiteres pro argument ist, je teurer das teil je exklusiver der club der nutzer^^

Und was bringt das einem? Im Gegensatz dazu habe ich, wenn ich Geld spare noch was Handfestes in der Tasche, was ich für andere Dinge ausgeben kann. Naja, wenn du damit dann einige Jahre ruhe hast, ok. Aber selbst dann würde ich mir das überlegen.
 
Großen Pullermann, was sonst?

Den bekomme ich auch mit zwei GTX 680 oder zwei 7970er -> und dann sogar einen längeren:fresse: Mal sehen, technisch interessiert mich GK110 schon sehr, Mehr Leistung wird immer gebraucht (zumindest meinerseits)
Kommt sie in den nächsten Monaten unter 700€, wirds ne Titan, wenn nicht, kommt ne zweite GTX 680 rein.
 
Und was bringt das einem? Im Gegensatz dazu habe ich, wenn ich Geld spare noch was Handfestes in der Tasche, was ich für andere Dinge ausgeben kann. Naja, wenn du damit dann einige Jahre ruhe hast, ok. Aber selbst dann würde ich mir das überlegen.

Broly, sieh es andersrum...
Steigende Inflation und deine Kohle ist in ein paar Jahren auch nix mehr wert... Also lieber heute verpulvern und dabei noch Spaß haben :fresse:
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

der beste Post den ich von fdsonne gelesen habe :)
 
Broly, sieh es andersrum...
Steigende Inflation und deine Kohle ist in ein paar Jahren auch nix mehr wert... Also lieber heute verpulvern und dabei noch Spaß haben :fresse:

Den Spaß kann ich auch mit was anderem als GK110 haben, ne weitere SSD könnte auch ganz nett sein;) Ich sagte ja, das andere Geld kann man auch heute schon in etwas anderes ausgeben. Wobei, ich sollte lieber auch aufpassen. Letztes Jahr im April hab ich mir gesagt, das ich mir keine GTX 680 zulegen werde... Naja, das Ergebnis sieht man ja in meinem Profil:fresse:
 
Zuletzt bearbeitet:
Das gleiche gilt natürlich auch für DX11.1 zu DX11. Wenn auch dort die Vorteile tendentiell weniger groß sind.

Sich pauschal dagegen zu verschließen, wie es hier einige machen, ist aus Endkundensicht eher blödsinn.
NV wird es aber warscheinlich (sollte Windows wie Don sagte, nicht da irgendwie Vorgaben setzen) aussitzen. Und somit geht dem Markt potentiell auch der ganze Mehrwert verloren.
Der geneigte Pro NV User hat somit auch gleichsam wieder Futter um auf der Unnützigkeit rumzureiten...

Dann sag doch mal konkret welche "Vorteile" es hat,wenn du meinst andere reiten drauf rum,oder steck den heiligen Gral .1 wieder dort hin wo er derzeit ist,nämlich in der Bedeutungslosigkeit

1.Die Gamer selbst juckt die 1 hinterm Komma nicht die Bohne,u die Spieleentwickler springen wegen der Nichtigkeit auch nicht gleich vor Begeisterung an die Decke

Man muss ja nun nicht jeden Trend folgen den Redmond kreiert bisher hat man da immer aufs richtige Pferd gesetzt wenn man nur wirkliche Sprünge auch supported hat
 
Zuletzt bearbeitet:
Pah SSD... Hast doch schon eine... Zweimal OS zur selben Zeit booten braucht kein Mensch.
Los gib dir nen Ruck und tu es :fresse:

Ne mal im Ernst... Der Preis ist wirklich etwas fett. Aber irgendwie habe ich mich nun so lange mit dem Teil angefreundet. Obwohl ich die Kohle nicht raushauen will. Eine wird es werden (müssen)
Und das obwohl ich noch nen neuen Satz Sommerreifen inkl. Felgen brauch :( Und der Sommer kommt bestimmt, wenn die sch... 19" nicht nur so teuer währen :fresse:
 
Dann sag doch mal konkret welche "Vorteile" es hat,wenn du meinst andere reiten drauf rum

1.Die Gamer selbst juckt die 1 hinterm Komma nicht die Bohne,u die Spieleentwickler springen wegen der Nichtigkeit auch nicht gleich vor Begeisterung an die Decke

Die Vorteile habe ich dir oben schon benannt. Mehr FPS Leistung bei gleichem Ressourcenaufwand. Das ist wenn man so will seit jeher der "Hintergrund" zwischen den DX Generationen. Du kannst in DX11 beispielsweise via Tesselation vergleichsweise einfach Effekte erzeugen, die vorher mit DX9 oder 10 nur mit extremsten Mehraufwand möglich wären.

Dennoch, die Katze beißt sich in den Schwanz. Das sollte auch dir auffallen... Wo keine Karten am Markt, da auch kein Endwickler, der dafür entwickelt. Und wenn NV sich streubt, werden die Entwickler nen Teufel tun, als Aufwand in eine Sache zu stecken, die 50% und mehr potentielle User am Markt überhaupt nicht nutzen können.
Bei NV läuft das teils was anders. Sponsort by NV oder neudeutsch, TWIMTBP Titel bekommen gern auch mal NV exklusives GPU PhysX... Nur interessiert es dort den Entwickler wohl nicht, wenn er zusätzlichen Aufwand rein stecken muss, denn dafür ist ja NV da ;) schlimmer noch, man tritt teilweise sogar auf die künstliche Handbreme um CPU PhysX nichtmal ansatzweise auszufahren.

Und wie oben noch reineditiert. Paradebeispiel ist AC, anfangs mit DX10.1, später mit irgend nem Patch dann auf DX10 runtergestutzt. Die ~30% mehr Performance, die PCG da beispielsweise misst, sind nicht zu verachten.
Andere Beispiele (Battleforge in DX10.1) mit ebenso gutem Leistungen von DX10.1 Karten vs. DX10 only Karten bestätigen das ganze zusätzlich.

Wie jetzt immer noch mit Steinzeit HDs auf dem Fussballplatz unterwegs:d

SSDs sind viel zu anfällig :p
Ich hab hier zwei schöne 15k SAS Platten für ein Raid 1 liegen. ~150GB, reicht fürs OS und diverse Progamme alle mal.
Fehlt nur noch der Raidcontroller... Und eine der drei GPUs muss raus :fresse: Aber das wird mit Titan geschehen...
 
Zuletzt bearbeitet:
Die Vorteile habe ich dir oben schon benannt. Mehr FPS Leistung bei gleichem Ressourcenaufwand. Das ist wenn man so will seit jeher der "Hintergrund" zwischen den DX Generationen. Du kannst in DX11 beispielsweise via Tesselation vergleichsweise einfach Effekte erzeugen, die vorher mit DX9 oder 10 nur mit extremsten Mehraufwand möglich wären.
.

Stopp Stopp Stopp wir reden immer noch von 11.1 vs 11.0 nicht das wir da abdriften zu anderen Sphären,du versuchst hier jetzt die 11er Schnittstelle mit den Vorgängern zu verknüpfen darum ging es hier nicht

Hier ging es lediglich um den "exorbitanten" Vorteil der Kommastelle mit seinen Features die ja sogar zum Teil mit der 11er Version von Nvidia supported wird
 
Zuletzt bearbeitet:
Stopp Stopp Stopp wir reden immer noch von 11.1 vs 11.0 nicht das wir da abdriften zu anderen Sphären,du versuchst hier jetzt die 11er Schnittstelle mit den Vorgängern zu verknüpfen darum ging es hier nicht

Hier ging es lediglich um den "exorbitanten" Vorteil der Kommastelle mit seinen Features die ja sogar zum Teil mit der 11er Version von Nvidia supported wird

Wieso Stopp?
DX10 zu DX10.1, siehe Beispiele oben... Und du hast deine 1 hinterm Komma.

Das Argument Tesselation sollte nur bildlich verdeutlichen, welcher Sinn hinter den Generationen im Grunde steht.
 
Das Argument Tesselation sollte nur bildlich verdeutlichen, welcher Sinn hinter den Generationen im Grunde steht.

Da geht es auch um einen Vorteil der sich auch in breiter Ebene bemerkbar macht,dagegen sagt auch keiner was,u der wurde bisher auch nie irgendwie boykottiert

Nur wie gesagt jeden Trend mitmachen den Redmond vorgibt u AMD forciert ne warum

Da kann auch Assassins Creed nicht herhalten für,denn wäre .1 damals wirklich n großer Wurf gewesen,hätten sich die Grünen dem auch über kurz oder lang nicht entziehen können geschweige denn entzogen u selbstverfreilich die Spieleschmieden ebenso nicht
 
Zuletzt bearbeitet:
dx 11.1 bringt doch im vergleich zu 11.0 nur ein paar unwichtige 2d beschleunigssachen soweit ich informiert bin, also sorry unwichtiger gehtsja nicht, kann nvidia gerne überspringen
 
Neja, das man nicht jeden Trend aus Redmond mitgehen muss, da stimme ich dir durchaus zu.
Aber der Teil mit "den AMD forciert" ist quatsch. Es gibt nen gängigen Standard. Nix da AMD forciert. Der Standard kann benutzt werden. Oder auch nicht... Da wird gar nix forciert oder ähnliches.

Auch das sollte nur ne Erklärung sein.
Bei AC hat offensichtlich Ubisoft den Spaß rausgepatcht. Die Gründe sind nicht 100% klar, dennoch finden sich Meldungen im Netz, das NV da womöglich die Finger im Spiel hat. Und das ist auch nicht von der Hand zu weisen, denn schließlich war es auch ein twimtbp Titel ;)
Eine Analogie könnte bei DX11.1 ebenso auftreffen... Sofern GK110 kein DX11.1 vollständig kann. Wovon wohl auszugehen ist.

Ob das nun den Endkunden tangieren wird, oder auch nicht, bleibt abzuwarten.
Solange NV aber kein DX11.1 bringt, wird es keine nennenswerte Anzahl an Titeln geben, die überhaupt darauf zugreifen werden. Und somit wird es auch nix geben, was dem Endkunden nutzen wird.

Die Don aber schon oben einwurf. Es bleibt abzuwarten, was Win8 ggf. da für Vorgaben machen wird. Vllt mit nem SP? Oder nen Nachfolger?
 
Zuletzt bearbeitet:
.
Solange NV aber kein DX11.1 bringt, wird es keine nennenswerte Anzahl an Titeln geben, die überhaupt darauf zugreifen werden.

Eben kein Entwickler macht sich derzeit den Arbeitsaufwand doppelt u aus gewissen Gründen sieht Nvidia da keinen Handlungsbedarf,also wird 11.0 der Standard im PC Bereich vorerst bleiben auch über den Konsolenrelease hinaus
 
Zuletzt bearbeitet:
win 8 werde ich ignorieren, wenn ms denkt ssie könnten den user gängeln werden sie sehen was sie davon haben, gibtja genug anzeichen das es trotz billgstpreisen genauso enden wird wie vista...
 
nochmal, ohne Hardware keine Software... Sollte doch logisch sein ;)
Wieso findest du das "gut", das sich NV dagegen stellt, den gängigen Standard vollends zu implementieren? Das geht gegen jede erdenkliche Logik.
 
Das was mit 11.1 geht,geht genauso gut mit 11.0,wer die Vorzüge für den Gamer darlegen möchte der soll das tun,

Bloß sehe ich da keinen greifbaren Punkt der wirklich sagt jawoll das ist ein "must have"

Wenn es da Ansatzpunkte geben würde wäre das schon längst ein gefundenes Fressen
 
Zuletzt bearbeitet:
win 8 werde ich ignorieren, wenn ms denkt ssie könnten den user gängeln werden sie sehen was sie davon haben, gibtja genug anzeichen das es trotz billgstpreisen genauso enden wird wie vista...

Glaubt man den Theorien, so wird es über kurz oder Lang kein Windows mehr ohne diese ModernUI mehr geben...
Du solltest dich früher oder später dran gewöhnen. Konkurenz im Desktop OS Geschäft hat MS aktuell nicht. Und es würde beginnend mit Win8 wohl noch Jahre dauern, bis sich das ändert.




Aber mal was anderes, woher stammen denn die spekulierten 50%?
ã€�有料继ç»*爆】7970 2GHzå�¯æˆ˜èƒœTT - 3D图形åŠ*速ã€�游æˆ�交æµ�专区 - 超能网玩家俱ä¹�部 - 全新视角全新观点 - Powered by Discuz!
oder muss man da registiert sein?

Das was mit 11.1 geht,geht genauso gut mit 11.0,wer die Vorzüge für den Gamer darlegen möchte der soll das tun,

Das was mit DX11 heute geht, geht auch mit DX10 oder DX9 schon lange ;)
Nur ist eben der Aufwand viel größer. Aber das sagte ich bereits.
Mit dieser These kann man sich gleich gegen jeden Standard verwehren ;) Denn es geht auch ganz ohne.
 
nochmal, ohne Hardware keine Software... Sollte doch logisch sein ;)
Wieso findest du das "gut", das sich NV dagegen stellt, den gängigen Standard vollends zu implementieren? Das geht gegen jede erdenkliche Logik.

der chip ist einfach nur uf dx11.0 designed, nv kann wohl garnix machen bis maxwell kommt, von daher bringt uns dx 11.1 eh nix da kein spielehersteller es gross unterstützen wird, siehe dx 10.1....

ich werde win8 boykottieren da ich es nicht einsehe ein tablet os auf dem desktop nutzen zu müssen nur weil ms meint wir müssen jetzt alle dieslebe user experience haben, obwohl es unsinn ist..
apple der inbegriff der usability für dummys hat auch ihr osx und ios getrennt ,aber nein ms weiss es ja besser

surface rt war schon ein megaflop, bei surface pro wirds bei DEN preisen ähnlich werden, win phone 8 steht auch nicht rosig da, daher hoffe ich das beides floppt und sich ms auf die xbox 720 und win 9 im geowhnten stil konzentriert.

man hat es immer leicht zu sagen man hat keine wahl ,ab er JEDER setzt mit seiner wahl ein statement !
 
Wie sieht das jetzt aus wollen hier jetzt alle durchmachen bis morgen früh um 5Uhr oder wie?

Am Ende wirds doch nur wieder n Tegra Vortrag:fresse2:
 
ach gegen nen tegra 4 smartphone alla htx one X2 hab ich auchnix, mein iphone4 wird langsam alt^^
ja klaro machen wir durch!
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite l

Was gibt's in 5 Stunden ? :)
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Puhh noch so lange :-)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh