nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
das ist meine meinung ,wenn du möchtest das ich deinen standpunkt respektiere, respektier auch meinen ;)
Nur mal so als Einwurf, es scheint was dran zu sein an meinem Text, siehe Quartalszahlen Nvidia und AMD gpu sparte^^
im übrigen gabs auch bei den fermis genug leise karten, und die 5xx serie war gut, vista ? hab ich nie benutzt, nicht ohne grund^^

Ich stehe dazu das ich von nvidia gpus mehr halte (die AMD cpus waren bis einschlieslich X6 auch gut) und empfehle auch nur nvidia ,wenn sich im kollegenkreis rumspricht der hat ahnunf von pcs, wird man nunma gefragt und da sage ich amd bauste beser nicht ein, nvidia sind einfach besser, und die schlucken das dann ;)

aber von mir aus back to topic..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@GA- Thrawn
Bessere Argumente kann ein Mitläufer auch nicht von sich geben.
Ich finde das Wort Freiheit gut und lebe es.
 
beleidige mich ruhig Thunderburne, ich sag immer entscheidend ist was am ende vom quartal bei rauskommt, und das sehen wir ja jedes quartal aufs neue^^
 
...
Geh mal in den Freundeskreis und sag ich hab ne Geforce GTX, da gibts anerkennende blicke ,sagste ich hab ne AMD wird man gefragt obs mom finanziell nichso dicke is..

auch bei den ganzen leuten ohne pc ahnung ist fest im kopf nvidia= top amd= nichso gut, das leigt daran das amd und marketing schon seit jahren nicht zusammenpassen und die leute ohne ahnung die mit ahnung fragen und die nvidia empfehlen.
...

bei allem respekt...aber das ist absoluter schwachsinn und alles andere als neutral / objektiv :rolleyes:

grüße

..::mcpaschetnik::..
 
tan [Speku-, News- & Diskussion] (1. Seite lesen!)

Muss da GA Thrawn recht geben aber evtl. bin ich einer der Wenigen, die schlechte Erfahrungen mit ATI gemacht haben.
Deshalb kann ich auch garnichts anderes im Bekannten/Freundeskreis empfehlen. Und man hört tatsächlich null negative Rückmeldung.

Naja btt...

Wo bleibt denn die offizielle Ankündigung nun!? :) Gut die Folien haben wir ja schon gesehen^^

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Sollte es nicht 14Uhr sein wegen Winterzeit bei uns?

Davon abgesehen:
So wie es zur Zeit aussieht, kann man wohl den Boost deaktivieren. Dazu wird der Boost bei TITAn wohl maximal bei 876MHz liegen. Die 30% in Crysis 3 könnten daher von einem Lauf mit 834MHz stammen - 30% Mehrleistung bei 30% mehr Rechenleistung...

AIBs können Karten dann Karten mit höherer Taktung rausbringen - also 876MHz oder 900MHz.
 
NDA der GTX680 fiel um 14 Uhr unserer Zeit. Die wurde vor der Zeitumstellung veröffentlicht. Eigentlich sollte es um 14 Uhr so weit sein.
 
@Thunderburne
er versteht das nicht lass sein..
Wenn man angst hat das die freunde einen belächeln das man keine kohle hat dann sinds wohl die falschen...
 
Da ich nicht rund um die Uhr hier mitlese, die wichtigste Farge von allen: Sind noch alle gesund hier? Der Stress ist nämlich nicht gut fürs Herz... :d

Ich hab heute mit dem Finanzamt telefoniert, dagegen ist der Thread hier Urlaub... :d

Hmm nur noch 2x Schalfen :d


€:

Ich hoffe mal das die Reviewseiten es diesmal und bei den Vergleichen die 580 nicht auslassen.
Bin ich eingentlich der einzige dem Effizienz, Stromverbrauch oder TDP geschwafle komplett egal ist ?
Der Thread hier wäre ohne Sinnlosdiskusisonen und Fanboygetue vermutlich 50 Seiten Kürzer und etwas übersichtlicher....


Das hoffe ich auch denke viele sind nicht auf die GTX680 rauf, bin mal gespannt.
 
Zuletzt bearbeitet:
Was hört sich nicht so toll an?
GK104 gehen bis auf 1200MHz - 1300MHz mit 1,175V.

Du erwartest doch nicht, dass Gk110 das ebenfalls mitmacht bei doppelt sovielen Transistoren?!

950Mhz - 1000MHz sollten drin sein bei.
 
hauptsache die Volt vom RAM zieht mit damit 2000Mhz gehen :d
Bei GPU würde ich schon meinen wenn sie original mit fast 900@ turbo taktet das 1100 gehen sollten
 
Zuletzt bearbeitet:
Ich hoffe mal das die Reviewseiten es diesmal und bei den Vergleichen die 580 nicht auslassen.
Bin ich eingentlich der einzige dem Effizienz, Stromverbrauch oder TDP geschwafle komplett egal ist ?
Der Thread hier wäre ohne Sinnlosdiskusisonen und Fanboygetue vermutlich 50 Seiten Kürzer und etwas übersichtlicher....
 
Was hört sich nicht so toll an?
GK104 gehen bis auf 1200MHz - 1300MHz mit 1,175V.

Du erwartest doch nicht, dass Gk110 das ebenfalls mitmacht bei doppelt sovielen Transistoren?!

950Mhz - 1000MHz sollten drin sein bei.

Ich denke auch das es wie zu GTX 580er Zeiten mit etwas Glück eine Karte auf 1K bekommst.
 
1000MHz sollten eigentlich auch ohne Glück drin sein. Immerhin lässt der Prozess locker bis zu 1200MHz mit einer GTX680 zu.
 
Ich hoffe mal das die Reviewseiten es diesmal und bei den Vergleichen die 580 nicht auslassen.
Bin ich eingentlich der einzige dem Effizienz, Stromverbrauch oder TDP geschwafle komplett egal ist ?
Der Thread hier wäre ohne Sinnlosdiskusisonen und Fanboygetue vermutlich 50 Seiten Kürzer und etwas übersichtlicher....

Mir ist das eigentlich auch egal, solange die Leistung mit der TDP ansteigt. Also von mir aus kann sie 400W schlucken, wenn sie dann auch um ein ordentliches prozentual schneller ist.
 
nein

€dit:
zu den OC Spekulationen und Spekulationen mit 85% zur GTX690

I did as well, a GK110 with 14 SMXes and 48 ROPs needs to be clocked somewhere around 950-1000MHz to reach 85% of GTX 690s performance, I simply don't see that happening with a reasonable TDP

wenn ich das richtig sehe dürfte man bestenfalls 80% an die GTX690 ran kommen "mit" OC. Ausgehend von einer 80% skalierung...na, an was kommt man denn da mit OC im Leistungsplus zur GTX680?;) Ich denke mal 20% OC sollte drin sein, aber das sind dann eben Werte MIT OC und nicht @ stock. Hätten wir von Vornherein so gedacht wären wir alle nicht soo optimistisch gewesen und dem kursierenden Preis von 900-1000,-€ nicht versucht irgendwie gerade noch mit Überredungskunst für einen schön zu reden...

Fakt an sich: auf 80% der GTX 690 zu kommen ist aber nicht unmöglich :)
 
Zuletzt bearbeitet:
Ja, sollte normalerweise so sein.
Ansonsten würde nVidia SLI ad absurdum führen, da zwei GTX680 Karten eben nicht den doppelten Preis wert wären, wenn man sie in SLI betreiben würde.
 
Das heißt, man kann zurzeit nur spekulieren, ob beispielsweise 20% weniger als Leistung die GTX 690 gleichbedeutend 20% mit weniger Verkaufspreis ist

Wohl eher ob 50% mehrleistung zur GTX680 auch 50% mehr kosten!
Am besten wäre natürlich 35% mehrleistung zur HD7970GE und 35% teurer als diese ca.500€ ---> da würde ich sofort zweimal zuschlagen :d
 
Zuletzt bearbeitet:
ist der selbe grund warum die leute lieber bmw als toyota kaufen, auch wenn jektiv gesehen nen toyota genauso gut ist und erheblcih billiger.
Image ist nunmal viel wert, und die ganzen kleinen extra gimmicks die nvidia dazu bietet.

Geh mal in den Freundeskreis und sag ich hab ne Geforce GTX, da gibts anerkennende blicke ,sagste ich hab ne AMD wird man gefragt obs mom finanziell nichso dicke is..

auch bei den ganzen leuten ohne pc ahnung ist fest im kopf nvidia= top amd= nichso gut, das leigt daran das amd und marketing schon seit jahren nicht zusammenpassen und die leute ohne ahnung die mit ahnung fragen und die nvidia empfehlen.

Ich hab letztes jahr 8 pcs in der preisklasse 1000Euro+ für bekannte gebaut, überall ne nvidia drinne, die läuft mit den treibern stehts perfekt und ich hab kein gejammer am tele von wegen das rennt nicht usw^^

ICH bezahle gerne den NVIDIA Aufpreis weil ich gerne die Features hab, die bessren Treiber und weniger Probleme sowie eutlich energieeffiezienter, andere bezahlen gerne weniger und ärgen sich dafür mehr, jeder eben wie ers mag bzw im Geldbeutel so hatt^^
Wurde ja schon öfters hier genannt, hätte nvidia dieselben preise, bzw würde das preisdumping mitgehen, würden nochmals erheblich mehr ne nvidia kaufen, von daher kann amd froh sein das nvidia das nicht nötig hat und sie die geiz ist geil kundschaft abgrasen können

Verstehe ich nicht. Klar wenn ich mit einem BMW der nicht gerade 10 Jahre alt ist,(manche meinen ja damit auch einen dicken machen zu können) vor der Disse vorfährt, macht man eventuell leichter ein paar Chicks klar, als wenn ich da mit einem Yaris aufkreuze, aber wen interessiert das Image bei einer Graka. Kommt dann der( weibliche) Besuch nach haus, fragt nach dem GPU Hersteller und meint boah ey du hast ne Nvidia, geil ey, nimm mich. Man kann mit dem angeblichen Image eines GPU Herstellers doch überhaupt nichts nach außen transportieren, weshalb man sich angeberisch besser fühlen müßte. Es geht doch einfach nur um Preis/Leistung, der HERTELLER IST MIR EGAL.
Ich finde es ja immer drollig, wie sich einige damit rühmen das Nvidia viel Geld verdient hat, als wäre es Teil ihrer eigenen Erungenschaft, ja es wirkt so als säßen sie als Entscheidungsträger im Vorstand und wären einzig und allein dafür verantwortlich und dann wird damit herausgestellt wie clever man doch ist, auf das Unternehmen gesetzt zu haben das mehr GEld verdient, also hat man sich weil man ja klüger ist, für das richtige Unternehmen entschieden. Das sind schon sehr weise Kaufsentscheide. Beide Hersteller setzen die Preiskalkulation an einem für sie optimal funtionieren Level an, AMD veräußert seine Karten auch nicht günstiger um den Käufer sozial entgegenzukommen. Image sollte einem beim Hardwarekauf garnichts wert sein, einzig harte Fakten zählen.
Die Treibergeschichte hat doch mittlerweile schon einen solchen Bart, Missstandsberichte gibts auf beiden Seiten. Die Effiziens ist auch nicht soviel besser, bedenkt man die schlechten gpgpu werte von gk104. Man mag es kaum glauben aber es gibt auch Menschen die auf Open CL setzen neben dem gaming. Ich nehme das Mehr an leistung in dem bereich gern für weniger kaufpreis an.
ich könnte wetten das wenn selbst das mit den 30-40% bei titan stimmt, werden die karten dennoch gekauft als gäbe es kein morgen.
Dann kann man sich denken wohin die reise preislich in zukunft führt.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh