nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
mal ne blöde frage, ist der thread hier auch für die GTX 660Ti o.ä. Spekus zuständig ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
da steht Geforce 6xx im Topic, würde also sagen ja.
 
Der eine so, der andere so. Ob man jetzt 2 einzelne oder diese Dual GPU Kauft kommt fast auf´s Gleiche raus.
Interessant ist, dass die Karte nen doppelten Boost im Gegensatz zur Singlevariante hat. Mal sehen wie sich das dann verhält.
 
Gibts schon irgend ne info zu der midrange performance Riege alla GTX 660ti ?


Sent from my iPhone 4 using Hardwareluxx app
 
Da es auch schon die ersten handfesteren Spekus zu der für mich interessanteren GTX660(Ti) gibt, würd ich hier gern mal darüber philosophieren.
Ich kann nämlich überhaupt nicht einschätzen, wie diese Karte im Vergleich zu Radeon-Konkurrenz stehen könnte. Mal davon ausgegangen, sie basiert wirklich auf einem um ein komplettes GPC gekürzten GF104, hätte also 1152 Shader und 96 TMUs, außerdem nurnoch 24 ROPs und ein 192 Bit Si, was ich für wahrscheinlich halte, um den Abstand zu GTX670 zu wahren.
Bei den Taktraten können wir bestenfalls von ~1GHz wie bei der GTX680 ausgehen, eher die für die GTX670 spekulierten 950MHz oder weniger. Beim Speicher gehe ich bestenfalls von 1250-1300MHz aus, der teure 1,5GHz-Speicher der GTX680 wird sicherlich nicht auf der kleineren Karte verbaut.
Hinzu kommt, dass im Normalfall bei dem krummen SI nur 1,5GB zur Verfügung stünden, womit man gegenüber der HD7800er-Reihe einen Nachteil hätte, weshalb ich es für wahrscheinlich halte, dass dann wie bei der GTX550Ti/GTX460 V2 und GTX560 SE einer der Speichercontroller mit doppelt so großem Speicher ausgestattet wird (also 4*256MB + 2*512MB) um auf 2GB zu kommen.

Nach dieser Schätzung hätte die GTX660Ti dann: ~2188.8-2317.8 GFLOPS, 91.2-96.6 GT/s, 22.8-24.1 GP/s und 120-124.8GB/s Bandbreite.
Die Shaderleistung wäre damit immernoch deutlich höher als bei jeder Geforce der Vorgängergeneration und läge irgendwoe zwischen HD6950 und HD7870, die Texturfüllrate könnten nur HD7970 und schnellere GTX6x0 überbieten, aber die AFAIK bei Spielen immernoch sehr wichtige Pixelfüllrate läge nur etwas oberhalb von GTX550TI/GTX460 1GB und leicht unterhalb von HD6850, HD7850 oder GTX560Ti. Die Bandbreite wäre auch nur irgendwo zwischen diesen Modellen, hinzu käme, dass nur 1,5GB mit der vollen Bandbreite angesprochen werden können und die zusätzlichen 512MB nur mit 1/3.

Dann muss man noch bedenken, wie ineffizient ein stark beschnittener großer Chip ist, Pitcairn dürfte auf jeden Fall effizienter sein.
Alles in allem kann ich mir schwer vorstellen, dass eine solche GTX660Ti überhaupt ein gutes Bild gegenüber den HD7800ern abliefern wird, wenn tatsächlich ein Speichercontroller samt ROP-Partition wegfällt. Oder überschätz ich da Pixelfüllrate und Bandbreite?
 
Sehr interessante Speku Tigerfox.

Stehe auch vor der Entscheidung ne GK zu kaufen und würde auch ungern länger als Mitte Mai warten.

Für mich stehen dann auch die 7870 / 7950 oder eben GTX660Ti / GTX 670 im Raum. Bin gespannt, welche Karte die beste P/L bieten wird. Gibt es denn jetzt Hinweise, wann die GTX660Ti bzw. GTX670 in den Verkauf kommt ?
 
Ne, leider nicht. Kann schon etwas länger als Mitte Mai werden, erstmal kommen ja GTX690 und GTX670. Eigtl ist auch die HD7870 oberhalb meines Preisrahmens, das wäre eigtl die HD7850, die mir aber zu stark beschnitten ist. Deshalb hoffe ich ja, dass sich mit kleineren Nvidia-Karten da mal was tut. Der Preisabstand zwischen HD7870 und HD7950 ist auch viel zu klein.
Die GTX660Ti müsste eigtl in etwa so zur GTX680 stehen, wie die GTX560 SE zur GTX560Ti.
 
ich bekomm für den pc meines kumpels ne GTX 460 geliehn, er wartet auch sehnsüchtig auf die 660ti, denke schon das die sparend und schnell wird, die gtx 680 hats ja vorgemeacht und weckt erwartungen
 
Ich würde eher sagen, GTX465 und GTX560Ti-448 oder auch HD5830 haben vorgemacht, dass stark beschnittene größere Chips bei ähnlicher Leistung weniger effizient sind als kleinere Chips im Vollausbau. Ein GF105 mit 3 statt 4 GPCs wäre mir jedenfalls lieber, aber ich glaube kaum, dass Nvidia so viele Varianten bauen wird, zumal ja der GF110 im Spätsommer/Herbst schon eine Refresh-Generation einleuten dürfte. Der GF106 wird wohl schon 2 GPC und ebenfalls 24 ROPs und ein 192 Bit SI haben, quasi das Kepler-Pendant zum GF116 und in etwa so schnell wie die GTX560(Ti). Da bleibt zwar bis zur GTX670 noch ein bischen Platz, aber dafür ein neuer Chip, von dem dann auch wieder maximal zwei Varianten entworfen werden könnten, die sehr nah beeinander liegen?
Brächte man die GTX660Ti ebenfalls mit 32 ROPs und einem 256Bit SI heraus, ergäbe sich ja ein ähnliches Bild wie bei GTX560Ti-448 zu GTX570, also minimalste Performanceunterschiede, so dass die teurere Karte zu unattraktiv würde.
 
Zuletzt bearbeitet:
Ich bin eh mal gespannt wie teuer der Spaß wird. Eigentlich sind 300€ meine Schmerzgrenze und ich tendiere aktuell zur Saphire 7870 OC. Die Konkurrenzkarte von Nvidia sollte da ja die 670 werden oder? Leider befürchte ich, das die Karte dann noch einmal ordentlich mehr kostet und dann dauert es wahrscheinlich auch noch länger, bis gescheite Customkarten erscheinen. Aber mit etwas Glück fallen ja die Preise der 7870er noch etwas, wenn erst einmal die Konkurrenz da ist. Ist halt blöd, wenn man nur noch eine iGpu zum Spielen hat, ist es echt schwieriger noch weiter zu warten.^^
 
Zuletzt bearbeitet:
aso, hatte mich schon ein wenig gewundert, weil das alles dann doch recht unübersichtlich wird hier.
Vielleicht sollte man dann das Topic ein wenig abändern. Auch wenn man jetzt nicht genau weiß ob BigK mit einer 6 oder 7 anfängt sollte man sich dann lieber nur auf GK110 oder bigK einigen.
Dann hat die Dualkarte hierdrin aber auch nichts verloren und müsste theretisch in den GK104er Thread verschoben werden, da es zwar ne große Karte ist als Multi GPU, aber eben nur eine Multi GPU des GK104.
 
Hatte ein klein bisschen Hoffnung, dass der GK110 erscheint. Gott, Nvidia würde damit warscheinlich eine Legende übertrumpfen (G80)!
 
Sontin schrieb:
Ja, $999 in Amerika. Hat hier jemand die Anschrift von AMD? Sollten ihnen danken, dass sie die Preise für Grafikkarten wieder nach oben verschoben haben...

Als ob Nvidia geringere Preise bei den geringen Produktionskapazitäten verlangt hätte.
Davon abgesehen muss Nvidia gar keine 999 Dollar verlangen. Schließlich kostet eine GTX 680 nicht mal ganz die Hälfte und die GTX 690 wird langsamer sein als 2 Standard GTX680.

Bericht: Nvidia GeForce GTX 680 (Seite 11) - ComputerBase

Nur 18 bis 24% schneller als die GTX 580, was für eine Unverschämtheit, dafür 499 Dollar zu verlangen. :rolleyes:
Abseits der totgebenchten Spiele sieht man wohl die "wirkliche" Leistungsdifferenz. Soviel zu deinen 60%. :d

[Troll-Modus aus]
 
Zuletzt bearbeitet:
Viel krasser finde ich die GTX660 die wohl in etwa die Leistung einer 7870 haben wird welche wiederrum nur 15% schneller ist als die 6950, welche wiederum so schnell ist wie die 5870. Das heißt also ich spare 50€ bekomme eine 15% schnelle Karte (nicht spürbar) wie Jemand der 2009 350€ bezahlt hat. Der ist gut Nvidia.... :rofl: Achja Strom sparen tut sie...
 
Als ob Nvidia geringere Preise bei den geringen Produktionskapazitäten verlangt hätte.
Davon abgesehen muss Nvidia gar keine 999 Dollar verlangen. Schließlich kostet eine GTX 680 nicht mal ganz die Hälfte und die GTX 690 wird langsamer sein als 2 Standard GTX680.

Bericht: Nvidia GeForce GTX 680 (Seite 11) - ComputerBase

Nur 18 bis 24% schneller als die GTX 580, was für eine Unverschämtheit, dafür 499 Dollar zu verlangen. :rolleyes:
Abseits der totgebenchten Spiele sieht man wohl die "wirkliche" Leistungsdifferenz. Soviel zu deinen 60%. :d

[Troll-Modus aus]

Cool Story, Bro.
Aber lass mich raten: Im Memo deines Arbeitgebers stand nicht, dass die neue Superdupermegahighend-Karte auch mal gegen 18 Monate alte Karten verliert, gell:Bericht: Nvidia GeForce GTX 680 (Seite 9) - ComputerBase

Nunja, vom Marketing kann man eben nicht die ganze Wahrheit erfahren. Komischerweise findet man solche Ergebnisse bei der GTX680 nicht. Hm.
 
Cool Story, Bro.
Aber lass mich raten: Im Memo deines Arbeitgebers stand nicht, dass die neue Superdupermegahighend-Karte auch mal gegen 18 Monate alte Karten verliert, gell:Bericht: Nvidia GeForce GTX 680 (Seite 9) - ComputerBase

Nunja, vom Marketing kann man eben nicht die ganze Wahrheit erfahren. Komischerweise findet man solche Ergebnisse bei der GTX680 nicht. Hm.

Du bist wohl der größte geblendete Troll der hier rumläuft oder? Was kostet eine super duper high end GTX680? 500€. Die 7970 400€. Wären schon mal 25% Aufpreis für unter 10% Mehrleistung und 1GB weniger Speicher.
Test: Nvidia GeForce GTX 680 (Seite 13) - ComputerBase

Und es gibt auch Anwendungsfälle da ist die GTX580 schneller als die GTX680 und die 7970 zieht auf und davon:
Test: Nvidia GeForce GTX 680 (Seite 20) - ComputerBase

Aber kauf du nur deine Midrange GTX für 500+ Tacken mit 60% Mehrleistung gegenüber einer 2009 erschiennen DX11 Karte für 350€... haha
 
Zuletzt bearbeitet:
Du bist wohl der größte geblendete Troll der hier rumläuft oder? Was kostet eine super duper high end GTX680? 500€. Die 7970 400€. Wären schon mal 25% Aufpreis für unter 10% Mehrleistung und 1GB weniger Speicher.
Test: Nvidia GeForce GTX 680 (Seite 13) - ComputerBase

Und es gibt auch Anwendungsfälle da ist die GTX580 schneller als die GTX680 und die 7970 zieht auf und davon:
Test: Nvidia GeForce GTX 680 (Seite 20) - ComputerBase

Aber kauf du nur deine Midrange GTX für 500+ Tacken mit 60% Mehrleistung gegenüber einer 2009 erschiennen DX11 Karte für 350€... haha

Bei den neuen Tests von CB und ht4u ist der Abstand weggeschmolzen.
 
Noch besser. Aber alle Karten sind eindeutig zu teuer. Erst wenn die 40nm Karten alle abverkauft sind und auch die 7870 in Ihrer Preisklasse = unter 200€ angekommen ist kann man noch mal weiter sehen. Auch den Diablo3 Release wird man wohlwollend noch mit hohen Preisen mitnehmen.
 
Wer weiß ob EVGA daraus wieder eine dual GPU Karte macht :)
 
Nur 18 bis 24% schneller als die GTX 580, was für eine Unverschämtheit, dafür 499 Dollar zu verlangen. :rolleyes:

Leistung bestimmt den Preis und wer oben auf ist diktiert diesen!

Hast du dich im Januar als die 7970 noch über 500 Euro kostete auch so entrüstet?

Mmh?!


Wahrscheinlich nicht

Wer kann der hat,wer nicht kann muss zum Discountprodukt greifen!
 
Keine Frage, 100% mehr Leistung zu dem Preis als die GTX 580 wäre schon schöner gewesen ;)
Aber ist halt nicht. Daher: Zahlen oder nicht zahlen.
 
Keine Frage, 100% mehr Leistung zu dem Preis als die GTX 580 wäre schon schöner gewesen ;)
Aber ist halt nicht. Daher: Zahlen oder nicht zahlen.

Eben ! Immer diese kleinkarierten Pfennigfuchser die einem kapitalistischen Konzern zum Wohlfahrtsverein bekehren wollen:d

Würde jeder andere genau so machen wenn sein Produkt in den " Top Ten" ist
 
krass, bei der 670 liegt der Radiallüfter ja "neben" der Karte. Hatte mich auf den ersten Blick um die Positionierung der Stromanschlüsse gewundert^^
 
die karte ist irgendwie hässlich :d. vor allem so kurzes pcb. wie sieht dann erst ne 660 aus?
 
Eben ! Immer diese kleinkarierten Pfennigfuchser die einem kapitalistischen Konzern zum Wohlfahrtsverein bekehren wollen:d

Würde jeder andere genau so machen wenn sein Produkt in den " Top Ten" ist

Nur weil der Konkurent nicht entsprechend nachzieht müssen die Preise noch lange nicht gerechtfertigt sein. Intel bietet seinen i5 2500k ja auch nicht für 999€ an obwohl sie es könnten. Man muss ja nicht jeden Schrott V1.1 kaufen nur weil es das Neuste ist. Wenn es keine Konkurenz mehr gibt, dann muss man selbst für Fortschritt sorgen. Besonders die IT-Welt lebt davon. Wenn es keine Leistungssteigerungen gibt wird auch die Software dahingehend angepasst. Ergo wird der Durchschnittsbürger sich auch keine neue Hardware kaufen wenn er nicht merkt, dass er neue benötigt. Man schneidet sich damit ins eigene Fleisch.

Spätestens jetzt sollte jedem verblendetem Troll klar sein, dass GK104 niemals High-End ist. Und dieses Ding erst recht nicht. Sowas ist eher GTX550 Klasse - für 400 Tacken? Das ist ein Smart im Ferrari-Gewant. Nein danke. Zur Zeit zahlt man immernoch den 28nm Aufschlag. Mehrleistung wirds erst beim Refresh geben. Das Problem das die GTX580/6970 zu schwach gegenüber dem Vorgänger war kommt noch hinzu. Die Karte hätte man mit einem Schlag entwertet. Das hätten viele Kunden nicht so toll gefunden, daher kann man so in Ruhe noch den 40nm Schrott verkaufen.

Ich habe Zeit... :coffee:
 
Hässlich finde ich sie nicht, schlicht und schwarz. Ist doch genau richtig. Normaler Weise regen wir uns doch nur über bunte Karten mit Ponyaufklebern auf :fresse:

Das der Lüfter ausserhalb des PCB platziert ist, ist mal wieder was anderes, erinnert mich etwas an die 88Ultra.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh