nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ech? Wusste ich nicht...
Bestelle immer mit VISA, weil ich da noch 2% bekomme :fresse:
Nur die 2% reißen es bei dem Teil leider auch nicht raus :(
 
Cross Post von mir ausm 3DC:

Titan kommt nur in Frage wenn:
- ich die schnellste Single GPU will
- ich die maximal mögliche Leistung mit SLI haben will

und mir dabei der Preis egal ist. Sonst ist die Karte für nichts zu gebrauchen. Die Lautstärke gibt noch einen Bonuspunkt.

Insgesamt sehr enttäuschend.
 
am meisten stört mich das
Der Grafikchip ist kastriert, es sind nur 14 von 15 SMX (2.688 von 2.880 ALUs) aktiv; außerdem stört mich persönlich der Boost beim Übertakten – man weiß ohne Spezialkniffe nie, welchen Takt man letztendlich erhält. Wer Titan jetzt kauft, weiß nicht, wann der Vollausbau kommt. Ein solcher mit 15 SMX und 1 GHz Basistakt könnte nochmals 20 Prozent drauflegen. Vielleicht zu Weihnachten.

Geforce GTX Titan im Test: 950-Euro-Schlachtschiff mit Bestwerten in jeder Disziplin - Geforce GTX Titan im Test: Zusammenfassung und Fazit

titan ultra ftw..... und dazwischen die 780er
 
Mich würde interessieren, warum die PCGH die Toxic (GPU 1200 MHz) nicht mitgebencht hat im Standardparcours.. Jeder der eine ordentliche HD7970 mit Wakü betreibt, kommt der Titan gefährlich nahe.
 
Zuletzt bearbeitet:
Nur 25% schneller als die 7970 Ghz, de Karte ist niemals 950 Euro wert.
 
Abwarten... Wo will man denn ne 780er platzieren? Viel Luft ist ja nicht zwischen...
Nur den RAM auf 3GB drosseln wird den Preis wohl nicht extrem drücken.

Doch wird es, da die Titanic keine 950€ wert hat, dass weis auch Nvidia, aber es finden sich welche die diese kaufen. Ich wette die GTX780 kommt mit 3 GB bei fast gleicher Leistung für 549€. Denk an meine worte :bigok:

Einfach nur krass ATI´s 350€ teil ist nur 20% langsamer, das ist kein Verhältnis mehr, 550€ hätte ich bezahlt für die Titanic aber das ist einfach nur "ohne worte" (und ich bin Nvidia Fanboy):wut:
 
Zuletzt bearbeitet:
BTW wenn ich das richtig im LUXX gelesen habe hat die Karte zur 690 bei 5760x1080 folgendes an Daten:

GTX Titan zur GTX 690

AVG FPS <-> MIN FPS
86,68 % <-> 94,14 % im schnitt ~


GTX Titan zur GTX 680

AVG FPS <-> MIN FPS
157 % <-> 134% im schnitt (Wenn man Hitman die min FPS weglässt)


irgendwie komisch oO

Also lohnt sich :d !? (Muss noch andere Benchmarks suchen die 5760x1080 machen)

Ist kaum langsamer als eine 690 denke man bekommen die locker flotter mit OC :-)

€: Sehe immer noch kein LINK wo ich bestellen kann^^
€: Gibt schon Wakü? Wenn ja Link xD
 
Zuletzt bearbeitet:
Alternate und casekind haben gelistet mom link kommt

---------- Post added at 15:38 ---------- Previous post was at 15:38 ----------

ALTERNATE
 
meine :fresse:

Was nun tun?
Ich war ja echt nicht übereuphorisch was die Leistung angeht. (30-40%) Aber das ist selbst mir etwas zu mau.
Dort wo die Leistung auf ne 680er steigt, (große Auflösung, TrippleScreen) zieht die GHz AMD immernoch mit.
Verdammte Axt. Jetzt hab ich schon eine 680er vertickt :fresse:

Sehe ich auch so. Ist ja fast noch schlimmer als befürchtet. Gerade mal rund 40% zwischen ner Titan und ner 680 im Durchshcnitt, mit 1200MHz kommt ne HD 7970 sogut wie immer an ne Titan in extremen auflösungen dran... Da bin ich ja gespannt, wie sich der Preis verhalten wird:fresse:
 
Mich würde interessieren, warum die PCGH die Toxic (GPU 1200 MHz) nicht mitgebencht hat im Standardparcours.. Jeder der eine ordentliche HD7970 mit Wakü betreibt, kommt der Titan gefährlich nahe.

Mitgebencht haben sie die Toxic ein bisserl, auch wenn etwas versteckt:
Geforce GTX Titan im Test: 950-Euro-Schlachtschiff mit Bestwerten in jeder Disziplin - Geforce GTX Titan im Test: Extrem-Benchmarks mit Downsampling/4K

Beachtlich: Während die Geforce GTX 680 weit abgeschlagen ist, liefern sich die mit Maximalboost laufende Geforce GTX Titan und Sapphires Toxic Radeon HD 7970, ebenfalls mit 6 GiByte VRAM bestückt, ein Kopf-an-Kopf-Rennen. Im kaum mehr spielbaren Bereich erringt die 1,2-GHz-Radeon sogar einen Achtungssieg mit 13,9 zu 13,6 Fps. Bei Serious Sam 3 fällt der Abstand zum Titan-Bestcase ebenfalls gering aus, mit dem üblichen Boost unter 900 MHz wäre ein grober Gleichstand zu verzeichnen.
 
Alternate und casekind haben gelistet mom link komm

Vielen Dank! Ihre Bestellung ist erfolgreich übermittelt worden und wird nun schnellstmöglich bearbeitet.


1 mal Asus Titan :)
Wakühler auch unterwegs
 
Lest euch mal die Seite im AnandTech-Artikel bezüglich Overclocking durch:

Klick!

So wie ich das verstehe, ist Titan in Sachen Overvolting nur minimal weniger kastriert als die GTX 680. :(
 
Da brauchts keine Zwei 7970 ne Wassergekühlte 7970 auf 1300 MHZ Ram auf 1500 und man hat ne Titan @ Stzock leistung. Wer dafür 950 Euro zahlt muss sich das arg schönreden schon klar.:)

es gibt da auch noch andere motive. eines ist 3DVision, ein anderes ist die software im allgemeinen.

btw,
ich hab erst gestern eine AMD-karte, die vorgestern für mein AMD-system geliefert wurde, zurückgeschickt. die hat die selben zicken gemacht, wie im letzten jahr meine 7970. grünes grieseln in dunklen bereichen, wenn man das bild über HDMI -> AVR auf (beide!!) beamer schmeisst.. über DVI mit adapter ist das bild okay, aber es gibt freilich keinen ton.. da stellt sich selbst die alte AMD-IGP besser an; auch wenn sie kein bitstream beherrscht.. AMD nervt tierisch und das will sich nicht jeder geben.
davor hatte ich für dem zweitrechner eine 7850 geordert, die schon kaputt hier ankam. sobald die karte gesteckt und mit dem NT verbunden war, liess sich der rechner nicht mehr anschalten. das NT blockierte.

ich bin immer bereit, viel geld für reibungslosen betrieb auszugeben.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ja ist doch logisch, schau mal an wie groß der Chip ist und da kannste nicht einfach 1,3V draufknallen...
 
meine :fresse:

Was nun tun?
Ich war ja echt nicht übereuphorisch was die Leistung angeht. (30-40%) Aber das ist selbst mir etwas zu mau.
Dort wo die Leistung auf ne 680er steigt, (große Auflösung, TrippleScreen) zieht die GHz AMD immernoch mit.
Verdammte Axt. Jetzt hab ich schon eine 680er vertickt :fresse:

Was redest du denn da für n Blech schau dir die Triple Screen Benches vom Luxx an wo die Karte skalliert ohne CPU Einfluss

Einerseits immer technisch auf den Stand der Zeit sein wollen u dann Full HD als Maßstab zu nehmen für solche Kaliber :rofl:
 
Doch wird es, da die Titanic keine 950€ wert hat, dass weis auch Nvidia, aber es finden sich welche die diese kaufen. Ich wette die GTX780 kommt mit 3 GB bei fast gleicher Leistung für 549€. Denk an meine worte :bigok:

Einfach nur krass ATI´s 350€ teil ist nur 20% langsamer, das ist kein Verhältnis mehr, 550€ hätte ich bezahlt für die Titanic aber das ist einfach nur "ohne worte" (und ich bin Nvidia Fanboy):wut:

+1
Genau das Gleiche habe ich auch schon gedacht!! ich kann mir nicht vorstellen, dass die 780 sehr viel langsamer (wenn überhaupt) wird.
Nennen wir es Titan, verkaufen es sündhaft teuer und kicken die Enthusiasten richtig in die Eier...
bin gespannt wie sich das entwickelt, vorallem preislich
 
@scully

man kann aber auch nicht ständig irgendwelche spezialszenarien konstruieren, nur um etwas mittelmäßiges gut darstehen zu lassen.
da soll nochmal jemand FHD mit 3DV laufen lassen und gucken ob sich die karte da besser anstellt. wobei ich es nicht glaube - solange wie ich dabei bin war stereoskopie immer ein zuverlässiger 40% -hit.

alternativ könnte auch jemand modbare spiele in die bereiche modden, downsampeln und mit abstrusem AA versehen, wo titan noch 30fps schafft, da wären dann alle anderen karten sich um faktoren aus dem rennen.

nur, und jetzt kommts: keiner würde für die drei user, die sowas machen eine karte auflegen. oder sie wäre halt noch einiges teurer.. wieder um faktoren.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Radiant: Ich halte es aber für sehr sehr unwahrscheinlich, dass es noch einen Ausbau für 15smx geben wird.
Ich denke der Kepler hat einfach sein maximum erreicht.
Wäre auch nicht ganz nachvollziehbar jetzt noch mehr in die Gen zu stecken, schließlich will man ja auch mal ne neue Gen. auf dem Markt schmeißen.

Ist doch nicht das erste mal, dass ein Chip nicht mit dem theoretisch maximal möglichen auf den Markt kommt.
 
Zuletzt bearbeitet:
ja ist doch logisch, schau mal an wie groß der Chip ist und da kannste nicht einfach 1,3V draufknallen...

Nunja, ich möchte zumindest die alleinige Kontrolle, was ich meiner Hardware zumute. Und diese Kontrolle erlangt man selbst bei Titan nicht. Das ist für mich enttäuschend.

Insgesamt hast du natürlich recht, 1,3 Volt sind auf Dauer nix für den Chip.
 
Sehe ich auch so. Ist ja fast noch schlimmer als befürchtet. Gerade mal rund 40% zwischen ner Titan und ner 680 im Durchshcnitt, mit 1200MHz kommt ne HD 7970 sogut wie immer an ne Titan in extremen auflösungen dran... Da bin ich ja gespannt, wie sich der Preis verhalten wird:fresse:

Bei CB sinds gar nur 29-35%. Erst im TrippleScreen steht ne 4 vorn (41%)
Aber der Abstand zur Tahiti bleibt konstant. Wie auch hier schon erwähnt wurde. Das Teil kommt irgendwie nicht richtig zu potte... Zumindest für die Rohleistung ist das mehr als Mau.


Bin schon drauf und dran die zweite 680er noch zu verkloppen und zwei 670er mit 4GB für quasi ohne Aufpreis reinzupacken. Mit OC bin ich auch auf 680er Leistung. Und im SLI geht auch deutlich mehr wie Titan allein.
Auf jedenfall jetzt kein Titan. Das ist Fakt. Die 950€ kann ich woanders besser wegschmeißen :fresse:
 
Ich werde mir wohl auch erstmal ne zweite GTX 680 anschaffen (nein, nehme nicht deine, will eine von EVGA:fresse:) Die 2GiB sollten doch wohl noch etwas reichen.
 
An und für sich betrachtet eine tolle Karte, für die Kategorie erstaunlich günstiger Verbrauch , klasse Kühler, das muß man als AMD user neidlos anerkennen. 2 davon würden mein Tripple Screen Setup adäquat befeuern, wäre der Preis nicht. Kritisieren möchte ich den nicht, immerhin die die GPU sehr groß, wer weiß wie hoch die Ausbeute ist, gut möglich das Titan sogar mit spitzer Feder gerechnet wurde und das ganze für Nvidia in einem Verlustgeschäft enden kann. Von daher zolle ich eher Respekt das man dem Enthusiast sowas zur Verfügung stellt.Denn niemand wird zum Kauf gezwungen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh