nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
^ in der Tat.
Und drei Titans sollten sich stärker von zwei 690ern absetzen. Teils sind das nur ca. 30% zu einer 680, teils massiv mehr, wenn dieser der VRAM ausgeht. Hm...
 
Jo Crysis 3 sieht schwach aus auf dem Screen
 
Da wo die Leistung nicht über das Quad System geht hängt er wohl im CPU Limit:)

CPU 3,3GHz ja ne is klar:shot:
 
Zuletzt bearbeitet:
Stimmt, grob düfte das bei Crysis drei rund 30-35% mehr Performance einer Titan gegenüber einer 680 sein. Irgendwie doch recht wenig... Naja, vllt kommt da noch was. Aber an der Theoretischen Leistung verglichen, müsste die Titan da auch rund 50% schneller sein...
 
Bei 30% mehr Leistung als GTX680 ist Titan nur 600 € wert.
Also nur 15-20% schneller als die 7970 Ghz in crysis3...
 
Zuletzt bearbeitet:
omg sonne...

ihr redet von einem Limit

wäh hier Limit wäh hier da Limit
das Limit ist weg wenn es keins mehr ist
und das ist es dann wenn soviel Bandbreite da ist, das der GPU die Puste ausgeht

Du hast es nach wie vor nicht kapiert!!!
Es wird von AVG! FPS gesprochen. Es ist ein Durchschnitt. Sollte dir bewusst sein...
Und ein Durchschnittswert wird bei zunehmender Bandbreitenabhängigkeit immer mehr eingedrosselt. Nämlich weil die Bandbreite eben eine höhere FPS Leistung limitiert!
Die GTX 680 skaliert ca. 2:1 allein auf dei 670er. Schau dir Benches an, völlig unabhängig von uns hier. Und du wirst verstehen...

Das ist ein Limit! kein absolutes. Aber das ist auch völlig egal.
Versuch die Tatsachen hier nicht auf die Rhetorikschiene zu drehen, darauf habe ich keine Lust. Denn das macht man in meinen Augen genau dann, wenn einem die Argumente ausgehen. Oder wenn man sich über Rhetorik unterhällt. Aber nicht bei GPUs.
 
Bei 30% mehr Leistung als GTX680 ist Titan nur 600 € wert.
Also nur 15-20% schneller als die 7970 Ghz in crysis3...

Wenn das wirklich so wäre, wäre GK110 wohl eher ein Titanchen :fresse: Ich denke aber trotzdem, dass da rund 50% mehr Leistung drin sein sollte. Zumindest die angegeben 250 Watt und der Takt stimmt. Die Leistung dürfte sich jetzt ziehmlich genau berechnen lassen.

Eins steht fest: Den Kühler der Titan hätte ich gerne auf meiner 680:fresse:
 
Zuletzt bearbeitet:
Nvidia has detailed its latest high end graphics card, the GTX Titan, confirming its existence with some impressive numbers that should cement its position as the world's fastest GPU.

Built around the GK110 Tesla technology first used in the Titan supercomputer - hence the name - the GTX Titan is Nvidia's most powerful graphics card to date, with a whopping 2,688 CUDA cores and 7.1 billion transistors, which produce 4,500 Gigaflops of processing power. Each card comes with 6GB of GDDR5 RAM, running along a 384-bit interface which should be more than sufficient for playing the latest games at above HD resolution. It's DirextX 11.1 compatible, so should support all the latest graphics tweaks such as tessellation, and Nvidia's own PhysX physics effects.

Designed as a single-GPU replacement for the current top-end GTX 690, which is actually two GTX 680 cores bolted to one PCB, the GTX Titan promises improved performance while using less power and producing less heat. A redesigned cooler with an extended aluminium heat stack dissipates heat faster than Nvidia's current design, while the 90mm fan is tied to both RPM and voltage control to more accurately determine when to kick in. With a TDP of 250w, you'll certainly need it.

SLI is fully supported, so if you have a capable power supply and bottomless pockets you could potentially run multiple Titans for high frame rates even at multi-monitor resolutions. Although Nvidia has yet to share exact benchmark results, some rough figures suggest games like Crysis 3, Far Cry 3 and Max Payne 3 can expect roughly twice the performance over a GTX690 setup.

Perhaps more exciting news is the addition of GPU Boost 2.0, an evolution of the software introduced with Nvidia's 600-series graphics cards. Built into the video driver, GPU Boost 2.0 will let Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups.
:d:d:d

It will also allow you to "overclock" your display, running it at a faster sync rate than it officially supports to squeeze out some extra frames per second. As an example, a monitor rated for 60Hz refresh only could run at up to 80Hz, meaning twenty extra frames per second are being displayed.

The one sticking price will almost certainly be the price - Nvidia would only confirm RRP pricing with us today, as it will be up to its hardware partners to set their own prices when the cards launch later this week, but you'll easily be paying over £800 per card. We'll have to wait until then to see whether the benchmark scores can back up Nvidia's claims that the Titan is the fastest card around, but the early indications look promising.

http://www.expertreviews.co.uk/graphics-cards/1297972/nvidia-gtx-titan-graphics-card-announced
 
Ohne Kontext sind Folien immer doof.
Ich tippe eher darauf, dass man hier darstellen will, wieviel besser TITAN im selben Formfaktor ist.

Denn für 30% mehr Leistung gibt niemand 80% mehr Geld aus. Da kaufe ich mir gleich eine GTX690 und spiele mit einem Monitor in 24:9!

/edit: Aha, also doch Übertaktung des Monitors.
 
Zuletzt bearbeitet:
^ und was, wenn der Monitor kaputt geht dabei? Find ich jetzt etwas komisch diese Lösung.
 
Hofentlich ist der screen Müll .
38 FPS VS.48 FPS bei Crysis3 das kann doch nur ein schlechter scherz sein das habe ich mit meiner @1250 gehabt aber so was von locker ehr um die 50 FPS.
Hoffe das da was nicht stimmt Treiber problem oder so was vielleicht.
 
Zuletzt bearbeitet:
Ohne Kontext sind Folien immer doof.
Ich tippe eher darauf, dass man hier darstellen will, wieviel besser TITAN im selben Formfaktor ist.

Denn für 30% mehr Leistung gibt niemand 80% mehr Geld aus. Da kaufe ich mir gleich eine GTX690 und spiele mit einem Monitor in 24:9!


Eventuell will man hier den niedrigen Stromverbrauch in den Vordergrund stellen. Wenn man dem Ding aber gut Spannung gibt, mit dem neuen Boost 2.0, ist vielleicht deutlich mehr drinnen.

Aber es wäre schon Ironie des Schicksals: Monate lang mega Hype und dann 30% :fresse:
 
Zuletzt bearbeitet:
Hofentlich ist der screen Müll .
38 FPS VS.48 FPS bei Crysis3 das kann doch nur ein schlechter scherz sein das habe ich mit meiner @1250 gehabt aber so was von locker ehr um die 50 FPS.
Hoffe das das was nicht stimmt.

Richtig, wenn das der Durchschnitt wäre, wäre eine 1250 Mhz 7970 genauso schnell wie Titan:d -> Für 800€? Nie im Leben. Und sicherlich wird man damit keine 690 ersetzen können. Multi-Monitor Auflösungen schön und gut, ne GTX 690 bleibt aber weiterhin im Durchschnitt die mit abstand schnellste Karte.

Wenn man dem Ding aber gut Spannung gibt, mit dem neuen Boost 2.0, ist vielleicht deutlich mehr drinnen.
Der Boost sollte aber ständig aktiv sein.
 
Deswegen sind solche Paperlaunches auch dumm für eine Firma.
Wir wissen nicht den Kontext der Folie:
Das kann um absolute Leistung gehen oder
um die Leistung bei gleicher Lautstärke.

Warten wir doch einfach bis Donnerstag ab. Ich meine, kaufen kann man doch anscheinend vor nächster Woche sowieso nicht. Und 800€+ sind bei 30% dermaßen außen vor.
 
50 Watt mehr als eine GTX680 aber nur 30% schneller, mehr als 600 Euro ist die Karte dann wirklich nicht wert, OK wegen den guten Kühler dann 650 Euro.

GTX680
1536 Shader
256 Bit SI
32 ROPS

Titan
2688 Shader
384 Bit SI
48 ROPS

Eig. muss die Karte 50% schneller sein, möglich das etwas limitiert oder die Game Engine von crysis 3 hat ein Bug...
 
Zuletzt bearbeitet:
Perhaps more exciting news is the addition of GPU Boost 2.0, an evolution of the software introduced with Nvidia's 600-series graphics cards. Built into the video driver, GPU Boost 2.0 will let Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups
Tjo
 
Richtig, wenn das der Durchschnitt wäre, wäre eine 1250 Mhz 7970 genauso schnell wie Titan:d -> Für 800€? Nie im Leben. Und sicherlich wird man damit keine 690 ersetzen können. Multi-Monitor Auflösungen schön und gut, ne GTX 690 bleibt aber weiterhin im Durchschnitt die mit abstand schnellste Karte.


Der Boost sollte aber ständig aktiv sein.

Man wird schon 4 Titan brauchen um Quad-690 mit Abstand zu schlagen.
 
Vor allem wüsste ich nicht, woran es da hakt? 50% mehr Rechenleistung, 50% mehr Bandbreite...wo geht die Leistung hin? Ist das berühmte Nvidia-Frontend bei 2000+ Einheiten evtl. doch schon am Ende?
 
Die viert Folie macht mir Sorgen.

36/37 FPS bei der GTX 680
48/49 FPS bei der Titan

Wenn ich das mal so grob schätzen darf.

gehen wir von den besseren werten aus:

37 FPS = 100% GTX 690
49 FPS = 132% TITAN

32% mehr Leistung klingt nicht so ultra wie ich es mir vorstelle. Bin mir allerdings nicht sicher ob es sich hier um eine CPU Limit handelt. Denke aber nicht "Highest Settings" 3,5 GHz @ 1920x1080.


Hmm bin immer noch auf echte Benchmarks gespannt....
 
Vor allem wüsste ich nicht, woran es da hakt? 50% mehr Rechenleistung, 50% mehr Bandbreite...wo geht die Leistung hin? Ist das berühmte Nvidia-Frontend bei 2000+ Einheiten evtl. doch schon am Ende?

Jup, sieht schon komisch aus. Auch, weil die ROPs ja auch um 50% ansteigen... irgendwie hakt da noch etwas. Muss da noch ein Wundertreiber kommen?:asthanos: Die FPS passen recht gut mit dem Crysis 3 Beta Benchmark von PCGH überein
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Beta-Test-Erste-Benchmarks-1046328/
Die 7970 GHz liegt mit aktuellen Treibern bei rund 40Fps.
 
Zuletzt bearbeitet:
@login
Nö das ist GPU limit bei 800 euro hoffe ich das der Treiber Fail ist.
Das Spiel ist so Hardcore in Full HD
 
Zuletzt bearbeitet:
Bei 30% mehr Leistung als die GTX680 wäre Titan genau 75% schneller als die GTX580, zu GT200 vs. GF100 Zeiten waren es auch nicht mehr, tja hätte Nvidia den GK104 nicht als erstes vermarktet wäre das nicht aufgefallen. Dann hätte man gesagt GK110 ist 75% schneller als GF110. In den vergangen Jahres waren 60-80% mehr Leistung drine, mehr hat eig. auch keiner erwartet, also die 30% GTX680 vs. Titan könnten stimmen müssen aber nicht.
 
Zuletzt bearbeitet:
Eine 780GTX würde mMn nicht mehr dazwischen passen. Den Titan hätten sie eher 780GTX nennen sollen;)
 
Warten wir doch einfach ab. Die Folie sagt eben nichts, da niemand den Kontext kennt.
Mit 5 Rasterizer hat man bei 876MHz 5% mehr Rasterizer Leistung und 46% mehr Geometrieleistung.

Laut dem Text soll die TITAN der Single-GPU Ersatz für die GTX690 sein. Das kann man wohl mit 30% zur GTX680 kaum rechtfertigen.

Designed as a single-GPU replacement for the current top-end GTX 690, which is actually two GTX 680 cores bolted to one PCB, the GTX Titan promises improved performance while using less power and producing less heat.

/edit: Ich finde es lustig, dass nVidia die DP-Leistung auf 1,3TFLOPs begrenzt. Da will man wohl K20x keine Konkurrenz machen. :d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh