nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
hier gehts aber nicht um RMA, sondern man muss ja folgende Produkte an den Mann bringen

schaut Ivy Bridge an, statt verlöten kommt billig WLP drauf, wieso wohl? weil intel spart und weiss, dass die Teile mit OC jede Nachfrage nach Haswell im Keim ersticken
und Nv machts bei der 680 um die 780 an den Mann zu bringen, denn ne 680 Lightning wo man VCore nach Lust und Laune einstellen kann, ist mit Sicherheit schon auf 780 Stock-Niveau

das ist der einzige Grund, nicht Green IT Blödsinn oder RMA oder sonstwas, RMA sind wie Personalkosten = Immerkosten, die sind schon kalkuliert bevor der 1. Chip das Licht der Welt erblickt
ich hab 4 Jahre Autoindustrie Premiummarke mitentwickelt (Trinova/Aerospace) und ich weiß wie Produktzyklen vorher festgelegt werden und auch die Parameter innerhalb derer ein Produkt läuft/nicht läuft/nicht laufen soll

davon abgesehen ist Titan keine 680, keine 690, keine 780, kein Big K, keine Ares / Mars
NVidia hat einfach den Top K20 für den Desktop modifiziert und haut jetzt alles raus was Kepler noch hat, so kommt ohne Zutun Präsenz am Markt und Geld rein, bis Maxwell endlich auf AMD losgelassen wird

die Karte wird innerhalt des technischen Machbaren kaum limitiert sein, eben weils sowas wie ein M3/RS4/AMG whatever ist
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Das wär ein traum der amg von nvidia
 
mit Tegra und Shield auffem Rücksitz für die Kinder ;)
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Genau
 
Soweit ich weiß, soll auch durch anheben des PT kein Garantieverlust entstehen.

Steht das explizit irgendwo?
Weil idR heist Garantie eben freiwillig vom Hersteller/Boardpartner. Und in den Klauseln dazu steht idR der Ausschluss jeglicher garantie Leistungen beim Betreiben außerhalb des Serienzustandes. Das schließt das Powertarget per se erstmal mit ein. Könnte aber sein, das es da auch Ausnahmen gibt. Weis ich nicht genau ;)

davon abgesehen ist Titan keine 680, keine 690, keine 780, kein Big K, keine Ares / Mars
NVidia hat einfach den Top K20 für den Desktop modifiziert und haut jetzt alles raus was Kepler noch hat, so kommt ohne Zutun Präsenz am Markt und Geld rein, bis Maxwell endlich auf AMD losgelassen wird

könnte schon sein... Andersrum betrachtet, liegt es aber mindestens genau so nahe einfach anzunehmen, das NV von Anfang an geplant hat, den GK100 bzw. GK110 für den Desktop zu bringen. Sozusagen als ganz normale Karte... Man jetzt aber, günstigerweise der aktuellen Marktsituation geschuldet, ganz andere Maßstäbe auf den Plan rufen kann.
Es war schon etwas verwunderlich, das kurz nach Tahiti Release die Gerüchte die Runde machten, es wird kein GK100 für den Desktop geben... Stattdessen hat man GK104 auf Takt geprügelt. Und das auch auf quasi biegen und brechen. Es kann mir niemand erzählen, das das so geplant war, wie es gelaufen ist. NV hat nie so einen quasi Bandbreiten abhängigen Chip am Markt gehabt. Früher hätte man sich da wenigstens noch zu mehr VRAM Takt hinreißen lassen.
Auch ist es in meinen Augen absolut unwarscheinlich, das NV von Anfang an wollte, das es so ne "Titan" Karte gibt. Denn mit so einem Teil bekommt man freilich ein paar Sympatien, aber gewinnt nicht wirklich viel. Das Teil ist, selbst wenn es nur 600€ kosten würde, alles andere als Massentauglich.
Dennoch verkauft NV als K20/K20X vollwertige Grafikprozessoren mit allem drum und dran. Es dürfte außer Frage stehen, das die GK110 GPU für den Gamermarkt vorgesehen war. Sonst hätte das Teil keine ROPs, keine TMUs usw. bekommen. Denn das braucht der GPGPU Markt nicht. Da läuft alles auf die ALUs ab. Und davon möglichst viele, vor allem, da eine Taktskalierung nicht immer zu 100% gegeben ist.
 
fdsonne schrieb:
Auch ist es in meinen Augen absolut unwarscheinlich, das NV von Anfang an wollte, das es so ne "Titan" Karte gibt.

Bei den steigenden Waverkosten für sehr große Chips und das Risiko das Nvidia bei jedem Prozess geht könnten dafür sprechen dass es spätestens im Sommer/Herbst 2011 so geplant wurde und man einfahc das Risiko einging ne langsamere Karte im Gamermarkt zu präsentieren.

Die Brandmarkung als Titan halte ich aber für einen Fehler, immerhin fehlt die Verbindung dann zu der GTX 7XX Reihe komplett weil das Ding nen anderen Namen bekommt.
 
Zuletzt bearbeitet:
Die Brandmarkung als Titan halte ich aber für einen Fehler, immerhin fehlt die Verbindung dann zu der GTX 7XX Reihe komplett weil das Ding nen anderen Namen bekommt.

Ich glaube nicht das das Marketing von Nvidia Nachhilfe aus der Richtung benötigt^^

Der Name passt zu der Leistung die er entfalten wird,errinnert an den schnellsten Großcluster derzeit weltweit,u steht außerhalb der Serie
 
Zuletzt bearbeitet:
Ich glaube nicht das das Marketing von Nvidia Nachhilfe aus der Richtung benötigt^^

Also du findest es gut, dass man High end und Super High End in zwei unterschiedliche Namen aufdröselt?
Find ich weniger.

PS: Lass mir doch mal meine Meinung, ich lasse dir auch deine. ;)
 
Super Highend :d
Titan ist auch nur ein Stück Hardware, worüber man 2014 nicht mehr groß nachdenken wird.
 
Super Highend :d
Titan ist auch nur ein Stück Hardware, worüber man 2014 nicht mehr groß nachdenken wird.

Sehe ich genauso. Titan hat nichts besonderes, was GF110, GF100, GT200b, GT 200 oder auch G80 nicht auch hatte. Und ich stimme dir Schaffe auch zu. Für mich hätte man das Ding besser auch GTX 780 oder auch 780 Ultra nennen sollen;) Nvidia versucht einfach, mit nem normalen High-End Flaggschiff den Usern doppelt so viel Geld aus den taschen zu ziehen, auszunehmen eben...
 
Bei den steigenden Waverkosten für sehr große Chips und das Risiko das Nvidia bei jedem Prozess geht könnten dafür sprechen dass es spätestens im Sommer/Herbst 2011 so geplant wurde und man einfahc das Risiko einging ne langsamere Karte im Gamermarkt zu präsentieren.

Wann genau, ist ja uninteressant.
Ich könnte mir sogar vorstellen, das NV erst nach! Tahiti Release das Konzept umgeswitcht hat. Denn ein GK104 im Vollausbau produziert seit sagen wir Ende 2011 (also kurz vor Tahiti) wäre problemfrei auch in GTX 680 benennbar, auch wäre der Takt anpassbar nach oben hin.
GK100 wäre wohl so oder so nicht von Anfang an gekommen. Dafür waren die Gerüchte vor GK104 Release zu knapp. Auch wäre so ein GK100 wohl ebenso mindestens um die 6,5-7Mrd Transistoren schwer geworden. Es deutete alles darauf hin, das erst die Mittelklasse, später dann die HighEnd Chips verkauft werden sollten. Zumindest habe ich so den Eindruck rückblickend.
GK100 wurde dann ganz gestrichen und man hat das Teil als GK110 quasi mit weiteren Features umgebaut. Dann erst auf den Tesla Markt, wohl den Verträgen geschuldet. Mittlerweile scheinen aber genügend Chips vom Band zu sein. Bzw. ein paar, wenn die 10k als erste Ladung stimmen. Fügt sich also ebenso ins Bild.
Und da AMD aktuell nicht den Eindruck macht, signifikant mehr Leistung in den nächsten paar Wochen rauszuhauen, kann man so ein Titan Objekt auch mal bringen.

Ich würde dabei aber fast meinen Hintern verwetten, das GK110 auch auf kleineren Karten verbaut werden (muss). Denn weder absolut gesehen gering abzusetzende Tesla K20/K20X Karten noch die teuren Titan Karten werden für viel Gewinn sorgen. Es sei denn, man finanziert den Spaß quer. Wobei immer nur querfinanzierten auch nicht aufgeht ;)
 
Nvidia versucht einfach, mit nem normalen High-End Flaggschiff den Usern doppelt so viel Geld aus den taschen zu ziehen, auszunehmen eben...

Nvidia versucht einfach auf dem Markt zu bestehen nix weiter:)

Und wie man sieht tun die Disscountpreise auf dauer keinem Konzern gut

Erfolg wird letztendlich nicht daran gemessen wer das billigste vom billigsten released,sondern Produkte zu Preisen die gesund sin, u die der Interessierte bereit ist zu bezahlen

Und wenn Titan zu den Preisen weg geht wie erhofft,dann ist es nur legitim u vernünftig,diese Schiene zu fahren,u sich nicht auf die Dumpingspielchen einzulassen
 
Zuletzt bearbeitet:
Titan wird auch 2014 die beste Single Gpu bleiben
Glaube ich nicht, Titan ist ca. 35% schneller als eine 7970 Ghz Karte auf 28nm Basis, ein 20nm ATI Chip mit 50% Leistungssteigerung gegenüber Tahiti wäre dann schneller als Geforce Titan.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hätte AMD jetzt ne 8970 auf Lager, würde der GK110 wohlmöglich als GTX780 kommen.
Ist nun aber nicht so, man hat noch Chips über, ist in aller Munde und liefert eine Karte, die evtl. einen großen Tick schneller ist, als jede Konkurrenz.
Dazu die Story mit Cray Titan und fertig ist die extra-vagante Story.
Die GTX680 bleibt stabil und die Leistungskrone in allen Benches hat man auch noch inne.
Just Business.
Entscheidend für mich ist, wieviel Spaß das Modell machen wird. Basis-Performance und OC-Headroom.
 
Titan wird auch 2014 die beste Single Gpu bleiben

Gesendet von meinem LG-P880 mit der Hardwareluxx App

Woher willst du das wissen?

Glaube ich nicht, Titan ist ca. 35% schneller als eine 7970 Ghz Karte auf 28nm Basis, ein 20nm Chip ATI High End Chip mit 50% Leistungssteigerung gegenüber Tahiti wäre dann schneller als Geforce Titan.

Was echt nur 35%? Dann hab ich ja bereits eine Titan im Rechner, auch wenn sie übertaktet ist. :d
 
doch G92 war Bandbreitenabhängig fdsonne, wobei das ne andere Architektur und einen anderen Grund hatte
G92 war genau das gleiche wie GK104, die Wandlung vom Heizer (G80) zum Ultralowcost Energysaving Zwischending (G92) auf dem Weg zur neuen Architektur (GT200)
das gleiche ist mit GK104 passiert, nur halt auf dem Weg von Fermi GF100, dann optimiert GF110, probeweise GK104 auf dem Weg zu GK110

stellt euch vor NV hätte GK110 so wie er jetzt ist statt des GK104 ohne Optimierung auf die Spielewelt losgelassen
das Geschrei wäre wie bei der 480 oder beim R600 gewesen...

das Ding war natürlich geplant, ich denke (und das ist nix Fanboykram) die denken da in wesentlich größeren Dimensionen als AMD
schade eigentlich das AMD nicht mehr aus der GCN macht und wenn sie mit GK110 gleichziehen kommt Maxwell
 
AMD hat 2012 genau 1,2 Milliarden Verlust gemacht...die sparen aktuell und die Produkte verschieben sich leider alle nach hinten :fresse:
 
Re: nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion]

Glaube ich nicht, Titan ist ca. 35% schneller als eine 7970 Ghz Karte auf 28nm Basis, ein 20nm ATI Chip mit 50% Leistungssteigerung gegenüber Tahiti wäre dann schneller als Geforce Titan.

Seit wann kommen die neuen Karten in 20 nm bzw seit wann ist die Titan nur 35% schneller ?

Gesendet von meinem LG-P880 mit der Hardwareluxx App
 
Glaube ich nicht, Titan ist ca. 35% schneller als eine 7970 Ghz Karte auf 28nm Basis, ein 20nm ATI Chip mit 50% Leistungssteigerung gegenüber Tahiti wäre dann schneller als Geforce Titan.


1. ist die genannte GHz-Edition nicht der Ur-Tahiti, sondern schon der maximal ausgequestschte Tahiti XT2
2. ist das Design am Ende, jetzt kommt Titan und der ist ohne jede GHz-Edition was auch immer vor dem Tahiti X2, mit OC sehen wir dann nochmal nach deinen 35%
3. muss AMD erstmal 75% mehr Cores auf dem DIE unterbringen wie es Nv vorgemacht hat, was ich noch nicht so sehe (TDP/Overhead etc)
4. wie gesagt muss 20nm erstmal zeigen was da reinpasst und zu welchen Konditionen
 
Nvidia versucht einfach auf dem Markt zu bestehen nix weiter:)

Und wie man sieht tun die Disscountpreise auf dauer keinem Konzern gut

Selbst 300€ halte ich für keine Dumpingpreise, vor allem nicht für ne normale performance-klasse:stupid: Man kann auch alles schönreden, was nvidia macht... Die GTX 680 könnte nvidia sicherlich auch für 300€ anbieten und würden dann immer noch gewinne en masse machen...

Wie gesagt, ich bin mit den Preisen weiterhin nicht konform und sehe soetwas auch nicht als gerechtfertig.
 
Selbst 300€ halte ich für keine Dumpingpreise, vor allem nicht für ne normale performance-klasse:stupid: Man kann auch alles schönreden, was nvidia macht... Die GTX 680 könnte nvidia sicherlich auch für 300€ anbieten und würden dann immer noch gewinne en masse machen...

Wie gesagt, ich bin mit den Preisen weiterhin nicht konform und sehe soetwas auch nicht als gerechtfertig.

Dem kann ich nur zustimmen. Anscheinend zahlen hier einige gerne viel und freuen sich noch einen ab, weil die Konkurrenz so schwach ist.
 
Es war doch von 2014 die rede, du wirst 2014 mind. 2 Karten in 20nm sehen.
35% schneller als die 7970 Ghz, warte einfach bis morgen.

Sehe ich ähnlich. Selbst wenn die 8970 nur 15% auf die GHz Ed legen sollte, wäre man keine 20% mehr von Titan entfernt. Aber das ist erstmal uninteressant: Morgen kommt GK110:d

Dem kann ich nur zustimmen. Anscheinend zahlen einige hier gerne viel...
Ja. ich meine, wir reden hier von Preisen, die man seit Jahren nicht erreicht hat. Grob umgerechnet wären das um die 1600-1800DM! Ich kann mich nicht erinnern, dass selbst ne Geforce 2 Ultra soviel gekostet hat. Viele wollen es einfach nicht begreifen: GK110 ist ganz normales High-End, nichts, was wirklich einzigartig ist (bis auf die 6GiB Vram, die aber eher optischer natur sind)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh