nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

:-) genau die geforce titanic

Na ja mal abwarten könnte ja noch ne mächtige überaschung geben
 

interessant :hmm:
ein paar Stündchen nicht da und schon wieder 10 seiten nachlesen, wobei hier überwiegend nur Geheule zu lesen ist.

BF3: Skalierung der Karten ist ja grottig.
Quad SLI = 1,7k € bei etwa 72fps
Tripple SLI Titan = 2,55k € ? bei etwa 80fps :rofl:
an was liegt es also ? am Spiel oder am CPU Limit mit schlappen 3,3gig :fresse2:
Abgesehen davon skaliert Tripple SLI bei den 680ern rein garnicht und quad nur geringfügig. Hier also ein weiteres Problem.
Deutlich interessanter aber der genaue Vergleich bei 5760x1080 in FC3, MP3 und Cryschiss3 mit 80%-100% Leistungssteigerung, während in Crysis bei popeligem fullHD gerade mal 30% Leistungssteigerung (1 vs 1) drin sind.
Warum 3 Karten ?? Mit 2 Karten hätte man deutlich besser rechnen können, da man die Skalierungen besser einordnen kann. :hwluxx:

Immerhin scheint Multimonitoring ein Thema zu sein. Das spielt mir schon in die Karten.
Desweiteren Tests mit 6GB vs 2GB ist doch kacke, wenn müssen die auch die 4GB Variante mit reinnehmen.

Bier leer..Nachschub holt^^
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ja das geheule ist selbstschutz ;-)

Obwohl ja noch gar nichts definitiv ist ;-)
 
Die letzten Seiten sind ja besser wie Kino. Himelhoch jauchzend ... zu Tode betrübt ... dazwischen eine Prise schwarzer Humor wenn ein geistig minderbemittelter erneut arroganzstrotzend über monetär minderbemittelte Harzer herzieht.

Mal im Enst, wenn die Titan es schon schafft weit über 200 Seiten zu füllen kann man schon was erwarten, insbesondere zu dem gemunkelten Preis. Sind ja nicht vor den Kopf gestoßen die HW-Entwickler bei NVIDIA. Die wissen was sie tun und was die Erwatungen sind, insbesondere wenn man so einen Namen als Produktbezeichnung hernimmt. Optisch ist die Titan, sofern die Bilder stimmen ein Sahnestück (die kann man nach Gebrauch wie einer hier sich wünschte als Kunstwerk an die Wand nageln). Leistungsmäßig verwundern mich allerdings die gelakten Slides. Der Performancezuwachs bei Crysis ist gelinde gesagt enttäuschend ... es fällt schwer dies zu glauben, der Zuwachs muss größer sein im Vergleich zu den recht betagten 680/7970.

Naja, und wieder ein paar Nächte schlafen bis mer schlauer sind.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Crossfire... ruckelt. :drool:

Ach, das wird schon....
Meine beiden Hydros sind immer noch Zucker - werden nur durch nen Single-Chip ersetzt, der min. 25% in BF3 schneller ist.
Allerdings finde ich das 80Hz Vsync Feature schon nice.

Go EVGA - Titan@HydroCopper@1.000MHz@1.000€
 
Zuletzt bearbeitet:
Grinsi schau dir doch mal den lächerlichen CPU Takt für ein triple Setup an noch Fragen?
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

CPU-Limit FTW!!

??
 
Zuletzt bearbeitet:
Wird auf jeden Fall spannend. Entweder wir werden alle überrascht und das Teil ist so heftig, wie es sich alle versprochen haben oder wir werden so negativ überrascht, dass aus dem Titan der Titanic wird :d
Wie auch immer; ich finde es bis jetzt spaßig ;)
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ayay Chef
 
Was ist denn an dieser 80Hz Vsync-Option so neu? Dürfte doch das selbe sein wie Frame Limiter auf 80Hz + Vsync on, oder verwechsel ich da was?
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Vsync on heißt 60Hz.
Bisher

Schon mal beim 120Hz LCD Vsync an gemacht? Zack back @60Hz.
Nun 80Hz - das wäre nice. 120 min FPS in BF3 schafft die Titan alleine auch nicht, 80 schon.
 
Zuletzt bearbeitet:
ne scully, nur 3,3 gig ;)
Das DAFÜR die 3 anderen Kandidaten so derbe skalieren ist dann aber iwie schon porno :hmm: :fresse:

Das Multimonitoring ein Thema ist spielt mir bei den Benches usw in die Karten, das ich direkt nen guten Vergleich haben werde anstatt erst auf Userreviews warten zu müssen.
Da es schon auf Folien gezeigt wird erhoffe ich mir auch anständige Tests von den HW Seiten. Das mit Titan, 680SLI 2GB und 680SLI 4GB und die roten natürlich.


@ nicht ganz OT, aber was mir hier auf die Nerven geht:
Alle hacken auf den Roten rum wegen MR ... ja das suckt. Je mehr Karten desto schlimmer.
NV hat dafür aber das Problem mit dem Inputlag. Je mehr Karten bei NV, desto höher der Inputlag, dafür spürbar wenig MR. Letzteres gefällt MIR besser.

@ 331BK
vielleicht steht mein SLI ja bald auch im MP ;)

---------- Post added at 20:34 ---------- Previous post was at 20:33 ----------

Vsync on heißt 60Hz.
Bisher

aha...und wenn die nen 120hz TFT haben !!? ;) :d
 
alles auf Stock VS Stock gesehen natürlich alles andere braucht man ja nicht wirklich vergleichen. :stupid:

Warum?

Nur weil da nicht ab Werk GHZ Edition dran steht

Bei letzterer 680er war man tief betrübt das man nicht OC konnte,jetzt lässt man den Leuten den Freiraum anstatt gleich voll aufzudrehen u es ist wieder nix;)
 
Zuletzt bearbeitet:
die 50% sind ja ok wenn man von 1080p ausgeht. Auf den Folien sieht man aber nur 30-35%@ 1080p. Bei Tripplemonitor das Leistungsplus von 80-100% in nicht CPU limitierenden Games ist schon fett, wobei hier ja auch schon ne Limitierung statt finden müsste bei den 3 Kandidaten.
Allerdings ist bei der Steigerung von 80-100% ein Tripple am Start..was einen wieder grübeln lässt und man eventuelle Vergleichswerte aus dem Netz fischen müsste. Falls es die gibt.
Ich kenne eigendlich fast keine Trippletests der 680, eigendlich nur quads.

Dozer, ich spiele eigendlich immer mit adaptive vsync on, wo liegt bei dir das Problem das es wieder auf 60hz zurück geht ?
3xDLDVI sollte klar sein, da HDMI nur 60hz unterstützt. DP sollte auch 120hz unterstützen.
 
mmmh Elster sagt ich bekomme 2300€ zurück....

Was mach ich mit dem Geld nur :asthanos:
 
Die Ägypter haben in 1920x1200 (ca. 2 Megapixel) gebencht mit einem Titan und unbekannter CPU. Das dürfte zumindest hier und da CPU-limitiert sein.
Nvidia hat in 5760x1080 (ca. 6 Megapixel) gebencht mit drei Titans und schwacher CPU.

Erstens sind die Performancekosten zu höheren Auflösungen nicht linear, sondern etwas geringer (siehe CB Skalierungstests). Also 6MP fordert drei GPUs schonmal etwas weniger als 2MP eine GPU.
Zweitens braucht SLI mehr CPU-Power als Single, bei meinen Tests bis zu 10% mehr im CPU-Limit. Anders gesagt - das CPU-Limit kommt früher mit SLI bzw. verstärkt sich.
Drittens muss die CPU bei Surround mehr berechnen, weil durch das viel breitere Sichtfeld auch mehr sichtbar ist. Wenn am Rand nix los ist, ist das nicht schlimm, aber es kann eben auch Performance kosten.

Also gleich drei Dinge, die das sowieso schon üble CPU-Limit noch übler machen. Damit sind die Benchmarks von Nvidia eigentlich kaum zu gebrauchen mMn - es ist logisch, dass die beiden Setups sehr nah zusammenliegen im CPU-Limit. Die großen Ausreißer zeigen wohl nicht die eigentliche Leistung, sondern nur das VRAM-Limit der 690er.
 
Die Ägypter haben in 1920x1200 (ca. 2 Megapixel) gebencht mit einem Titan und unbekannter CPU. Das dürfte zumindest hier und da CPU-limitiert sein.
Nvidia hat in 5760x1080 (ca. 6 Megapixel) gebencht mit drei Titans und schwacher CPU.

Nicht unbedingt schwach aber nen sinnfreien Takt für so ein Monstersetup u trotzdem sind da noch ordentlich Zuwächse zu sehen

Ich hau Intel auf die Schn... wenn da nicht bald mal was hochprozentiges kommt im CPU Bereich:d
 
Zuletzt bearbeitet:
er meint Titan kaufen :)
 
Was das wohl gibt...hm
Also was der neue Turbomodus anders machen soll erschliesst sich mir erstmal nicht und was sollen bitte Leute mit nem 60Hz Monitor mit 80Hz vsync? Ist das quasi Monitor Overclocking oder wie bekommt man ausm 60Hz Panel 80Hz raus. bzw. was nützen mir 80fps wenn der Monitor nur 60 ausgeben kann? Fragen über Fragen
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh