nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ich habe diese Boost Bios auf meine beiden Karten geflasht dann wieder meine Original Bios wieder drauf gepackt. Die Karten laufen bei 3D dann auf 1100Mhz und mit MSI Afterburner habe ich auf 100FPS gefixt so Spare ich auch genug Kosten. Das Schlimme ist das ich eher CPU Limit habe als GPU Limit.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf jedenfalls halte ich das 512Bit SI erstmal für ein Gerücht. Ich denke weiterhin, dass die Karte ein 384Bit SI bekommt.

OBR Benchmark könnten auch durch ein großes Interface so stark ausgeprägt sein Richtung 690er

Vielleicht haben einige Tesla Samples bekommen um die Leistung zu verschleiern oder Leaks offen zu legen
 
Zuletzt bearbeitet:
Ist bei mir genauso, hab mir erst vor kurzem eine GTX 670 für 305 Euro geholt, weil das P/L da nicht zu verachten war.

Dito so mache ich seid Jahren :bigok: Ich habe auch meine 7970 mit wenig Verlust Verkauft und mir zwei 7950 geholt. Mit Thunderburne haben wir dann getestet er mit seine 7970 und ich mit meinen beiden 7950 der unterschied war in Game halt dich fest gerade mal 5-7 FPS und dafür Zahle ich nicht 150€ mehr.

---------- Post added at 01:42 ---------- Previous post was at 01:36 ----------

OBR Benchmark könnten auch durch ein großes Interface so stark ausgeprägt sein Richtung 690er

Vielleicht haben einige Tesla Samples bekommen um die Leistung zu verschleiern

scully1234 Benchmark sagen nichts aus. Ich bin eher gespannt was die in Game macht. AMD oder NV optimieren gerade für 3DMark besonders gut ihre Treiber dafür laufen manche Spiele Scheiße.
Bei 3Dmark egal AMD oder NV läufen die Treiber seid Jahren am besten.
 
Zuletzt bearbeitet:
Ich habe diese Boost Bios auf meine beiden Karten geflasht dann wieder meine Original Bios wieder drauf gepackt. Die Karten laufen bei 3D dann auf 1100Mhz und mit MSI Afterburner habe ich auf 100FPS gefixt so Spare ich auch genug Kosten. Das Schlimme ist das ich eher CPU Limit habe als GPU Limit.

Ach so, ja der AMD-Boost ist ja nur eine art versuch, nvidia nachzueifern. Natürlich meine ich den GPU-Boost - also das exklusive von Kepler, nicht das blöde von AMD:d PS: GTX 680 für 300€:banana:
 
Zuletzt bearbeitet:
scully1234 schrieb:
Vielleicht haben einige Tesla Samples bekommen um die Leistung zu verschleiern

Was haben 512bit konkret für einen Sinn? Das würde das Die nochmal ordentlich vergrößern.
Bandbreite hat man ja so und so genug mit 384 bit + GDDR5.

Ein neuer Ful Metal Layer respin wäre jetzt glaube ich etwas zu teuer für "nur" den Desktop Markt.
 
@scully
512Bit SI und 3004MHz würden mal locker flockig 384GB/s Bandbreite geben :fresse: Ich glaube da einfach sogut wie nicht dran. Allerdings würde man so dem Bandbreitenlimit sehr stark aus dem Weg gehen.

Was haben 512bit konkret für einen Sinn? Das würde das Die nochmal ordentlich vergrößern.
Bandbreite hat man ja so und so genug mit 384 bit + GDDR5.
Genau das ist es ja: Das funktioniert nur sogut, solange eben die Reine Rechenleistung auch nur maximal um 50% ansteiget. Aber selbst dann, also bei +50% Rechenleistung und +50% bandbreite würde das SI den GK110 so ähnlich limitieren, wie es schon bei der GTX 680 der Fall ist.
 
Ach so, ja der AMD-Boost ist ja nur eine art versuch, nvidia nachzueifern. Natürlich meine ich den GPU-Boost - also das exklusive von Kepler, nicht das blöde von AMD:d PS: GTX 680 für 300€:banana:

@scully
512Bit SI und 3004MHz würden mal locker flockig 384GB/s Bandbreite geben :fresse: Ich glaube da einfach sogut wie nicht dran. Allerdings würde man so dem Bandbreitenlimit sehr stark aus dem Weg gehen.


AMD hatte vor jahren diesen Boost option gehabt es ist aber nicht angekommen und darauf hin wurde es Eingestellt da täuscht du dich bisschen. Komisch ist es nur seit dem das NV macht ist es geil.
 
@scully
512Bit SI und 3004MHz würden mal locker flockig 384GB/s Bandbreite geben :fresse: Ich glaube da einfach sogut wie nicht dran. Allerdings würde man so dem Bandbreitenlimit sehr stark aus dem Weg gehen.

Der selbe Durchsatz den der Dualchip zur Verfügung hätte,vielleicht hat man sich an dessen Werten auch orientiert

Denn da hätte man sich wieder Freiraum erarbeitet,den dieser hochgetaktete Tesla sicher gut verwerten könnte um mit der 690er aufzuschließen
 
Zuletzt bearbeitet:
Die Teslas haben ein 384it SI, was soll der Unsinn also mit 512 bit?
(geil wärs trotzdem, aber leider wirds so nicht kommen)
 
Eigentlich lieber 512 Bit mit 4GB als 6GB mit kleinem Bus .
Es gibt zur Zeit so viele Varianten von Spekulationen .
Da 384 Bit so oft gefallen sind ist es schwer zu glauben mit den 512.
Ich lasse mich auch gern auf 512 Bit ein mit 2888 shadern .:fire:
 
Zuletzt bearbeitet:
Wieso sollen es 512bit sein? Tesla hat 384Bit, ergo ist nichts anderes möglich.
 
Es ist doch so Latte wie es kommt .
Hauptsache bums hat das Ding mehr wird am Ende eh nicht zählen.
 
Titan bekommt kein 512 Bit SI :rolleyes:

Das wäre allerdings ne Option für Maxwell um sich doch etwas von GK110 absetzen zu können.
 
In der nächsten Fertigung behält NV den Rhythmus bestimmt bei erstmal so was wie die 680 und 1 Jahr später wieder voll ausbau also 2015.
 
Habe hier mal durchgewischt!
Bitte sauber bleiben!
 
AMD hatte vor jahren diesen Boost option gehabt es ist aber nicht angekommen und darauf hin wurde es Eingestellt da täuscht du dich bisschen. Komisch ist es nur seit dem das NV macht ist es geil.
Können du und die anderen Roten Fanjünger nicht einfach mal aufhören mit den unterschweilligen bashereien ? Bleibt einfach bei GK110, es interessiert auch keinen menschen ob wer das p/l von den 7950 so geil findet das er kurz vorm orgasmus steht und sich 2 davon holt. Was AMD am ende vom tollen p/l ihrer karten hat sieht man am letzten quartalsgewinn
 
Davon mal ganz ab...P7L ist ne schöne Sache...ABER:
Der eine will immer das Beste! Das weiß NVIDIA und nimmt dafür auch den Preis!
Der andere will benchen! - Um hier vorne zu sein braucht man das Beste - auch das weiß NVIDIA!

Warum hier so über den Preis und vor allem auch den Verbrauch gemeckert wird, verstehe ich nicht!
Lasst di Karte 400W verbrauchen und 1000.-€ kosten - wenn sie es packt, eine GTX690 zu schlagen, dann iwst das eine echte Revolution!
Darum lässt sich NVIDIA das auch bezahlen...
Um auf meinen Start zurückzukommen...Die einen WOLLEN und die anderen MÜSSEN....aber beide MÜSSEN DEN PREIS DAFÜR ZAHLEN!
Und alle, denen das zu teuer ist und die nur des Preises wegen, die Karte schlecht machen, obwohl es sie noch nicht gibt...die WOLLEN insgeheim eine haben...aber WOLLEN das Geld dafür nicht zahlen!
 
soe siehts aus, hier ist grade von den Roten viel neid im spiel, die haben sich ja schon immer AMD geholt weil sie gerne günstig gekauft haben ,warum sonst immer wieder der hinweis darauf wie toll das amd p/l ist und das nvidia einfach deutlich mehr geld für gleichschnelle karten nimmt ? nvidia kanns sich leisten, sie haben die treuesten kunden von denen amd nur träumt, würde amd dieselben preise nehmen würden alleine wegen nvidias ruf auchnoch so einige amd fans nvidia kaufen !

ich für meinen tei lzahle gerne einen mehrpreis für eerheblcihe bessere treiber, 3d , cuda, physx, etc, auch mag ich hochpreisige high end karten, je höher der preis, je exklusiver der club der besitzer^^

Wenugstens manche sind hier ehrlich und schreiben ich lese gerne hier mit, hätte sau gerne ne Titan, werde sie mir aber nicht leisten können, andere (Rote) schieben lieber frust weil sie sich das teil auch nicht leisten können und verbreiten amd propaganda
 
Mich wundert es zwar auch warum die Spezifikation fehlt, aber eigentlich ist Pcie 3.0 noch eher weniger relevant, weil es bisher nur ganz wenig bringt. Bei Spielen fast gar nichts, ergo wurst.

das hat eher was mit der Stromversorung zu tun denke ich.
Bei PCIe 3.0 hat man mehr Saft für OC bereitstellig insofern NV einen lässt, da über den Slot mehr zugesteuert werden kann. Schiebt NV einen Riegel davor dürfte PCIe 2.0 noch reichen.
Da Haswell mir nicht das bringt was ich erhoffte, darf mein 1366 Setup noch 1-2 Jahre knechten. 10% Mehrleistung, da spare ich mir das Geld. Vorher wird im Grafiksegment auch nicht sonderlich viel passieren wodurch ich Nachteile hätte. Der Sockel hat sich echt mal bezahlt gemacht.
 
ich für meinen tei lzahle gerne einen mehrpreis für eerheblcihe bessere treiber, 3d , cuda, physx, etc, auch mag ich hochpreisige high end karten, je höher der preis, je exklusiver der club der besitzer^^
Nix für ungut, aber genau diese Beweihräucherung, wie toll doch NV ist und wie scheiße doch AMD ist, nerven... Echt, es nervt einfach nur. Wir wissen es alle...

Können du und die anderen Roten Fanjünger nicht einfach mal aufhören mit den unterschweilligen bashereien ?

Das gleiche wollte ich dich auch gerade fragen...

Ich glaub es setzt langsam aus hier bei einigen.
Wieso greift man hier andere an, und schreibt dann selbst zwei oder drei Posts dahinter nur OT? Sorry, aber was soll der Scheiß...

Artet das hier wider so aus wie gestern abend, gibts hier nen Tag Pause für den Thread.


@Grinsemann
wieso mehr Saft im Slot bei PCIe 3?
Es sind nach wie vor spezifizierte 75W. Genau so wie bei 1.x und 2.x auch schon...
Daran wird sich wohl auf kurz oder lang nix ändern. Denn sonst würde man die Abwärzkompatibilität vollkommen einbüßen...
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Wüsste auch nicht das PCIe 3.0 mehr als 75 Watt bringt?
Aber sehe ich das richtig das derzeit 6+8 Pin rumschwirren?
 
Wüsste auch nicht das PCIe 3.0 mehr als 75 Watt bringt?
Aber sehe ich das richtig das derzeit 6+8 Pin rumschwirren?

Nein, wir wissen bisher nicht ob 6+8 oder 8+8. Das PCB Photo wurde ja erst vor kurzem als Fake enttarnt.
 
Zuletzt bearbeitet:
Ich kann mir 6+8 PIN bei über 200 W kaum vorstellen. Daher werden's 8+8 PIN-Anschlüsse.

Warum?
selbst 6+6Pin würden potentiell schon 225W bereit stellen (spezifiziert)
6+8Pin = 300W spezifiziert
und 8+8Pin = 375W (aber ohne Spezifikation, weil diese nur bis 300W geht)

Die Vermutung liegt nahe, dass es ersteres oder zweiteres werden... Zumindest wenn man sich an die Spezifikationen halten will, wovon auszugehen ist.
 
Also könnte es sein, dass das NDA am Freitag fällt, man Reviews UND die Karten schon selbst erhält? Das wäre traumhaft! Andererseits sind zu viele Fakes im Umlauf für nen Release in 4 Tagen?! ^^
 
Also könnte es sein, dass das NDA am Freitag fällt, man Reviews UND die Karten schon selbst erhält? Das wäre traumhaft! Andererseits sind zu viele Fakes im Umlauf für nen Release in 4 Tagen?! ^^

Freitag oder nächste Woche Dienstag.

Und 4 bzw. 5 Tage sollten reichen für ein Review. nVidia muss ja auch sicherstellen, dass nicht viel geleakt wird. Und das wird nur durch kurze Zeiträume zwischen Testsamples und Ende des NDA ermöglicht.
 
Also könnte es sein, dass das NDA am Freitag fällt, man Reviews UND die Karten schon selbst erhält? Das wäre traumhaft! Andererseits sind zu viele Fakes im Umlauf für nen Release in 4 Tagen?! ^^

Die Wahrheit ist irgendwo in den Gerüchten enthalten ;)
Nur scheint im Moment mal wieder die Erwartungshaltung massiv hochzukochen. Von 60%+ über ner 680er bis über 690er Leistung ist alles dabei.
jeder darf für sich selbst einschätzen, ob er sowas für realistisch hält. ;)

PS: wie es aktuell ausschaut, könnte Freitag das NDA fallen. Dann kommen die Reviews übers WE und ab Montag die Karten im Handel.
Ggf. dann ab Freitag schon Listungen...


Irgendwie hat das ganze was von R600 seinerzeit. Die Spekulationen der Hardware bzw. des Ausbaus wurden massivst überbewertet. Dazu noch irgendwelche 3DMark Benches... Und am Ende werden einige enttäuscht sein. -> da würde ich fast drum wetten ;)
 
Bei einer neuen Graka kann man immer enttäuscht sein. Das Problem hierbei ist jedoch der Preis und der Name. Wir erwarten hier keine 780 GTX, sondern eine extra teure Titankarte, die irgendwas besonderes leisten muss?! 20-30% sind weiterhin ne riesen Enttäuschung für Jedermann und rechtfertigen den Preis, sowie den Namen, nicht!

Also bei 50%+ muss das Teil einschlagen. Diese Erwartungshaltung ist eigentlich Pflicht :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh