nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Woher kommt die 760er mit 384Bit?

Ich behaupte, wenn sich GK110 irgendwann nächste Jahr zeigen wird, dann wird es die kleinen x60er Karten mit dem GK104 oder als Refresh mit dem GK114 geben. Das heist, 2GB und mit Aufpreis 4GB bei 256Bit.
Mit 384Bit wären also 3GB auf dem Plan, und mit Aufpreis dann 6GB. Für die Tesla/Quadro Karten könnte man sogar auf 12GB verdoppeln.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn sich mal jemand bemühen würde auch die erste Seite zu lesen....:rolleyes:
 
zugegeben habe ich die letzten Updates nicht gelesen. Die Tabelle mit den vermeindlichen 384bit für GK110 besteht aber immernoch aus der Zeit bevor GK104 released wurde und nichts bekannt war. Auch da war die Rede von 512bit für den bigK und große Spekulationen über 2 oder 4GB..so what !?
Das es nun "amtlich" ist das NV sich für eine Reduzierung auf Grund besserer Balance entschieden hat ist vernünftig, da 3GB vollkommen ausreichend sind, selbst für 4k.
Ein glücklicher Zufall das die Tabelle jetzt richtig ist.
 
Wie so oft bewahrheiten sich also wohl wieder Gerüchte von ganz zu Anfang ;)
Irgendwie auffällig. Ganz paar Monate vor GK104 Release war ja zu lesen, das vor Ende 2012 nix mit GK110 wird. Niemand hats geblaubt und was ist aktuell? Kein GK110 in Sicht :fresse:

Wenn man einen derartigen Maßstab ranzieht, wirds beim Takt auch keine 900MHz oder sowas geben, sondern wohl deutlich drunter. Zumindest wurde sowas im 3DCenter mal aufgerufen. Wo man von taktseitig deutlich unter Tahiti/GK104 sprach. Also eher 700-750, vllt 800MHz, das wäre deutlich drunter für mich. Mit den <300W klingt das sogar realistisch.
 
nungut, lassen wir das mal so stehen. Wie hoch lag der damals spekulierte Vorteil zur zur 660ti (GTX680)? 30%?
Mit ein wenig Optimierung sollte noch was drin sein. Lass es 40% sein, aber dann mit verbesserter Wärmeabfuhr. Höhere Turbotaktraten lasse ich jetzt mal dahin gestellt.
 
Wie so oft bewahrheiten sich also wohl wieder Gerüchte von ganz zu Anfang ;)
Irgendwie auffällig. Ganz paar Monate vor GK104 Release war ja zu lesen, das vor Ende 2012 nix mit GK110 wird. Niemand hats geblaubt und was ist aktuell? Kein GK110 in Sicht :fresse:

Wenn man einen derartigen Maßstab ranzieht, wirds beim Takt auch keine 900MHz oder sowas geben, sondern wohl deutlich drunter. Zumindest wurde sowas im 3DCenter mal aufgerufen. Wo man von taktseitig deutlich unter Tahiti/GK104 sprach. Also eher 700-750, vllt 800MHz, das wäre deutlich drunter für mich. Mit den <300W klingt das sogar realistisch.


Frage ist halt auch wieviele SMX es auf der Geforce werden. Was ich auf Seite 1 vorgerechnet habe waren 13, sollten es aber zB gegen alle Erwartungen 15 werden, würden für die selbe Leistung auch 780 MHz reichen.

Es ist halt auch interessant in wie weit man bis Release die 28nm Fertigung unter kontrolle hat.
 
Immer noch voller Hoffnung das es einen GK110 als Tesla/Quadro Abbild auch für den GeForce Sektor gibt?

Ich sag klares NEIN

Das was da im Januar??? eventuell kommt,wird ein aufgebohrter GK104,mit weiteren potenten Ausführungseinheiten für SP

Der GK104 in der Form war erfolgreich sowohl in der Effizienz als auch in seinem Einsatzgebiet.

Was soll NVIDIA also dazu bewegen den Erfolg zu killen mit einem "schweren" DP Monster wie der GK110 sich darstellt

Unnötig wie ein Kropf

GK104 Revival mit mehr Chipfläche,ist das was kommen wird um gegen den Mitbewerber Radeon 8xxx anzutreten:)
 
Naja die GTX 680 hat ja nur 25 bis 30% auf die GTX 580 draufgepackt und enttäuscht bei GPGPU, was unter anderem auch für kommende Spiele relevant wird, es wäre schon schade wenn die "fette" GPU nicht für den Spielermarkt vorgesehen ist.
 
Die 680 (GK104) ist eigentlich aber nur der Nachfolger der 560TI (GF114) wenn man so will, NV konnte sie aber zur 680 upgraden weil sie schneller war als die 7970, und AMD ihre Karte mit deutlich Aufpreis verkaufen wollte.
Wäre die Ausbeute auch nur einigermaßen ordentlich, könnten sie die bestimmt für 300€ verkaufen, aber bei der jetzigen Ausbeute wäre sie sofort ausverkauft, wie damals bei der 5870...
 
Zuletzt bearbeitet:
ausbeute soll doch schon gut sein.tscm kommt nicht ausn quark mit der 28nm produktion.nvidia hörte sich schon bei der konkurenz um u. nv soll mehr priorität eingeräumt worden sein.das wird aber erst im herbst ersichtlich.

zu big k wurde doch schon von nv selber gesagt:erst tesla u. dann geforce.

ich glaub nicht mehr an 512bit.eher 384 u. dann um 800-900 mhz.

liegt wahrscheinlich auch daran,das es dank 28nm u. 6000er ram noch nicht wirklich den bdedarf an 512bit gibt bei nv.
 
Zuletzt bearbeitet:
Frage ist halt auch wieviele SMX es auf der Geforce werden. Was ich auf Seite 1 vorgerechnet habe waren 13, sollten es aber zB gegen alle Erwartungen 15 werden, würden für die selbe Leistung auch 780 MHz reichen.

Es ist halt auch interessant in wie weit man bis Release die 28nm Fertigung unter kontrolle hat.

Wie schonmal angesprochen ist wohl die absolute Anzahl der Recheneinheiten eher uninteressant. Ich denke aber, es werden eher mehr, als zu wenig ;)
GK104 hat mit seinen 1536 ALUs ja im Vergleich zum 512 ALU schmalen GF110 auch um das dreifache zugelegt, gut, der Hotclock ist weggefallen, dafür gibts aber Taktraten von 1-1,1GHz, teils gar mehr bei greifendem Turbo auf maximaler Stufe. So viel weiter weg wie die HotClock ALU Taktraten damals sind wir damit also nicht. Aber dennoch kann GK104 im Vergleich zur GF110 sich nicht deutlich absetzen, zumindest nicht im Schnitt. Schaut man sich das mal genauer an, das sind 50% mehr ALUs (wenn man den HotClock gleichwertig als Dopplung mit reinrechnet) + nochmal 40%+ an Takt oben drauf.
Resultierend daraus sind was um die 30-40% Mehrleistung zur GF110. -> ziemlich mau, wenn man die nakten Zahlen betrachtet.

Ich denke eher, GK110 wird da nochmals in Sachen ALUs deutlich zulegen, vllt sind es 15 Blöcke, ggf. sogar 16, das würde dann auch ne runde Zahl ergeben (wo dann einer deaktiviert ist, zur besseren Ausbeute)
Heist dann aber lange nicht, das das Teil auch 1:1 mit den Ausführungseinheiten skaliert. Und hier kommt das Problem, welches wohl NV mit dem Turbo bzw. dem PowerTarget erschlagen wird.
2880 ALUs sind fast doppelt so viele wie der GK104 sie hat. Eigentlich heist es, ca. doppelte Leistung bringt bei gleichem Prozess und gleicher Effizienz (in Sachen Performance/Watt) eben dann doppelte Leistungsaufnahme. Nur wie will man die ca. 180-190W der GK104 doppeln? Das passt nicht... Ergo muss der Takt runter.

Ich könnte mir sogar vorstellen, das GK110 seine massive ALU Power gar nicht wirklich in Games ausspielen kann. Auffallenderweise werden CPUs seit 2006 (Core2 Release) nur noch mäßig verbessert. Und AMD bringt auch so recht den Hammer nicht, welcher den Markt aufmischen könnte. Bei den GPUs stehen wir nun aber wohl mindestens schon bei der 5-10 fachen Leistung wie zu 2006. Irgendwann ist schluss mit Lustig. Wenn die CPU die GPU nicht mehr ausfahren kann, nutzt auch das dickste GPU Flackschiff nix mehr :fresse:

Immer noch voller Hoffnung das es einen GK110 als Tesla/Quadro Abbild auch für den GeForce Sektor gibt?

Ich sag klares NEIN

Das was da im Januar??? eventuell kommt,wird ein aufgebohrter GK104,mit weiteren potenten Ausführungseinheiten für SP

Der GK104 in der Form war erfolgreich sowohl in der Effizienz als auch in seinem Einsatzgebiet.

Was soll NVIDIA also dazu bewegen den Erfolg zu killen mit einem "schweren" DP Monster wie der GK110 sich darstellt

Unnötig wie ein Kropf

GK104 Revival mit mehr Chipfläche,ist das was kommen wird um gegen den Mitbewerber Radeon 8xxx anzutreten:)

Ob das aber Sinn ergibt?
Den GK110 als Profikarte wird man wohl denke ich bringen, dafür sprechen aktuell alle Gerüchte. Den GK104 weiter aufzubohren halte ich hingegen für eher unwarscheinlich. Einfach, das Teil läuft gut wie es läuft. Mit ein paar kosmetischen Änderungen kann man die GPU durchaus bis 2014 laufen lassen. Wie es schon im unteren Leistungsfeld gang und gebe ist. Gleiche ALUs, etwas mehr Takt, etwas geänderter Kühler, ggf. dann mit 4GB Basis und als abgespeckte 2GB Version und schon läuft das Teil bis mindestens 2014 als 760er ohne Schmerzen.
Nur was will man darüber anbieten, wenn nicht den GK110? Wenn GK110 als Profikarten GPU da ist, kann diese auch mit leichten Änderungen oder gar 1:1 für Games herhalten. Gerade die Quadro Karten usw. haben ja auch ihren Nutzen aus TMUs, ROPs usw. Da zählt nicht nur reine ALU Power wie bei den Tesla GPUs. Und mehr wie GK110 ist scheinbar aktuell nicht in der Gerüchteküche zu finden...

Aber im Vergleich zu den neuen AMD Karten reicht denke ich ein minimal aufgeborter GK104 nicht. Einfach weil Tahiti wie die GPU heute existiert so schon massiv reserven hat. Da kannst du fast bei allen Karten mindestens 20%, teils auch 30%+ an OC rausdrücken. Und das alles ohne irgendwelche aufwändigen sonder Konstruktionen in Sachen Kühlung, PCB oder sonstwas... AMD wird wohl denke ich weiter an der Effizienz arbeiten und ggf. mindestens mit GK104 gleichziehen. Schon allein dann wäre man auf Augenhöhe bzw. über dem GK104. Ich denke nicht, das NV sich da geschlagen geben wird, wenn man seit nunmehr 6 Jahren versucht hat, auf biegen und brechen um ein paar Prozent vor der Konkurenz zu sein.
Und das sie diese Strategie nicht abgewählt haben, zeigt auch GK104. Geplant waren die 1GHz+ + Turbo so wohl absolut nicht. Aber ohne den Takt hätte es für Tahiti nicht gelangt.

ausbeute soll doch schon gut sein.tscm kommt nicht ausn quark mit der 28nm produktion.nvidia hörte sich schon bei der konkurenz um u. nv soll mehr priorität eingeräumt worden sein.das wird aber erst im herbst ersichtlich.

Das kann man so nicht sagen. Denn wenn man so denkt, kommt niemand aus dem Quark, außer Intel aktuell ;)
Ob aber so ne mehrere Mrd Transistorschleuder wie ein GK110 mit 22nm nach aktuellem Intel Fertigungsstand überhaupt möglich wäre, lässt sich von außen schlecht beurteilen.
Dennoch gibt es schlicht keine Ernsthafte Konkurenz zu TSMC, welche auch die Kapazitäten aufbringen könnte... Nur auf TSMC rumzuhacken bringt da wenig. Es sollte sich wenigstens auch die Frage stellen, warum sind die anderen denn nicht schneller (Intel mal außen vor), wo doch TSMC so viele Probleme hat? -> ein logischer Schluss wäre, weil sie es genau so nicht schneller können, ggf. gar noch langsamer.
 
Zuletzt bearbeitet:
wieso,ist samsung nicht ernstzunehmende konkurenz?

die 22/28nm produktion ist natürlich noch recht jungfräulich!für mich ist das klar das anfangs probleme auftauchen u. mir ist letztendlich egal wer meine gpu produziert.nur ist etwas komisch das nv starke lieferschwierigkeiten hat u. amd nicht.ich geh da von fehlplanugen in kontrakten seitens tscm aus,wahrscheinlich konnten die den prozess nicht so schnell optimiert in den griff bekommen bzw. hatten nicht mit so einer nachfrage gerechnet.

ich denke schon das theoretisch gf in 22nm ohne viel aufwand möglich wäre.nur so weit sind die noch nicht.die 600er palette zb. ist ja noch nichtmal ganz da.
das 28nm schon nen ordentlich leistungssprung durch höheren takt ermöglicht gegenüber 40nm sollte wohl klar sein.beim nächsten schritt wird aber wohl nicht mehr so viel drin sein seitens der produktionsgröße.zudem wirds jetzt auch länger dauern von schritt zu schritt.irgendwas muß ja noch da sein zu verkaufen.nicht das die demnächst nur noch geordnete luft verkaufen :fresse2:

ich bin auf jeden fall vom 28nm prozess hellauf begeistert!da wars von 65/55 zu 40 nicht so stark.

edit: schade da intel nicht mehr aus ivy gemacht hat.ich hatte gehofft 5000+ mit guten temps zu sehen.das die temps am kleineren hs liegen ist mir klar.aber warum hat intel nicht den spreader vegrößert?ist das so kompliziert?

ich glaub da hat intel ne kleine fehlentscheidung aus kosten/produktionsgründen getroffen.auch paste anstatt lot ist etwas seltsam,wo`s nachweisbar teilweise 6-10° ausmacht.vielleicht rafft intel das ja noch u. bringt nen anderes stepping.
 
Zuletzt bearbeitet:
wieso,ist samsung nicht ernstzunehmende konkurenz?

die 22/28nm produktion ist natürlich noch recht jungfräulich!für mich ist das klar das anfangs probleme auftauchen u. mir ist letztendlich egal wer meine gpu produziert.nur ist etwas komisch das nv starke lieferschwierigkeiten hat u. amd nicht.ich geh da von fehlplanugen in kontrakten seitens tscm aus,wahrscheinlich konnten die den prozess nicht so schnell optimiert in den griff bekommen bzw. hatten nicht mit so einer nachfrage gerechnet.
Es gab schon Meldungen im Q4 2011, das TSMC mit der scheinbar überraschend hohen Nachfrage nach 28nm Fertigung "Probleme" mit der Kapazität hat. Und diese wohl auch bis wohl Ende 2012 haben wird...
Sehe da nun kein wirkliches Problem. Wenn die Nachfrage deutlich über der Planung liegt, kann selbst der beste Fertiger nix machen. Und mal so eben von heute auf morgen ne weitere Fab. aus dem Boden zu heben ist da leider auch nicht drin. Das ganze muss nachhaltig vorher geplant werden. Vor allem weil ja neben Neubauten auch alte Fabs. einfach umgerüstet werden.

Das die Nachfrage auf die NV GPUs so übermassiv hoch sein soll, halte ich aber für ein Gerücht, wir bewegen uns hier immernoch im Rahmen von 300€+
Das kauft für gewöhnlich niemand, außer einer eher kleineren Randgruppe. Die Masse wird immernoch in der Mittelklasse gemacht. Für mich sieht es eher so aus, als hätte NV in ihrer Kapazitätsplanung einen groben Fehler gemacht.


Und zu Samsung, ich weis nicht so genau, wie es dort aktuell ausschaut, aber wie es scheint fertigt Samsung aktuell "nur" 32nm. Mit GPUs haben die aktuell gar nix am Hut. Und 28nm ist auch aktuell nicht. Keine Ahnung wie lange sowas dauert einzupendeln, aber ich behaupte, ein Jahr wirds mindestens sein. Und da sind wir mitte 2013. 2014 will TSMC mit 22/20nm bereit stehen. Glaube ich zwar noch nicht unbedingt dran. Aber 28nm Tahiti kam schlussendlich auch schneller als zur Jahresmitte 2011 noch gedacht. Man könnte natürlich jetzt Samsung für die nächste Generation ranholen. Wäre sicher ne Option. Die Frage ist, reichen deren Kapazitäten? Ich weis es aktuell nicht, finde auch auf die schnelle keine Übersicht. TSMC ist als größter Auftragsfertiger aber immernoch ganz oben, gefolgt von GloFo und UMC. Samsung kommt wohl auf Platz vier. Samsung scheint an der Stelle auch weit kleiner zu sein als GloFo und UMC.
 
Wie schonmal angesprochen ist wohl die absolute Anzahl der Recheneinheiten eher uninteressant. Ich denke aber, es werden eher mehr, als zu wenig ;)
GK104 hat mit seinen 1536 ALUs ja im Vergleich zum 512 ALU schmalen GF110 auch um das dreifache zugelegt, gut, der Hotclock ist weggefallen, dafür gibts aber Taktraten von 1-1,1GHz, teils gar mehr bei greifendem Turbo auf maximaler Stufe. So viel weiter weg wie die HotClock ALU Taktraten damals sind wir damit also nicht. Aber dennoch kann GK104 im Vergleich zur GF110 sich nicht deutlich absetzen, zumindest nicht im Schnitt. Schaut man sich das mal genauer an, das sind 50% mehr ALUs (wenn man den HotClock gleichwertig als Dopplung mit reinrechnet) + nochmal 40%+ an Takt oben drauf.
Resultierend daraus sind was um die 30-40% Mehrleistung zur GF110. -> ziemlich mau, wenn man die nakten Zahlen betrachtet.

Ich denke eher, GK110 wird da nochmals in Sachen ALUs deutlich zulegen, vllt sind es 15 Blöcke, ggf. sogar 16, das würde dann auch ne runde Zahl ergeben (wo dann einer deaktiviert ist, zur besseren Ausbeute)
Heist dann aber lange nicht, das das Teil auch 1:1 mit den Ausführungseinheiten skaliert. Und hier kommt das Problem, welches wohl NV mit dem Turbo bzw. dem PowerTarget erschlagen wird.
2880 ALUs sind fast doppelt so viele wie der GK104 sie hat. Eigentlich heist es, ca. doppelte Leistung bringt bei gleichem Prozess und gleicher Effizienz (in Sachen Performance/Watt) eben dann doppelte Leistungsaufnahme. Nur wie will man die ca. 180-190W der GK104 doppeln? Das passt nicht... Ergo muss der Takt runter.

Ich könnte mir sogar vorstellen, das GK110 seine massive ALU Power gar nicht wirklich in Games ausspielen kann. Auffallenderweise werden CPUs seit 2006 (Core2 Release) nur noch mäßig verbessert. Und AMD bringt auch so recht den Hammer nicht, welcher den Markt aufmischen könnte. Bei den GPUs stehen wir nun aber wohl mindestens schon bei der 5-10 fachen Leistung wie zu 2006. Irgendwann ist schluss mit Lustig. Wenn die CPU die GPU nicht mehr ausfahren kann, nutzt auch das dickste GPU Flackschiff nix mehr :fresse:



Sag mal lest ihr denn nicht? Was auf der ersten Seite steht ist Fakt! Es gibt keinen Chip mit 16 SMX....
Außerdem, rechne doch mal aus wo du dann ausgehend von 190 Watt des GK104 beu 300 Watt wärst? Es gibt natürlich abstriche durch die Infrastruktur, aber die werden auch nicht riesig ausfallen.

Was Scully geschrieben hat wird ebenfalls nicht passieren, denn wenn man sich mal die 1. Seite durchliest IST GK110 ein größerer GK104 der nur erweitert wurde. Thats it!
 
Sag mal lest ihr denn nicht? Was auf der ersten Seite steht ist Fakt! Es gibt keinen Chip mit 16 SMX....
Außerdem, rechne doch mal aus wo du dann ausgehend von 190 Watt des GK104 beu 300 Watt wärst? Es gibt natürlich abstriche durch die Infrastruktur, aber die werden auch nicht riesig ausfallen.

Was Scully geschrieben hat wird ebenfalls nicht passieren, denn wenn man sich mal die 1. Seite durchliest IST GK110 ein größerer GK104 der nur erweitert wurde. Thats it!

Wenn du es so willst, ist alles noch ein G80 mit Verbesserungen :rolleyes:
Und ja, natürlich lese ich die erste Seite. Aber wer sagt, das es alles Fakt ist?

Nur mal ein Vergleich, Fakt ist auch, die GF100 GPU in Form der GeForce GTX 480 hat auch nur 480 ALUs, obwohl 512 ALUs verbaut waren. Das Spiel könnte! hier exakt identisch ablaufen. Vor allem die Parallele dazu, man sagt im Vorfeld, das die Profikarten wohl nur mit 13-14 SMX kommen. Genau so war es bei den GF100 GPUs ebenso. Quadro/Tesla mit dem Ausbau der GTX 470, die GTX 480 ebenso nicht als Vollausbau.
Ich behaupte, im Moment ist da noch so gar nichts 100% Fakt. ;) Noch dazu, die Aufteilung in 16 Blocken macht rein für die Plazierung irgendwie auch mehr Sinn als in 15 Blöcken. ;)


PS: wenn ich ausgehend von 190W rechne, bleiben mir etwas mehr als 50% mehr Spielraum bis 300W. Das heist für mich, entweder das Teil wird deutlich effizienter als GK104 (was ich persönlich für nen Profikartenableger derartiger Größe nicht glaube) oder aber, die ALUs werden sehr sehr niedrig takten und sich eben durch den Turbo je nach Auslastungsgrad optimal verhalten. Letzteres macht da am meisten Sinn, ist die Auslastung mal weniger hoch, geht der Takt halt noch dazu hoch. Ist die Auslastung sehr gut, bleibts beim Basistakt usw. Für viele Lebenslagen bekommt man so den optimalen Kompromiss.

Und für die OC Fans unter uns kann man dann wohl das Powertarget bei gegebener Kühlung aufreißen und bekommt vollen Turbo auf allen ALUs im Vollausbau, dann wohl bei ner ganzen Ecke über 300W Verbrauch.
 
Zuletzt bearbeitet:
nein tun wir nicht.wir wollen lieber spekulieren :fresse2:

fdsonne,insgesamt sind doch nv u. amd`s highend gpu`s pinuets für die ersten vier.samsung produziert schon teilweise in 28nm!da wird seitens nv wahrscheinlich nur nen prioritätsmanöver gefahren worden sein.obs nv`s schuld ist bezweifel ich.höchstens das sie nicht damit gerechnet haben das der 28nm prozess anfangs so schwer auszubauen ist bzw. es ihn nicht so ausgebaut gibt wie erforderlich.das wird sich aber wohl mit der zeit legen mit der lieferbarkeit der 600er...

wieso nicht mal so eben ne fabrik ausn boden stampfen?die haben doch genug chinesen... die solln auch mal was vernünftiges tun außer kopieren...:fresse:
 
Zuletzt bearbeitet:
fdsonne schrieb:
die 30-40% Mehrleistung zur GF110.

Im Mittel sind es auf einigen Seiten sogar unter 30% Merhleistung.

Und es ist wirklich komisch, warum Nvidia so eine schlechte Verfügbarkeit der GPU´s bietet.
Bei AMD scheint alles ok zu sein, auch bei der HD 7770 und HD 7850.
 
nein tun wir nicht.wir wollen lieber spekulieren :fresse2:

fdsonne,insgesamt sind doch nv u. amd`s highend gpu`s pinuets für die ersten vier.samsung produziert schon teilweise in 28nm!da wird seitens nv wahrscheinlich nur nen prioritätsmanöver gefahren worden sein.obs nv`s schuld ist bezweifel ich.höchstens das sie nicht damit gerechnet haben das der 28nm prozess anfangs so schwer auszubauen ist bzw. es ihn nicht so ausgebaut gibt wie erforderlich.das wird sich aber wohl mit der zeit legen mit der lieferbarkeit der 600er...

wieso nicht mal so eben ne fabrik ausn boden stampfen?die haben doch genug chinesen... die solln auch mal was vernünftiges tun außer kopieren...:fresse:

So ne Fabrik zu bauen geht vllt im Vergleich mit genügend Chinesen fix, aber dennoch dauert es seine Zeit. Wenn du heute Lieferschierigkeiten erkennst, und heute den Plan für die Fabrik aufstellst, dann kannst du vllt in zwei Jahren da drin anfangen zu produzieren. Es bringt dich in keinem Stück für heute weiter ;) Und das ist das Problem.

Und ob das alles so nur Pinuets sind, wage ich zu bezweifeln, gerade für GloFo, UMC und Samsung. Schaut man sich die Umsätze an, so scheint UMC und GloFo da auf nichtmal ein drittel von TSMC zu kommen. Und Samsung auf etwas über einem 1/10. Und es ist keineswegs so, das die ihre Kapazitäten nicht zu nutzen wissen oder ihre Produkte nicht los werden.
Noch dazu kommt, GPUs sind ziemlich komplex. Keinesfalls vergleichbar mit irgend ner wizig Prozessoreinheit, welche dazu noch mit Cache und Co. zugekleistert ist.
Das drückt niemand der vier Fertiger mal so auf einer Arschbacke ab. Wie man eben sieht schafft es nichtmal der mit Abstand größte Fertiger. (und da sind noch nichtmal alle GPUs von NV auf dem Markt in 28nm und allen Leistungsklassen)

Im Mittel sind es auf einigen Seiten sogar unter 30% Merhleistung.

Und es ist wirklich komisch, warum Nvidia so eine schlechte Verfügbarkeit der GPU´s bietet.
Bei AMD scheint alles ok zu sein, auch bei der HD 7770 und HD 7850.

Und deswegen glaube ich auch nicht daran, das TSMC da irgendwelche Schuld trägt... Dazu kommt, das die NV GPUs von der Fläche her auch noch kleiner als Tahiti sind. Für gewöhnlich gilt ja, je größer, desto schwieriger bei vollem Funktionsumfang.
Es muss also fast schon sicher andere Gründe haben. Und sei es nur, das NV zu wenig Kapazität einkalkuliert hat.
 
Wenn du es so willst, ist alles noch ein G80 mit Verbesserungen :rolleyes:
Und ja, natürlich lese ich die erste Seite. Aber wer sagt, das es alles Fakt ist?

Nur mal ein Vergleich, Fakt ist auch, die GF100 GPU in Form der GeForce GTX 480 hat auch nur 480 ALUs, obwohl 512 ALUs verbaut waren. Das Spiel könnte! hier exakt identisch ablaufen. Vor allem die Parallele dazu, man sagt im Vorfeld, das die Profikarten wohl nur mit 13-14 SMX kommen. Genau so war es bei den GF100 GPUs ebenso. Quadro/Tesla mit dem Ausbau der GTX 470, die GTX 480 ebenso nicht als Vollausbau.
Ich behaupte, im Moment ist da noch so gar nichts 100% Fakt. ;) Noch dazu, die Aufteilung in 16 Blocken macht rein für die Plazierung irgendwie auch mehr Sinn als in 15 Blöcken. ;)

Zähl doch mal die Blöcke auf dem Dieshot der 1. Seite ;)
 
Was Scully geschrieben hat wird ebenfalls nicht passieren, denn wenn man sich mal die 1. Seite durchliest IST GK110 ein größerer GK104 der nur erweitert wurde. Thats it!

Natürlich basiert der GK110 auf der selben Architektur

Aber ums auf dem Punkt zu bringen wer zum Geier braucht denn bitte einen Tesla Chip im GeForce Sektor?

Wenn ich 550mm ausreizen will,dann geht das auf GK104 Basis deutlich performanter mit dedizierten Ausführungseinheiten im SP Bereich,denn diese bringen die Power auf die Straße bzw in die Games

Das DP Gedöns für professionelle Berechnungen ist nur unnützer Ballast

GK 104 hat z.Zt ca 120-150 Watt Spielraum zur magischen 300Watt Spezifikation

Der Prozess wird bis Januar auch noch weiter reifen,sodas hier noch einiges an experimentalen Freiraum gegeben ist

Mit 550mm Die Size und Verdopplung der Ausführungseinheiten muss nicht mal zwingend der selbe Takt gefahren werden um 60-80%zuzulegen zum jetzigen Highendmodell
 
Zuletzt bearbeitet:
Wenn es GK110 sein soll, könnte das hinkommen :fresse:

Sagt zumindest NV ;)

Natürlich basiert der GK110 auf der selben Architektur

Aber ums auf dem Punkt zu bringen wer zum Geier braucht denn bitte einen Tesla Chip im GeForce Sektor?

Wenn ich 550mm ausreizen will,dann geht das auf GK104 Basis deutlich performanter mit dedizierten Ausführungseinheiten im SP Bereich,denn diese bringen die Power auf die Straße bzw in die Games

Das DP Gedöns für professionelle Berechnungen ist nur unnützer Ballast

GK 104 hat z.Zt ca 120-150 Watt Spielraum zur magischen 300Watt Spezifikation

Der Prozess wird bis Januar auch noch weiter reifen,sodas hier noch einiges an experimentalen Freiraum gegeben ist

Mit 550mm Die Size und Verdopplung der Ausführungseinheiten muss nicht mal zwingend der selbe Takt gefahren werden um 60-80%zuzulegen zum jetzigen Highendmodell

Eigenentwicklungen für beide Bereiche sind zu teuer, also gibts nur eine. Problem bei größeren Chips ist das der Takt nich so gut gehalten werden kann im Vergleich zu kleineren. Auch das ist ein Grund warum der Takt wohl geringer ausfallen könnte.
 
Was denkt ihr wie teuer wird der GK110, normaler HighEnd Grafikkarten Preis um die 550-600 Euro oder doch eher 700-900 Euro?
Wenn er bei 900 Euro liegen würde, dann müssten die 680er theoretisch garnichtmal im Preis fallen.
 
Eigenentwicklungen für beide Bereiche sind zu teuer, also gibts nur eine. Problem bei größeren Chips ist das der Takt nich so gut gehalten werden kann im Vergleich zu kleineren. Auch das ist ein Grund warum der Takt wohl geringer ausfallen könnte.

Ob das soviel teurer wird den Die einmal für GPGPU und einmal für Games auszulegen

Produktionsstätten/Kapazitäten für klein u groß Kepler sind so oder so nötig und Erfahrungen sind auch für beide Chipauslegungen vorhanden

Das einzige was sich erhöhen wird ist die Die Size des neuen GeForce Chips,dem entgegen sollte aber die höher zu erwartende Ausbeute für Januar stehen

Denn der Prozess bleibt hoffentlich auch bei TSMC nicht auf Anfangsstadium stehen

Wobei TSMC u Ausbeute Mmh:fresse:

---------- Post added at 22:26 ---------- Previous post was at 22:01 ----------

Was denkt ihr wie teuer wird der GK110, normaler HighEnd Grafikkarten Preis um die 550-600 Euro oder doch eher 700-900 Euro?
Wenn er bei 900 Euro liegen würde, dann müssten die 680er theoretisch garnichtmal im Preis fallen.

Wenn das schon bekannt wäre würden wir hier nichtmal mehr über das für und wieder dieses Chips diskutieren
 
Zuletzt bearbeitet:
60-80% mehrleistung?never!siehe 7900er.+20-30% ist wohl realistischer.alles andere ist träumerrei.ich geh von 600-700€ bei der geforce aus.
 
Gib dem Chip 550mm Spielraum ergo Fermigröße und vergleiche mit Gk104

Da bekommst du locker die doppelte Anzahl an Ausführungseinheiten unter

Was soll da Träumerei sein die 690er zeigt doch was jetzt schon geht bis 300Watt

Diese beiden Chips in einen großen Die gepresst und du hast deine 60-80%
 
Zuletzt bearbeitet:
ja,prinzipell im vergleich zu ner 690 haste recht.nur von den 7900er rohdaten hab ich eigentlich mehr erwartet.gut jetzt kommt noch die ghz edition.aber irgendwie bleibt sie wie sie ist...

ich versteh so u. so nicht das die nicht 2 gpus auf einen chip packen u. den hs dementsprechend anpassen.vielleicht gibts da aber auch nen physikalisches limit.2 gpus auf einer platine ist ja auch schon was...
 
Große Dies haben das Manko das der nicht mehr verwertbare "Ausschuss" relativ hoch ist gerade bei neuer Strukturgröße

Darum hat sich NVIDIA wohl auch ein drittes Ei gefreut das der Winzling Gk104 so gut performt hat,sodas man nicht gleich wieder am Anfang das große Kaliber auffahren musste

Gk110 bzw was auch immer der nächste GeForce Chip für nen Codenamen trägt,wird aber wohl wieder NVIDIA typische Highendausmaße annehmen können und dabei trotzdem in der Gewinnzone bleiben,falls TSMC nicht total versagt bis Januar
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh