nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Der Vorteil von "AFR"@interposer wäre, dass man keinen 550mm2 Chip braucht, der am Anfang eines Prozesses gar nicht herstellbar ist. Man nimmt zwei 250mm2 Dinger, pappt sie zusammen und hat ein ähnliches Resultat. Da werden wir früher oder später hinkommen, denn es wird immer schwieriger, solche Monster wirtschaftlich zu bauen.

Das Ziel wäre letztendlich, zwei GPUs so "nah" zu verdrahten, dass sie sich wie eine einzige GPU verhalten und ansprechen lassen. Mit CPU-Sockeln ist das überhaupt nicht vergleichbar, die Abstände und Latenzen sind hier ungleich größer und die Bandbreite viel geringer.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich meine ja auch nicht das die 680 schlecht geht,meine macht auch 1293mhz @ stock. aber man kann die spannung nicht ändern,vielleicht wollen sie das nicht weil man dann noch mehr raus holen könnte und der unterschied zur neuen Generation dann sich minimiert vielleicht sogar auflöst.

klar wenn du ne gebrauchte kaufen willst,kannste dir sicher sein das da keine 1,3v angelegen haben. Bei CPU´s ist es aber nicht anders,schau mal wie wenig da die spannung runter gegangen ist mit neuer fertigung ;)
 
ich für meinen teil finds garnicht schlimm das beim GK104 nun das overvolting limitiert wurde, mit lukü reicht eh das was vorhanden is. Hoffe nur GK110 wird ne echte Rakete, sodass sich der Umstieg vom GF110 richtig bemerkbar macht, nicht wie GF110-GK104, das war ja nix..
 
glaub mir von gf110 auf gk104 lohnt sich auch schon. Vor allem mit OC,da kommste mit ner 580 einfach nicht dran. Da brauchste fast schon 2 karten. Denke GK110 wenn er als Gamer Karte kommt wird da noch was vorlegen oder halt nicht weil er sich einfach nicht gut takten lässt. Weiss man vorher ja leider nie. Fertigung ist halt was schwieriger.
 
Ich schrieb ja, das Grundprinzip ist zumindest vergleichbar.

Warum aber AFR@Interposer fahren? Das macht doch gleich gar keinen Sinn. Der Vorteil ist einfach nicht vorhanden in meinen Augen. Klar du kannst kleinere GPUs verbauen, die Nachteile bleiben aber ziemlich identisch.
Wenn dann müsste man eine Technik aus dem Hut zaubern, die die Skalierungseigenschaften von AFR bringt, sich aber wie SFR verhällt...
Hält man an AFR fest, brauch es keine dedizierte Hardwarebasis dazu. Da es ja nur ein Zeitgleiches Abarbeiten von zwei aufeinander folgenden Bildern ist. Ohne Logik, die die Arbeit verteilt.

Die GPU intern macht ja aber genau das Gegenteil. Sie "zerhackt" die Arbeit in kleine Stücke und verteilt diese über die Ausführungseinheiten. Am Ende kommt dann ein einziges Bild bei rum. Eigentlich müsste man genau hier ansetzen. Ich bezweifle aber, dass das aktuell irgendwie effizient genug geht. Denn die Unit, die die Arbeit verteilt müsste doppelt effizient arbeiten, und dazu noch ohne Flaschenhals die Arbeit auf zwei Einheiten-Cluster verteilen können. Also genau das, was heute mit im Falle NV, den SMX passiert. Verteilte Arbeit auf mehrere dieser Einheiten. Ob diese Einheiten wenigstens annähernd so schnell wären, wenn die Connection zwischen diesen aber über den langen Weg zu ner anderen "GPU" geht, ist äußerst fraglich.

Dazu kommt, das ist dann gelinde gesagt, nur rein der Shadercode. Da ist kein Postprozessing und andere nachträgliche Arbeit mit abgedeckt. Denn dazu müssen die Daten wiederum zu anderen Units und somit auch wiederum über den weiten Weg gehen.



Aber mal was anderes, wieso kommt man eigentlich immer wieder auf das Thema zurück?
Rein von der Fertigung selbst dürfte es keine Probleme geben. Ob du nun 550mm² in 28nm oder in 10nm baust, ist doch ziemlich wurscht. Sofern die Fertigung läuft. Interessanter wird da eher die Frage, was machen wir in 5-10 Jahren, wenn die als aktuell geltende Grenze erreicht ist und wir nicht kleiner können? Irgendwas muss dann aus dem Hut gezaubert werden.
Ich denke, sofern man nicht gezwungen sein wird, seitens der Hersteller sich Gedanken über mehrere kleinere Packete zu machen, so wird man am aktuellen Konzept von Multi GPU Gaming nahezu gar nix ändern.
Und wenn sich andere Verfahren neben der Rasterisierung irgendwann mal durchsetzen, werden die Karten so oder so neu gemischt. Raytracing dürfte bequem ohne diese Probleme auf mehreren GPUs laufen und auch recht gut skalieren.
 
Du hast die Anführungszeiten übersehen. Damit meinte ich nur, zwei GPUs zu einer machen. Ohne Profile, Inputlag, Ruckler, usw.

Wo das Problem ist? Waferkosten. Bei 50% Yield ist es schon jetzt sehr teuer, so große Dies zu produzieren. Was, wenn ein Wafer mal doppelt so teuer ist in 14 nm? Was ist besser? Ein Chip mit 85% Yield, von dem du zwei nimmst und das den Kunden auch so bezahlen lässt. Oder ein Chip mit 50% oder noch weniger Yield, für den du letztendlich nur dasselbe verlangen kannst (die "Masse" der Highendkäufer kauft eine Grafikkarte für 600+ Euro). Außerdem musst du nicht auf Wirtschaftlichkeit warten wie jetzt bei GK110. Du könntest gleich eine große Lösung bringen.
 
Zuletzt bearbeitet:
glaub mir von gf110 auf gk104 lohnt sich auch schon. Vor allem mit OC,da kommste mit ner 580 einfach nicht dran. Da brauchste fast schon 2 karten. Denke GK110 wenn er als Gamer Karte kommt wird da noch was vorlegen oder halt nicht weil er sich einfach nicht gut takten lässt. Weiss man vorher ja leider nie. Fertigung ist halt was schwieriger.

Naja für mich persönlich machts keinen sinn 500+ Euro rauszuhauen wenn die Karte nicht min 80% schneller als meine jetztige ist, zumal ichs einfach nicht aussem kopf kriege das GK104 hat einfach nur midrange ist der high end sein darf weil amd es nicht drauf hat^^
 
Zuletzt bearbeitet:
naja das weiss man halt nicht so genau,vielleicht konnte nv die grosse GPU dank fertigungsproblemen auch nicht raus hauen und wenn sie es gekonnt hätten nur sehr beschränkt.

+80% bekommste mit oc schon hin bei bestimmten settings,zumindestens gegenüber der 480. aber denke auch das die zeiten der riesen fortschritte erstmal vorbei sind. Bis der nachfolger von silizium kommt.
 
80% gegenüber einer GTX480 schafft man auch schon mit einer GTX680 und 1250MHz. BigK wird ca. zwischen 40-50% schneller als die GTX680 sein und damit knapp zwischen 1,89x und 2x schneller als die GTX580 sein.
 
ich meine ja auch nicht das die 680 schlecht geht,meine macht auch 1293mhz @ stock. aber man kann die spannung nicht ändern,vielleicht wollen sie das nicht weil man dann noch mehr raus holen könnte und der unterschied zur neuen Generation dann sich minimiert vielleicht sogar auflöst.

klar wenn du ne gebrauchte kaufen willst,kannste dir sicher sein das da keine 1,3v angelegen haben. Bei CPU´s ist es aber nicht anders,schau mal wie wenig da die spannung runter gegangen ist mit neuer fertigung ;)

Das ist genau das Kontroverse an der Geschichte... Die Frage ist, wie lange hält so ein Teil bei der Spannung...
So ne horn alte Intel Pentium 1 CPU oder noch älter sind heute noch unkaputtbar. Ob das heutige Technik auch auf die Jahre schaffen würde? Ich denke nicht...

Und wie oben schon geschrieben, das sollte nur ein Ausflug von Gedanken sein, wenn man das ganze mal andersrum betrachtet. Klar kann es sein, das NV genau vorher kalkuliert hat, was lassen wir an OC zu und was nicht. Gerade wo man sich denke ich sicher war, das GK104 einen Nachfolger bekommt. Und das genau absehbar ist, zumindest für NV, wie dieser Leistungstechnisch weiter vorran geht.

Du hast die Anführungszeiten übersehen. Damit meinte ich nur, zwei GPUs zu einer machen. Ohne Profile, Inputlag, Ruckler, usw.

Wo das Problem ist? Waferkosten. Bei 50% Yield ist es schon jetzt sehr teuer, so große Dies zu produzieren. Was, wenn ein Wafer mal doppelt so teuer ist in 14 nm? Was ist besser? Ein Chip mit 85% Yield, von dem du zwei nimmst und das den Kunden auch so bezahlen lässt. Oder ein Chip mit 50% oder noch weniger Yield, für den du letztendlich nur dasselbe verlangen kannst (die "Masse" der Highendkäufer kauft eine Grafikkarte für 600+ Euro).

Mhh OK, hab ich eher am AFR gestört :fresse: Ausführungszeichen hin oder her. Hättest du SLI/CF@... geschrieben, wäre es wohl klarer gewesen.

Und Thema Kosten. Neja, die Waferkosten sind doch dem Chiphersteller erstmal egal. Da wird wohl eher in Preis/Einheit. bzw. Preis/1000 Einheiten gerechnet. Und klar, letztlich wird dieser Wert steigen. Aber das ist bei sogut wie allem so. Was der Markt dagegen tun wird, wissen wir alle selbst. -> die Zeiten verlängern, an dehnen das Produkt am Markt sein wird. Denn schließlich werfen 360 Tage Verkaufszeit weniger Geld pro Einheit ab als 720 Tage. (im Beispiel)
Dazu kommt noch, es ist ja je nach Vertrag unter Umständen völlig anders. Die einen bezahlen nach Wafer undabhängig der Yields, die anderen nach funktionierenden Einheiten.
Und schlussendlich ist es primär ja auch nicht Aufgabe des Chipdesigners, die Kosten pro Einheit zu drücken, das ist Bier des Fertigers, dafür nutzt man ausgelagerte Fertigungen. Und hier steht mit 450mm Wafern gegen 2016-2017 wohl auch schon was parat.

Ich gebe dir vollkommen recht, wenn man an einem Punkt steht, wo es nicht weiter geht. Muss man sich Alternativen überlegen. Wie eben mehrere kleinere Chips zu einem "großen-Verbund" zusammen zu packen. Aber diesen Problempunkt sehe ich aktuell noch in so weiter ferne, das heute darüber zu spekulieren, wie eine mögliche Umsetzung aussehen könnte, eigentlich ziemlich unsinn ist. Zumindest wenn die Basis eben primär darauf zielt, aus einem großen unbedingt zwei kleine zu machen.

BigK wird ca. zwischen 40-50% schneller als die GTX680 sein und damit knapp zwischen 1,89x und 2x schneller als die GTX580 sein.

Das steht wo?
Deine Spekulationen bzgl. der 680er seinerzeit im Vergleich zum Vorgänger haben wir noch gut in Erinnerung. Wie viel waren es noch gleich? 60%+? :fresse:
Ne im Ernst, ich denke ~35% bei 14 SMX und ~800MHz dürften schon hinkommen zur 680er. Vllt etwas mehr bei mehr Takt. Ob es reicht? Anderes Thema...
Mit dem Verbrauch von GK104 dürfte BigK aber wohl nicht mehr viel gemein haben :fresse:
 
Zuletzt bearbeitet:
Es ist das Bier des Fertigers? Das ist Realitätsverdrängung :)
Nvidia und AMD müssen die Wafer zahlen bzw. die Chips, das wird (unabhängig davon, wie es zwischen AMD und Nvidia mit den Verträgen mit TMSC da aussieht) teurer, also schaut man sich an, was für Möglichkeiten man hat.
 
80% gegenüber einer GTX480 schafft man auch schon mit einer GTX680 und 1250MHz. BigK wird ca. zwischen 40-50% schneller als die GTX680 sein und damit knapp zwischen 1,89x und 2x schneller als die GTX580 sein.


was ge nau das wäre was ich mir auch vorstelle :)
Rationellerweise konnte man wirklich mit ner GTX 580 die GTX 680 bequem aussitzen, ausserdem isses ja ncihtso das man nur die 680 ocen kann und die 580 nicht :)
 
Es ist das Bier des Fertigers? Das ist Realitätsverdrängung :)
Nvidia und AMD müssen die Wafer zahlen bzw. die Chips, das wird (unabhängig davon, wie es zwischen AMD und Nvidia mit den Verträgen mit TMSC da aussieht) teurer, also schaut man sich an, was für Möglichkeiten man hat.

Ansichtssache... Meine Erfahrungen in der freien Marktwirtschaft zeigen da teils das genaue Gegenteil. Da wird der "Schuldige" immer bei den anderen gesucht. Genau so wie der, der den Karren aus dem Dreck ziehen soll, wenn es mal nicht weiter geht... Das ganze darf möglichst nix kosten. Und solange man ein Mitglied in einer Kette ist (was ja auch hier der Fall ist, Fertiger -> NV/AMD -> Boardpartner) so geht das Konzept mit dem Schwarzen Peter gerade für die in der Mitte idR auf ;)

Klar teurer wird es werden, das bestreitet auch niemand. Aber mal ehrlich, es ist nicht so, das AMD und NV hier aus dem letzten Loch pfeifen aktuell.
Schaut man sich an, NV kann den für 450€ verkauften "HighEnd" GK104 auch für unter ~270€ als 660TI vermarkten. Das sind über 40% mehr "Reingewinn" an der GPU selbst. Und selbst bei der quasi baugleichen 670 stehen dort noch 30-35% mehr für die 680er. Das ist rein auf die nakten Zahlen ziemlich übel, wenn man bedenkt, das das Geld quasi irgendwo versickert.

Und das die 670er so viel höhere Ausbeute bringt als die 680er glaube ich nicht. Vor allem, wenn man mit einbezieht, das AMD bei TSMC im gleichen Prozess den größeren Chip vom Band fährt aktuell ;)

Ansonsten, es bleiben ja noch weit mehr Möglichkeiten, die "Kosten" zu decken. Auch nicht zu vergessen ist hier die Betrachtungsweise. Denn wenn der Hersteller einer GPU, in dem Fall AMD oder NV keine Karten selbst baut, was sie ja so dediziert nicht tun. Dafür haben sie Boardpartner. So steht vorn auf dem Papier eine Zahl mit Kosten und hinten auf dem Papier eine Zahl mit Einnahmen, optimalerweise sollte die Zahl vorn niedriger sein als die hinten.
Ganz nüchtern runtergebrochen auf AMD und NV ist es also eher sogar das Anliegen der Boardpartner hier zu agieren. Denn diese kaufen die GPU vom Hersteller, und bauen mit weiteren Teilen das Produkt um es dann wiederum als ganzen zu vermarkten.
Wenn AMD/NV also die Kosten 1:1 durchreicht, wären sie immernoch fein raus ;)

Dazu bleiben weitere Möglichkeiten als direkt an der Verfahrensweise was zu ändern. Wie schon gesagt, einerseits kann man die Preise erhöhen (was gemessen an den Gewinnmengen wohl für den Endkunden unsinnig erscheint), andererseits kann man die Zeit, die das Produkt am Markt ist, verlängern. Uum dritten kann man auch die Schritte, zwischen den Produkten verkleinern. Sprich nicht mehr auf biegen und brechen eben 60-80% drauf packen, sondern kleine Brötchen mit 30-40%. Auch wäre eine gewisse eingebaute Reserve denkbar. (ala 15 SMX verbaut, aber nur 14 SMX genutzt -> vllt nicht auf ganzer SMX Ebene, sondern etwas drunter angesetzt, um Platz zu sparen) Das ganze lässt sich in meinen Augen so weit rauszögern, bis entweder doch irgendwann der Punkt kommt, wo es nicht kostendeckend weiter geht. Oder aber, bis jemand mit ner Technik um die Ecke kommt, die das dann aktuelle gänzlich in den Schatten stellt. Denn erst wenn es Eng wird, wird gehandelt. Das zeigt zumindest die Vergangenheit zu gewissen Teilen schon.
Eventuell wird man sich irgendwann mit einem Kompromiss beschäftigen, wie man die Yields erhöht, ohne die Leistungssprünge zu klein oder die Zeiten zwischen den Gens. zu groß werden zu lassen. Aber wie angesprochen, ich sehe diesen Punkt, andem wir sowas sehen werden, noch in weiter ferne. Was bei mir dann 10 Jahre+ sind.

Klar kann ich mich auch irren, aber 10 Jahre dürfte die aktuelle Fertigung durchaus noch durchhalten. Und was in 10 Jahren mal aus dem Thema Rasterisierung vs. xxx gewurden ist!? Vllt haben wir dann die Probleme so gar nicht mehr... ;)
 
Huhu Leute.

Hab ja hier schon länger nicht mehr reingeschaut. Um mal die Frage zu beantworten warum man K20 mit "nur" 13 SMX@225W TDP bringt: Besonders im HPC-Segment ist powermanagement extrem wichtig. Oft ist nicht mal mehr ein zusätzliches Kabel für PCIE übrig. Da viele der big deals von Fermi aufrüsten, war es wichtig die 225W nicht zu übersteigen. Dies muss auch unter thermischen Bedinungen die oft mehr einer PS3 gleichen zu 100% gewährleistet werden. Wenn es denn erforderlich ist den Spagat zu machen 2 Blöcke zu deaktivieren geht nVidia das gerne ein. Obendrein erhöht man so die yieldrate (angesichts des konservativen Takts ebenso).
Würde mich nicht wundern wenn die cremé de la cremé mit vollständig funktionierenden 15 SMX schon für Desktops und die mit 14 SMX auf Quadros verlötet werden.

@fdsonne: 10 Jahre ist ne lange Zeit vom heutigen Standpunkt aus. ;)
 
Zuletzt bearbeitet:
Würde mich nicht wundern wenn die cremé de la cremé mit vollständig funktionierenden 15 SMX schon für Desktops und die mit 14 SMX auf Quadros verlötet werden.

Beipflichtung auf ganzer Ebene aus rein technischen Aspekten sicher machbar

Bloß muss man sich bis Maxwell auch noch Spielraum offen lassen

Und von der Warte aus sind 15 Shadercluster wohl eher das Ende der Fahnenstange für die Keplerarchitektur

Gut möglich das man da bei den Paketen und beim Takt noch etwas geizt,abhängig von der Leistung von AMD
 
Zuletzt bearbeitet:
Huhu Leute.

Hab ja hier schon länger nicht mehr reingeschaut. Um mal die Frage zu beantworten warum man K20 mit "nur" 13 SMX@225W TDP bringt: Besonders im HPC-Segment ist powermanagement extrem wichtig. Oft ist nicht mal mehr ein zusätzliches Kabel für PCIE übrig. Da viele der big deals von Fermi aufrüsten, war es wichtig die 225W nicht zu übersteigen. Dies muss auch unter thermischen Bedinungen die oft mehr einer PS3 gleichen zu 100% gewährleistet werden. Wenn es denn erforderlich ist den Spagat zu machen 2 Blöcke zu deaktivieren geht nVidia das gerne ein. Obendrein erhöht man so die yieldrate (angesichts des konservativen Takts ebenso).
Würde mich nicht wundern wenn die cremé de la cremé mit vollständig funktionierenden 15 SMX schon für Desktops und die mit 14 SMX auf Quadros verlötet werden.

@fdsonne: 10 Jahre ist ne lange Zeit vom heutigen Standpunkt aus. ;)

Was wäre denn die nächstniedrigere Stufe bei der TDP? Meinst du mit zusätzliches Kabel ein zweites 6pin?
Laut Ailuros wirken sich die zusätzlichen SMX nicht so sehr auf den Verbrauch aus wie mehr Takt. Bei dem niedrigen Takt wundert es mich da schon etwas, dass man nicht 14 SMX hinbekommen hat. Weiß man etwas über den Realverbrauch von K20? Oder mit anderen Worten - wieviel Luft hat K20 noch, bis er an die TDP-Grenze stößt?
 
In meinen Augen wäre eine reine Profi-Produktlinie durchaus denkbar, sofern der Absatz stimmt.
Da die neue Quadro K5000 schon verfügbar ist, und diese auf GK104 basiert, ist absehbar, daß es die GK110 nur für die Quadro K6000 geben wird.

Gibt es dazu genauere Zahlen?
Ich könnte mir gar vorstellen, die Masse der frei gekauften Tesla Produkte ist gar höher als die, der im Verbund gekauften.
Man kann an der Top500 sehen, wie viele Teslas in großen Clustern verbaut werden. Z.B. Tianhe-1A, da sind gleich 7168 Tesla M2050 verbaut. Aber das ist noch eine Karte pro Dual Socket Knoten. Die Karten werden dann alle auf einmal eingekauft und ggf. in verschiedenen Chargen ausgeliefert. Wie bereits erwähnt geht der Trend zu mehr Karten pro Knoten. Das sieht dann etwa so aus CADnetwork CAD Workstations und Rendernodes - HPC / GPU Supercomputer. Die typische rechenintensive Ingenieurssoftware für Simulationen werden zunehmen mit Clustersupport angeboten, der dann meist auch auf Linux basiert, obwohl die eigentliche Applikation für Windows ist. Was da zählt ist der Preis pro Rechenleistung bei stabilen Dauerbetrieb, hier sind Knoten mit mehreren Teslas günstiger. Desweiteren reicht meistens eine Karte nicht aus, so daß man mehrere Karten einsetzen muß.
Denn die Stückzahl ist primär erstmal unabhängig der Spezifikation.
Nein, man macht das ja nur, weil man Probleme mit dem Yield hat. Sonst würde man nur das Topmodell verkaufen und ggf. ein leistungsschwächeres Modell. Aber letzteres muß man deutlich billiger verkaufen, sonst lohnt sich das für den Kunden nicht.
PS: Stromverbrauch ist durchaus wichtig, gerade bei sowas, sollte dir denke ich ja bekannt sein. Ob da nun 6x225W drin schlummern oder 6x300W ist schon ein gewaltiger Unterschied, wenn man ein 42HE Rack voll hat ;)
Die SuperMicro Server aus obigen Angebot haben 1,8kW Netzteile bei 2U. Mit dem passenden HPC Rack geht das. Aber bisher hat nVidia die Taktrate abgesenkt, falls es Probleme mit dem Stromverbrauch gab.

---------- Post added at 07:35 ---------- Previous post was at 07:20 ----------

Würde mich nicht wundern wenn die cremé de la cremé mit vollständig funktionierenden 15 SMX schon für Desktops und die mit 14 SMX auf Quadros verlötet werden.
Bei den Fermis wurden nur die Server Tesla M2090 mit voller Kernzahl ausgeliefert. Sowohl die Quadro 6000 wie auch die C2075 haben nur 448 Kerne aktiviert.
 
Was wäre denn die nächstniedrigere Stufe bei der TDP? Meinst du mit zusätzliches Kabel ein zweites 6pin?
Laut Ailuros wirken sich die zusätzlichen SMX nicht so sehr auf den Verbrauch aus wie mehr Takt. Bei dem niedrigen Takt wundert es mich da schon etwas, dass man nicht 14 SMX hinbekommen hat. Weiß man etwas über den Realverbrauch von K20? Oder mit anderen Worten - wieviel Luft hat K20 noch, bis er an die TDP-Grenze stößt?

Na ja es muss halt immer ein Spagat hinbekommen werden. Schau dir mal diese Racksysteme an. Da ist wenig Platz und wenig Flexibilität vorhanden. In einer Woche reise ich wieder nach Hause. Dort habe ich ein paar Werte von K20. Wenn ich mich recht erinnere wurde das Budget schon gut ausgeschöpft (~208 Watt). Aber weder Anwendung noch obs peak oder max ist weiß ich gerade aus dem Kopf.
Ailuros´ Aussage ist natürlich richtig. Aber was bringen dir 14 SMX@500 MHz? Er sagt auch dass die neuen features schon ein relativ schweres Gewicht in die Waagschale werfen. Das ist mir aber alles noch nicht so recht klar. Da werde ich mich aber als nächstes mal reinlesen und nachbohren.
@jdl: Was soll ich jetzt mit deiner Info anfangen ausser dir zu sagen: Das wusste ich schon? ;)

LG Hübie
 
Zuletzt bearbeitet:
750Mhz, 14SMX und 6GB/384bit Speicherinterface mit 1250MHz GDDR5?
K20 hat somit 25% mehr Textur-, Rechen- und Geometrieleistung, 7% mehr Pixelleistung und 25% mehr Bandbreite.

Also ist alleine K20 mit den Daten schon mal 25% schneller als die GTX680. Woot. :banana:
 
1250 MHz? Wo hast du das her?

Bedenke auch, dass GK104 einen Turbo hat und meistens mit etwa 1100 MHz taktet. Dann sind wir nur bei 16% mehr. Aber dennoch beachtlich.
 
K10 hat 1250MHz pro Chip. K5000, die Quadro-Version, kommt mit 1360Mhz und 122 Watt. Ich geh von einem ähnlichen Wert für K20 aus.

Und der Turbo des Referenzdesign der GTX680 liegt im Durchschnitt bei 1050MHz.
 
Laut Nvidia. In der Realität taktet die 680 aber etwas höher. Ich staple lieber tief und bin nachher positiv überrascht als andersherum.
 
Das Referenzdesign der GTX680 ist nicht in der Lage den vollen Boost bei akzeptabler Lautstärke zu halten. 1050MHz ist das, was man auch erhält. Sieht natürlich in Benchmarksession mit <30 Sekunden Durchgänge und Freiluftaufbau anders aus, aber das ist wiederum eine andere Geschichte.
 
Nun, dann dürftest du aber auch nicht mit diesen Benchmarksessions vergleichen, sondern nochmal vielleicht 5% abziehen. Das ist das Blöde am Boost - es ist nicht mehr vergleichbar. GK110 wird sicher auch den Boost bekommen. Vielleicht testet dann jemand mal längere Sequenzen. HT4U macht das glaube ich.
 
Das Referenzdesign der GTX680 ist nicht in der Lage den vollen Boost bei akzeptabler Lautstärke zu halten. 1050MHz ist das, was man auch erhält. Sieht natürlich in Benchmarksession mit <30 Sekunden Durchgänge und Freiluftaufbau anders aus, aber das ist wiederum eine andere Geschichte.

Wer definiert akzeptabel?
Nur ein Beispiel: Bei mir laufen die Karten bei vollem Lüfterspeed ;) Und ja, für mich ist das akzeptabel...

Noch kurz zum Turbo, meine beiden 680er laufen in Alltagssettings mit +140MHz auf der GPU. Das resultiert in dauerhaft anliegenden 1264MHz... Zieht man die 140MHz ab, bleiben 1124MHz und somit +118MHz über der 1006MHz Basis. box hat schon recht, der Turbo läuft in der Praxis oft auch mehr als das, was NV quasi vorgibt.
Dafür ist zwar eine Anhebung des PowerLimits notwendig. Aber selbst bei 100% und ohne Offset OC liegen bei mir immer mehr wie besagte 1050MHz an. Egal was ich damit anstelle... (geschlossenes Gehäuse, SLI Betrieb + dritte Karte, sowie vergleichsweise hohe Raumtemperaturen, gerade im Sommer)

Man muss nun abwarten, was GK110 mit dem Turbo anfängt, bzw. ob überhaupt einer kommt...

750Mhz, 14SMX und 6GB/384bit Speicherinterface mit 1250MHz GDDR5?
K20 hat somit 25% mehr Textur-, Rechen- und Geometrieleistung, 7% mehr Pixelleistung und 25% mehr Bandbreite.

Also ist alleine K20 mit den Daten schon mal 25% schneller als die GTX680. Woot. :banana:

Das ist ein ziemlicher Witz, dafür das das Teil fast doppelt so viele ALUs bringt + mehr Bandbreite durch 50% mehr SI usw.
Und das 1 Jahr nach dem GK104 die Welt erblickt hat (Release wird wohl wenn dann Q1-Q2 2013)

Und ob dann von den 25% schneller in der Theorie noch viel mehr wie 20% übrig bleiben werden, dazu noch den Turbo von GK104 einberechnet, ist das irgendwie nicht wirklich der Brüller...
 
Zuletzt bearbeitet:
Höher takten wird das Ding schon, keine Sorge. Ich gehe mal konservativ von 40% ggü. GK104 aus. Das sollte machbar sein.
 
Höher takten wird das Ding schon, keine Sorge. Ich gehe mal konservativ von 40% ggü. GK104 aus. Das sollte machbar sein.

??
Du meist also ~1,4GHz für GK110? Never...
Oder versteh ich das jetzt falsch?

EDIT:
ah OK, 40% schneller bei noch unbekannt höherem Takt sind wohl gemeint :fresse:
Könnte schon hinkommen. Aber das ist gemessen an dem Ausbau irgendwie immernoch ein wenn auch kleinerer Witz.

Vor allem, wenn ein in meinen Augen doch mit größter Warscheinlichkeit stark optimierter GK110 für die Tesla/Quadro Karten gerade so mit ~730MHz und 14SMX in 225W eingequetscht wurde, dürften für realistische ~850MHz bei sagen wir auch 14SMX mindestens 240-250W fällig werden.
Vllt resultiert das wirklich in 40% mehr Leistung, dafür hast du auch 50W mehr zu kühlen ;) + OC dann sogar wohl nochmal gut was mehr, sofern OC überhaupt in Größenordnungen möglich sein wird...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh