Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
NV braucht zeitnah wohl eine neue HighEnd GPU für den HPC Bereich... Intel zieht nach und AMD ist mit Hawaii schon effizienter unterwegs. Der GK210 stinkt dagegen schon ziemlich ab. GM200 ist nicht DP tauglich...
Also wird es wohl so laufen, dass der große Pascal wieder als HighEnd Chip für den Profimarkt kommt, dort als Tesla/Quadro für schweine teuer Geld zu erstehen geht und mit größter Warscheinlichkeit auch NVLink beherscht.
Das heist, sollte sich NV dazu entschließen, diesen GP100 oder wie man ihn nennen wird, als GTX irgendwas oder Titan irgendwas im "Mainstream HighEnd" zu bringen, dann KANN der Chip definitiv NVLink. Bestenfalls wird man die DP Performance für die nicht Titan Version wieder einkürzen wie üblich. Die Titan Version kann es dann wieder in vollem Speed mit vollem RAM.
Was halt völlig unklar ist, ob NV eine Dual GPU Karte auf Basis des großen Pascal bringen kann und wird? Warscheinlicher, weil viel einfacher zu bauen ist wohl eher, dass man zu Anfang erstmal nen Dual GP104 baut. Dank der wohl deutlich besseren Fertigung zu heute mit den 28nm und der sicher deutlich gesteigerten Energieeffizienz wäre sicher ein GP104 dazu in der Lage, einen vollen GM200 in die zweite Reihe zu verweisen. Im Doppelpack gibt so ein Konstrukt also auch entsprechend viel Power. Ob der GP104 auch NVLink bekommen wird, ist aber fraglich... Das ist eher Profimarkt und in den Bereichen gehts idR um DP Power anstatt um SP Power. GP104 wird wohl keine DP Power haben, analog allen anderen Performanceklasse GPUs davor.
Der PLX Chip (oder eine Alternative dazu) wird so oder so notwendig sein, oder wie soll man sonst zwei GPUs über PCIe in einem PCIe Slot betreiben?
Mit NVLink hat das alles überhaupt nix zu tun. Die alles entscheidende Frage ist, baut NV im Profi/HPC Markt eine eigene GPU ausschließlich für diesen Markt oder nicht? Bis dato hat NV dies nicht getätigt... Es gibt/gab nur den GK210 als quasi GK110 "Refresh" dediziert im Profimarkt. Das war aber keineswegs was neues, sondern bestenfalls eine leichte Überarbeitung.
Ebenso verbaute/nutzte man idR die dicken Profimarkt GPUs für HighEnd Gamerkarten... Es spricht nicht viel dafür, warum man das mit Pascal anders machen sollte. Was im Umkehrschluss bedeutet, die große Pascal GPU wird ziemlich sicher NVLink beherschen. Zusätzlich wird das Teil ziemlich sicher ein PCIe Interface haben. Ob man allerdings beides nutzen kann (Dual GPU Karte), wird sich rausstellen müssen.
Aber ich glaube ihr habt auch ne falsche Vorstellung, was NVLink da überhaupt bringen kann??
Wozu sollte man das brauchen? Das wird bestenfalls mit DX12 interessant und auch dann nur, wenn sich SFR flächendeckend durchsetzen wird. Mit DX11 wird man weiterhin auf AFR gehen. Ob da nun deutlich mehr Bandbreite zwischen den GPUs ist oder nicht? Ist doch völlig hupe. AFR nutzt weiterhin den Speicher beider GPUs für den gespiegelten Dateninhalt usw.
Zumal ich auch die Euphorie dahingehend wenig nachvollziehen kann. Was will man denn (überspitzt gesagt) mit 80GB/sec auf dem Papier zwischen den GPUs, wenn die Speicherzugriffe auf den lokalen HBM Speicher mit 1000GB/sec geht und dazu sicher eine viel geringere Latenz aufweist?
Mit 80GB/sec wäre man zwar näher im Verhältnis zur heutigen VRAM/PCIe Bandbreite dran, aber auch nur um den Faktor 2x. Heute gibts um die 350GB/sec VRAM Bandbreite bei 16GB/sec PCIe Durchsatz (+1GB/sec SLI Brücke). Und morgen dann 1000GB/sec VRAM Bandbreite bei 80GB/sec NVLink Durchsatz. Das eine ist 1/21tel, das andere nunmehr 1/12tel. Beide Fälle im Vergleich aber viel zu langsam für dauerhaft dedizierte VRAM Zugriffe GPU übergreifend!
Da wäre ich mir gar nicht mal so sicher. Denn mit HBM "Generation 2" ist es doch möglich, mit den größen schön zu skalieren. Technisch wäre doch sogar ein 1 oder 2 Stack HBM Ausbau möglich. Sprich halbe Bandbreite und halbe Größe. Selbst eine 1 Stack Version mit doppelter Größe zu den 4GB wäre doch technisch drin. (wenn man bis 32GB mit vier Stacks gehen will/kann)
Das ist dann unterm Strich mit ziemlicher Warscheinlichkeit auch deutlich günstiger als die vollen vier Stacks zu verbauen in entsprechender Größe. Denn der reine Speicher und das "SI" an der GPU dürften so viel nicht kosten. Teuer ist doch eher der Interposer und das ganze noch zu verheiraten...
Wie wir aber NV kennen, werden die keineswegs zu viel machen, wenn man es nicht unbedingt muss. Selbst mit halber Bandbreite von HBM hätte man mehr als genug Bumms zwischen VRAM und GPU für ne neue Mittel/Performanceklasse. Ein viertel davon wäre da schon viel eher warscheinlich/realistisch.
Ob ein GP104 mit nem 256Bit GDDR5(X) Interface auskommt, muss sich rausstellen. Die Fertigung lässt ziemlich sicher ALU Anzahlen von 3072 oder mehr zu, ohne dass die Chipfläche explodiert. Auch in der Energieeffizienz dürfte sich das Teil eher bei GM204 einfinden.
Es wäre auch mal schön, wen nVidia die "großen" gleich zu beginn releasend würde und nicht wieder erst die "midrange"-Teile.
Einwand A) Es wird doch nicht jedes mal der komplette VRAM von GPU1 nach GPU0 kopiert. Dein Vergleich hinkt derbe.
B) Sage ich dass eine direkte Verbindung zwischen zwei GPUs auf einem PCB mit NVLink was bringt wenn Latenzen entsprechend gering sind. Was willst du da jetzt über PCIE senden? Da kommen nur Daten wie Drawcalls von der CPU an GPU0 an bzw. gehen ab. Dafür reicht es dicke.
C) Das gesamte Konzept im Performance-Markt mit HBM2 wäre finanziell nicht tragbar. Noch nicht. HBM kostet pro GB mehr, der Interposer und das balling von den dreien ist zeit- und kostenintensiv. Wo willst du jetzt die Marge hernehmen um die Renditeerwartungen zu erfüllen? ROI ist doch das A und O für mich als Investor. Was da jetzt im einzelnen nicht viel mehr kostet ist irrelevant. Das Gesamte muss betrachtet werden (auch R&D).
Edit: 2012 habe ich im Gespräch mit einem Ingi erfahren dass zukünftig die Schere (Produktdifferenzierung) zwischen Geforce und Tesla immer größer werden wird, da beide Märkte sich immer unterschiedlicher entwickeln würden und HPC ausserdem immer mehr Umsatzanteile aufbaut. Also wird mit Pascal wohl der erste Schritt dahin getan. Später könnte man sich z.B. die komplette Display-Engine ersparen und noch einiges mehr. Das RTOS z.B. erweitern..
glaub ich eher nicht, AMD lässt bei TSMC immerhin auch den SOC der PS4 und XBone fertigen.(bekommt u.a. bei TSMC andere Konditionen).
Das du dabei gleich von einer komplett neuen Render-Technologie ausgegangen bist ging nicht aus deinem Beitrag hervor, denn auch SFR teilt sich den VRAM nicht bzw. er wird nicht verdoppelt.
Das weis ich durchaus, weswegen ich auch seit Jahr und Tag sage, dass die Titan Modelle durchaus ihre Abnehmer hat, weil es eben auch ein Zwitter ist, dafür aber leichte Nachteile (kein ECC RAM bspw.), aber deutlich günstiger als ähnlich schnelle Profikarten.Zu Quadro: Du hast da fast die gleichen Anforderungen wie GeForce und musst entsprechend weniger differenzieren. Das bleibt wie es ist (hier und da ein anderes Bauteil auf dem PCB, BIOS anders und Treiber eben anders). Du wirst dich aber auch wundern wieviele Unis, Firmen etc. eine GeForce nutzen (Kein Scherz!)
Zum Punkt C): Solche Zahlen gehen nicht nach aussen, aber ich kann dir z.B. sagen dass ein GK104 damals um die 40$ lag und ein GK110 bei 90$. GM204 hebt sich vom GK104 nicht groß ab. AMDs Fiji dürfte mit Interposer und HBM schon bei 170-190$ liegen (soviel kostete mal ein GK110-Board komplett). Eine echte Monstrosität im Vergleich, dafür ist aber DRAM gleich inklusive (4GB GDDR5 ~23$). Eine große Kühlung kommt etwa 40-50$ und kleine ab 7-10$ (Alu-Block+Lüfter). PCB ist bei Fury natürlich ein absolutes Rätsel und das kann ich bei GeForce auch nur in etwa hoch rechnen (schätze so 35-40$ für ein bestücktes GK110-Board).
nVidia fährt einfach deutlich höhere Margen als AMD ein (bekommt u.a. bei TSMC andere Konditionen). AMD kann es sich gar nicht leisten so eine Marge auf Fiji draufzupacken, weil dann der Absatz faktisch gegen Null ginge (Preis nach Cournot ).
Das würde ich mir auch wünschen. So wie früher vor der 600er GeForce Serie. Es ist zwar schön zu sehen daß die großen Performance Chips den High End der Vorgeneration meist das Wasser abgraben (z.B. GK104 zu GF110 oder GM204 zu GK110), trotzdem ärgert es mich Premium Preise für "kleine" Performance Chips/Karten zu zahlen wenn dann etwas später erst die echten High End Modelle (meist aber zu noch höheren Preisen) raus kommen.Es wäre auch mal schön, wen nVidia die "großen" gleich zu beginn releasend würde und nicht wieder erst die "midrange"-Teile.
Oder am besten gleich alle Modelle auf einen Schlag, so dass man gleich eine breite Masse an Auswahl und verfügbarkeit hat.*träum*
Ich glaube ich verstehe was Du meinst. Dieses Szenario könnte in einigen Situationen gut funktionieren, allerdings hast Du eben von diesem Konstrukt zur CPU dann einen Flaschenhals. Für wenige GPUs und Einsatzzwecke wie vielleicht Spiele wo nicht irre viele Daten zwischen CPU und GPU(s) herumgeschaufelt werden und die GPU dann auch noch als Ausgabe genutzt wird könnte das Vorteile bringen.Meine Vorstellung war,dass nur eine GPU mit der CPU kommuniziert,dann die Arbeit an die restlichen GPUs verteilt,die Ergebnisse einsammelt und dann ausgibt....das Ganze aber ohne PCIe,sondern über eine eigene,schnellere Schnittstelle
Man würde also alle GPUs zu einer zusammenschließen
Ich glaube er versucht den Interposer zu erklären
...
Ich will hier gar nicht posen...
Es gibt doch genug Blöde, die Grafikkarten zum Zocken für über 700€ kaufen :P
Mit der Abkapselung der aktuellen HighEnd-Reihen durch eigene Namensgebung haben AMD und NVIDIA doch bereits ein eigenes Marktsegment für absurd überteuerte Spieledarsteller kreiert und die bieten bisher noch nicht einmal allzu große praktische Vorteile.
Ich glaube irgendwie das erstmal nur ne Titan mit 16GB HBM erscheint für ca 1399 Euro mit ca 70%+ auf die TitanX ist bei neuer Fertigung und Architektur alles möglich.
Dann die kleinen Chips mit GDDR5X 6GB für ca 600 Steine mit ca 35%+ auf die Ref.980Ti.
Später dann eine TI mit 8GB HBM für ca 899 Euro die die Lücke zwischen 600 und 1399 Euro füllt.
2017 irgendwann mit Volta auch kleiner Chips mit HBM.
Aber halt nur ne Vermutung kann auch sein das die kleinen Karten als erstes kommen dann aber ohne HBM vermute ich.
Darf weiter Spekuliert werden
das hat auch gute gründe, die Yield ist bei kleineren Dies höher!wenn es so weitergeht wie bisher, wird nVidia erst wieder den abgespeckten Pascal verkaufen um dann nen halbes Jahr später einen Vollausbau als Titan Version zu bringen
Auf welcher Annahme begründest du deine Vermutung? Macht kein Sinn den teuersten Chip auf neuem Prozess mit neuer µArch zu launchen, wo man doch weiß, dass die yields und Absatzmengen in homöopatischen Dosen statt finden.