NVIDIA verrät weitere Details zu Pascal-GPUs

Robbe, Jose, mitkommen, nachsitzen. böse!

- - - Updated - - -

Wie bitte? Pascal hatte da sein finales tapeout. Das war die letzte Iteration und kein respin. Oder woran siehst du eine A2 bzw. B1-Revision?? :hmm:

Wer übrigens glaubt, dass man HBM2 in Performance-Segmenten findet sollte mal den Wecker stellen und aufwachen. Und 4 GB auf einem Produkt vom Schlage der GTX 980 wird man auch nicht mehr bringen (können).
ich kann mir schon vorstellen, dass HBM2 auch bei ner x70 noch was rausholt. aber alles Wünschen und Hoffen führt eh zu nix ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Pascal hatte da sein finales tapeout.
gibt es dazu einen beleg?
war die GPU echt funktionsfähig?
bis jetzt gibt es noch nichtmal bilder von einer karte, echt lustig wie viele seiten immer wieder die alten bilder mit dem HMC-DRAM veröffentlichen:O
NVIDIA wollte eine zeit lang bei Pascal auf HMC setzen, wiel man da keinen Interposer braucht und seit der zeit gibt es keine neuen bilder...
 
Beyond3d.com. Ein User der in der Vergangenheit nicht viel sagte, aber alles stimmte was von ihm kam. Er muss nah an einer Produktion oder gar bei nV selber sein. Da lesen auch viele Redakteure (z.B. Carsten Spille) mit. Klar. Keine Bestätigung als wenn nVidia das hoch halten würde, aber hey: Die haben schon Holz dafür benutzt :d
 
In der Tat, das gibt tatsächlich noch ein ganz spannendes Rennen um HBM2, wer als ertse über die Ziellinie. :)
 
Ich bin wirklich gespannt auf NV-Link. Soll es damit eventuell auf Verbesserungen bezüglich Mikroruckeln usw geben ?
 
NVLink wirst du definitiv nicht mit Pascal auf dem Desktop erleben. Darauf darfst du mich festnageln. :)

Aber um auf deine Frage einzugehen: da GPU 0 nicht mehr so lang auf die Daten von GPU 1 warten muss würde ich schon vermuten das gleichmäßigere Frametimes bei raus springen sollten. Allerdings kennen wir keinen Protokoll-Overhead oder Latenzen (Zeitfenster in denen Datenpakete ankommen müssen).
Was ich gelesen habe: 80 GB/s brutto sind knapp 64 GB/s netto. Also weitaus mehr als alles was bisher zu sehen war. Zum Vergleich: Bridge hat 1 GB/s up oder down, PCIE 3.0 x16 hat brutto 16 GB/s wovon 5,5 up oder down sind (11 netto).
Dennoch bezweifel ich dass auch mit Volta NVLink auf dem Desktop kommt, da zu dem Zeitpunkt PCIE 4.0 schon bereit sein sollte.
Das ist echt nur für große Nodes wie sie in Summit und Sierra geplant sind.
 
NVLink wirst du definitiv nicht mit Pascal auf dem Desktop erleben. Darauf darfst du mich festnageln.
doch, wenn er sich eine Dual-GPU graka kauft schon:O
halt nur per NVLink auf dem PCB verbunden, zur CPU/APU geht es per PCIe.

Das ist echt nur für große Nodes wie sie in Summit und Sierra geplant sind.
korrekt, NVLink ist für HPC wo hunderte GPUs untereinander vernetzt werden müßen!
 
Was macht dich da so sicher, ELKINATOR? Ich bin mir sicher dass, wenn denn überhaupt eine dual GPU kommt, diese ebenfalls nur einen PLX Switch nutzen wird. NVLink ist einfach sehr teuer und du musst ja eine Gewinnschwelle erreichen was auf die Art wohl nix wird (siehe dual GK110).
 
NVIDIA wollte eine zeit lang bei Pascal auf HMC setzen, wiel man da keinen Interposer braucht und seit der zeit gibt es keine neuen bilder...

Wieder nicht korrekt, auch HMC braucht einen Interposer. Wenn auch nicht so kompliziert:

Auch die Phi KNL welches MCDRAM von Micron nutzt verwendet ein Interposer. Quelle: Intel's Xeon Phi 14nm 'Knights Landing' Co-Processors Detailed - OmniPath Architecture 100 Series and 16GB HMC on a 2.5D Interposer & A Few Notes on Intel’s Knights Landing and MCDRAM Modes from SC15
Generell zu HMC, auch hier zu finden: http://www.semi.org/en/sites/semi.o... Summit 3DIC Tehcnology Forum_ Dean Klein.pdf & https://www.synopsys.com/Company/Pu...n-flow-IssQ1-12.aspx?cmp=Insight-I1-2012-Art3 & https://www.micron.com/~/media/documents/products/presentation/linley_presentation_2012.pdf

Aber scheinbar weißt du mehr als der Hersteller.
 
Also ich kann mir nicht vorstellen das Pascal in Lowend Segment mit gdrr5 daher kommt wie einige vermuten.
HBM Speicherinterface dürfte mit gdrr5 nicht kompatibel sein. Man darf dies nicht mit AMD vergleichen wo alte Karten neu aufgelegt wurden, da war die Maske ja schon vorhanden.
Glaube nicht das es sich rechnet eine extra Maske für gdrr5 zu erstellen für den neuen Fertigungsprozess.

Unter 4GB wird eh nix mehr gehen, die 2GB der 960 wurden ja schon eingestampft.
 
Bitte keine 16GByte-Grafikkarten! Da wird nächstes Jahr dann jeses Mini-Independent-Spielchen mit Grafik aus dem Mittelalter dann schon 12GByte fressen, so dass man wieder ein Schweinegeld in Grafikhardware stecken muss, ohne optischen Vorteil :( DIe Softwarehersteller sollen endlich wieder optimieren lernen anstatt nur noch zu pfuschen!
 
Zuletzt bearbeitet:
Was macht dich da so sicher, ELKINATOR?
NVIDIA Unveils Pascal GPU: 16GB of memory, 1TB/s Bandwidth | VR World
ich würde das bei einer dual-GPU karte nicht ausschließen, das verhältnis von FP32 zu FP64 soll bei Pascal ja auch nicht mehr so groß sein, die karte kann man dann auch als Quadro umgelabelt noch teurer verkaufen.

- - - Updated - - -

Da wird nächstes Jahr dann jeses Mini-Independent-Spielchen mit Grafik aus dem Mittelalter dann schon 12GByte fressen
so blöd ist kein entwickler, die werden nicht 90%+ der gamer hindern ihre spiele zu nutzen!
 
NVIDIA Unveils Pascal GPU: 16GB of memory, 1TB/s Bandwidth | VR World
ich würde das bei einer dual-GPU karte nicht ausschließen, das verhältnis von FP32 zu FP64 soll bei Pascal ja auch nicht mehr so groß sein, die karte kann man dann auch als Quadro umgelabelt noch teurer verkaufen.

NV braucht zeitnah wohl eine neue HighEnd GPU für den HPC Bereich... Intel zieht nach und AMD ist mit Hawaii schon effizienter unterwegs. Der GK210 stinkt dagegen schon ziemlich ab. GM200 ist nicht DP tauglich...
Also wird es wohl so laufen, dass der große Pascal wieder als HighEnd Chip für den Profimarkt kommt, dort als Tesla/Quadro für schweine teuer Geld zu erstehen geht und mit größter Warscheinlichkeit auch NVLink beherscht.
Das heist, sollte sich NV dazu entschließen, diesen GP100 oder wie man ihn nennen wird, als GTX irgendwas oder Titan irgendwas im "Mainstream HighEnd" zu bringen, dann KANN der Chip definitiv NVLink. Bestenfalls wird man die DP Performance für die nicht Titan Version wieder einkürzen wie üblich. Die Titan Version kann es dann wieder in vollem Speed mit vollem RAM.

Was halt völlig unklar ist, ob NV eine Dual GPU Karte auf Basis des großen Pascal bringen kann und wird? Warscheinlicher, weil viel einfacher zu bauen ist wohl eher, dass man zu Anfang erstmal nen Dual GP104 baut. Dank der wohl deutlich besseren Fertigung zu heute mit den 28nm und der sicher deutlich gesteigerten Energieeffizienz wäre sicher ein GP104 dazu in der Lage, einen vollen GM200 in die zweite Reihe zu verweisen. Im Doppelpack gibt so ein Konstrukt also auch entsprechend viel Power. Ob der GP104 auch NVLink bekommen wird, ist aber fraglich... Das ist eher Profimarkt und in den Bereichen gehts idR um DP Power anstatt um SP Power. GP104 wird wohl keine DP Power haben, analog allen anderen Performanceklasse GPUs davor.

Was macht dich da so sicher, ELKINATOR? Ich bin mir sicher dass, wenn denn überhaupt eine dual GPU kommt, diese ebenfalls nur einen PLX Switch nutzen wird. NVLink ist einfach sehr teuer und du musst ja eine Gewinnschwelle erreichen was auf die Art wohl nix wird (siehe dual GK110).

Der PLX Chip (oder eine Alternative dazu) wird so oder so notwendig sein, oder wie soll man sonst zwei GPUs über PCIe in einem PCIe Slot betreiben?
Mit NVLink hat das alles überhaupt nix zu tun. Die alles entscheidende Frage ist, baut NV im Profi/HPC Markt eine eigene GPU ausschließlich für diesen Markt oder nicht? Bis dato hat NV dies nicht getätigt... Es gibt/gab nur den GK210 als quasi GK110 "Refresh" dediziert im Profimarkt. Das war aber keineswegs was neues, sondern bestenfalls eine leichte Überarbeitung.
Ebenso verbaute/nutzte man idR die dicken Profimarkt GPUs für HighEnd Gamerkarten... Es spricht nicht viel dafür, warum man das mit Pascal anders machen sollte. Was im Umkehrschluss bedeutet, die große Pascal GPU wird ziemlich sicher NVLink beherschen. Zusätzlich wird das Teil ziemlich sicher ein PCIe Interface haben. Ob man allerdings beides nutzen kann (Dual GPU Karte), wird sich rausstellen müssen.

Aber ich glaube ihr habt auch ne falsche Vorstellung, was NVLink da überhaupt bringen kann??
Wozu sollte man das brauchen? Das wird bestenfalls mit DX12 interessant und auch dann nur, wenn sich SFR flächendeckend durchsetzen wird. Mit DX11 wird man weiterhin auf AFR gehen. Ob da nun deutlich mehr Bandbreite zwischen den GPUs ist oder nicht? Ist doch völlig hupe. AFR nutzt weiterhin den Speicher beider GPUs für den gespiegelten Dateninhalt usw.
Zumal ich auch die Euphorie dahingehend wenig nachvollziehen kann. Was will man denn (überspitzt gesagt) mit 80GB/sec auf dem Papier zwischen den GPUs, wenn die Speicherzugriffe auf den lokalen HBM Speicher mit 1000GB/sec geht und dazu sicher eine viel geringere Latenz aufweist?
Mit 80GB/sec wäre man zwar näher im Verhältnis zur heutigen VRAM/PCIe Bandbreite dran, aber auch nur um den Faktor 2x. Heute gibts um die 350GB/sec VRAM Bandbreite bei 16GB/sec PCIe Durchsatz (+1GB/sec SLI Brücke). Und morgen dann 1000GB/sec VRAM Bandbreite bei 80GB/sec NVLink Durchsatz. Das eine ist 1/21tel, das andere nunmehr 1/12tel. Beide Fälle im Vergleich aber viel zu langsam für dauerhaft dedizierte VRAM Zugriffe GPU übergreifend!

Wer übrigens glaubt, dass man HBM2 in Performance-Segmenten findet sollte mal den Wecker stellen und aufwachen. Und 4 GB auf einem Produkt vom Schlage der GTX 980 wird man auch nicht mehr bringen (können).

Da wäre ich mir gar nicht mal so sicher. Denn mit HBM "Generation 2" ist es doch möglich, mit den größen schön zu skalieren. Technisch wäre doch sogar ein 1 oder 2 Stack HBM Ausbau möglich. Sprich halbe Bandbreite und halbe Größe. Selbst eine 1 Stack Version mit doppelter Größe zu den 4GB wäre doch technisch drin. (wenn man bis 32GB mit vier Stacks gehen will/kann)
Das ist dann unterm Strich mit ziemlicher Warscheinlichkeit auch deutlich günstiger als die vollen vier Stacks zu verbauen in entsprechender Größe. Denn der reine Speicher und das "SI" an der GPU dürften so viel nicht kosten. Teuer ist doch eher der Interposer und das ganze noch zu verheiraten...

Wie wir aber NV kennen, werden die keineswegs zu viel machen, wenn man es nicht unbedingt muss. Selbst mit halber Bandbreite von HBM hätte man mehr als genug Bumms zwischen VRAM und GPU für ne neue Mittel/Performanceklasse. Ein viertel davon wäre da schon viel eher warscheinlich/realistisch.
Ob ein GP104 mit nem 256Bit GDDR5(X) Interface auskommt, muss sich rausstellen. Die Fertigung lässt ziemlich sicher ALU Anzahlen von 3072 oder mehr zu, ohne dass die Chipfläche explodiert. Auch in der Energieeffizienz dürfte sich das Teil eher bei GM204 einfinden.
 
Der PLX Chip (oder eine Alternative dazu) wird so oder so notwendig sein, oder wie soll man sonst zwei GPUs über PCIe in einem PCIe Slot betreiben?
indem NVIDIA einen NVLink-Bridge anbietet die per PCIe x16 wie gehabt mit der CPU kommuniziert?
die schnelle verbindung braucht man ja nur zwischen den beiden GPUs.

Aber ich glaube ihr habt auch ne falsche Vorstellung, was NVLink da überhaupt bringen kann??
für den kleinen heimanwender nichts, aber dafür wurde NVLink auch nicht primär entwickelt.
 
indem NVIDIA einen NVLink-Bridge anbietet die per PCIe x16 wie gehabt mit der CPU kommuniziert?
die schnelle verbindung braucht man ja nur zwischen den beiden GPUs.

Neja schon klar möglich. Aber warum? Diese GP100 GPU (oder wie sie heißen wird) bekommt doch so oder so auch ein PCIe Interface. Wie will man sonst die ganzen Serversysteme und Single GPU Workstations bedienen, die eben idR auf Intel Xeons aufbauen? Nur weil es NVLink gibt, kauft doch der Markt nicht ausschließlich Dual GPU Karten...
Und wenn die GPU sowohl PCIe als Interface als auch NVLink bekommt, warum nicht das nutzen, was im jeweiligen Markt verbreitet ist? Ich sehe den Sinn darin nicht, sich derart auf den Kopf zu stellen...
Wenn es notwendig sein sollte, zwei GPUs auf einem PCB über NVLink zu verbinden, dann lässt sich das auch INKL. der PCIe Anbindung tätigen... Aber selbst da sehe ich den Sinn nicht wirklich dahinter. Bestenfalls als Tesla Dual GPU Modell. Nur wer so ein Teil kauft, kauft idR doch sowieso nicht nur eine Karte. Sondern gleich das vierer Paket und macht die Hütte voll. -> wie kommunizieren die Dual GPU Karten dann untereinander? -> auch dafür brauch es wieder PCIe. (oder nen NVLink Connector für extern)

für den kleinen heimanwender nichts, aber dafür wurde NVLink auch nicht primär entwickelt.

Deswegen sag ich ja. Man ließt hier was von einer Connection mit mehr Bandbreite als PCIe und schon geht das geträume schon wieder los... Für die paar popligen Hanseln, die Dual GPU Karten kaufen, betreibt keiner so einen Aufwand. Und der Sinn steht selbst wenn man den Aufwand betreibt, immernoch in den Sternen... Auch ist ja lange nicht raus, ob es NV nicht mal wieder versucht zu übertreiben. Sprich Dual Titan Pascal Vollausbau -> das Teil kauft sowieso keiner, weil einfach viel viel viel zu teuer.
 
Man ließt hier was von einer Connection mit mehr Bandbreite als PCIe und schon geht das geträume schon wieder los...
weil für viele HPC und so zeug nicht existiert, die leute glauben NVIDIA entwickelt alles für den kleinen "gamer":O
NVLink wird es wohl eh nie in eine CPU für den heimanwender schaffen, bis jetzt ist der POWER9 auch die einzige CPU die überhaupt NVLink unterstützen soll.
bis dahin ist PCIe 4.0 halt auch schon da, da ist dei differenz beim durchsatz nicht mehr so extrem groß.

was mich auch interessiert ist, ob Pascal auch CAPI unterstützt?
finde dazu nichts.
 
Was wäre aber,wenn man die ganze Sache über die SLI-Brücke verbinden würde...? (muß natürlich entsprechend angepasst werden)
Effektiv würde nur eine GPU mit der CPU kommunizieren und per SLI-Brücke die Arbeit auf alle anderen GPUs verteilen...
Also eine Master-GPU verteilt die Arbeit und sammelt dann die Ergebnisse ein und puzzelt sie zusammen,dann erfolgt die Ausgabe.
 
Zuletzt bearbeitet:
man spart sich den Umweg über die begrenzten PCI-e lanes
Man würde sozusagen mehrere GPUs zu einer zusammenschließen...ähnlich den AMD-Modulen im CPU-Sektor
Natürlich kann man dann die neue(fiktive) Brücke nicht mit den alten vergleichen,da sehr viel mehr Daten mit höherer Geschwindigkeit übertragen werden müssen
Da nur eine GPU die Bilder zusammensetzt und ausgibt,könnten sich Microruckler und Tearing erledigt haben
 
Zuletzt bearbeitet:
ähnlich zu was???
Bei AMD-CPUs hast du einen Sockel,kannst aber beliebig viele Module zusammenkloppen(Kühlung mal außen vor)....bei den Grafikkarten könnte das so aussehen,dass man viele Karten über nur einen PCIe16 Slot betreibt. (der Rest steckt natürlich auch in einem PCIe-Slot,nutzt diesen aber nicht...könnte man dann auch in einem Laufwerkschacht unterbringen) Die Karten selbst kommunizieren dann über die fiktive Brücke wesentlich schneller als über PCIe.
 
Zuletzt bearbeitet:
@ ELKI:
Ich glaube er versucht den Interposer zu erklären :d
Aber NV Link ist ja nichts anderes als eine Interne Kommunikationsschnittstelle und da isses egal wie man das dingen nennt, und wenn es Leberwurst 2.0 heisst
 
Ich bin nun mal nur ein Laie was PC betrifft,
und deswegen verstehe ich absolut nicht was du sagen willst, es macht einfach keinen sinn.
ich kann nichtmal ansatzweise erahnen was du meisnt und das beispiel mit irgendwelchen CPU-Modulen verstehe ich auch nicht.
 
Meine Vorstellung war,dass nur eine GPU mit der CPU kommuniziert,dann die Arbeit an die restlichen GPUs verteilt,die Ergebnisse einsammelt und dann ausgibt....das Ganze aber ohne PCIe,sondern über eine eigene,schnellere Schnittstelle
Man würde also alle GPUs zu einer zusammenschließen
 
Zuletzt bearbeitet:
Ich will hier gar nicht posen...

Interposer ;) das ist Das Bindeglied zwischen GPU Die und PCB ;) Das ding damit man HBM nutzen kann.. Das hat Null mit Posen zutun ^^
https://de.wikipedia.org/wiki/Silizium-Durchkontaktierung

Kuckkuck, was du meinst nennt man Hyper Transport Link ;) Kommunikation untereinander.. Datenaustausch der Teilnehmer ist bei AMD unter NUMA zu finden. Die Idee ist nicht neu, damals wurde auch spekuliert ab wann man 2 Core GPUs nutzen wird.. NOCH sind wir aber Technisch nicht am Ende angelangt..
 
Zuletzt bearbeitet:
Ok,jetzt scheint meine Idee verstanden zu sein...könntet ihr "Fachidioten" euch mal so ausdrücken,dass auch ein Laie damit klar kommt?
Hier lesen auch viele Leute mit,die einfach nur einen Rechner zusammenbauen wollen....mit dem ganzen Fachchinesisch verunsichert man die leute...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh