NVIDIAs Pascal-GPU wird von TSMC im 16 nm FinFET-Verfahren gefertigt

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" width="100" height="100" alt="nvidia 2013" style="margin: 10px; float: left;" />Im kommenden Jahr werden sowohl AMD als auch NVIDIA bei der Fertigung ihrer GPUs auf das FinFET-Verfahren wechseln. Alle aktuellen Chips für die Grafikbeschleuniger werden noch in 28 nm gefertigt, so dass der Wechsel ein großer Sprung sein wird. Für die Hersteller bedeutet er sowohl eine Herausforderung als auch die Möglichkeit, hinsichtlich der Komplexität und Effizienz deutlich aufzustocken. TSMC und Samsung gelten als die einzigen beiden Auftragsfertiger, die in der Lage sind, solch komplexe Chips in einem neuen Verfahren fertigen zu können. Wie die <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/36613-nvidias-pascal-gpu-wird-von-tsmc-im-16-nm-finfet-verfahren-gefertigt.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Bild zeigt einen Fake. Das ist aber schon ewig bekannt.
 
Das Bild zeigt einen Fake. Das ist aber schon ewig bekannt.

Das wurde auch nie als echtes Bild deklariert. NVIDIA hat das Rendering bereits im letzten Jahr auf der GTC gezeigt. Es zeigt aber eben eine Pascal-CPU nebst 3D Memory, wie sich NVIDIA das vorstellt. Die Frage Fake oder nicht stellt sich bei dem Thema also gar nicht.
 
Soso 2016...Ich glaube solche Natrichten nicht mehr. Sondern erst wenn das Produkt im Laden zu kaufen gibt.
Mitte 2012 wurde gesagt, das in der ersten Hälfte 2013 20nm Gragikkarten auf den Markt kommen, ich habe gewartet, aber selbst zu Weihnachten nix...auch 2014 nix...
Wollte meine 560ti ersetzten, aber dank der, meist 1:1 übersetzung von Konsolen auf PC, reichte die Grafikkarte doch viel länger als gedacht.
Hab mittlerweile eine ausrangierte 770GTX geschenk bekommen, aber kaufen werd ich erst mit einen kleineren Herstllungsprozess.
 
Zuletzt bearbeitet:
Das wurde auch nie als echtes Bild deklariert. NVIDIA hat das Rendering bereits im letzten Jahr auf der GTC gezeigt. Es zeigt aber eben eine Pascal-CPU nebst 3D Memory, wie sich NVIDIA das vorstellt. Die Frage Fake oder nicht stellt sich bei dem Thema also gar nicht.

Hat nicht der NV CEO diese Platine (was auch immer sie genau darstellt) bei der Präsentation der TitanZ oder TitanBE, ich weis nicht mehr genau, schonmal in die Höhe gehalten??
 
Mir würde eine GTX 1060 mit HBM völlig reichen denke ich, bin gespannt wieweit Nvidia die TDP mit HBM runter kriegt.
 
Hat nicht der NV CEO diese Platine (was auch immer sie genau darstellt) bei der Präsentation der TitanZ oder TitanBE, ich weis nicht mehr genau, schonmal in die Höhe gehalten??
http://www.pcgameshardware.de/Nvidi...255598/News/Pascal-16-nm-FinFET-TSMC-1171470/
Hier im Video zeigt der Ceo Pascal
https://www.youtube.com/watch?v=4b-VCQHTRi0
You toube 5:25min wird das Teil auch gezeigt.

Wenn ich bei PCGH richtig verstanden habe ein Vorserien Muster aus einer kleinen Marge.

Glaube 2014 wurde es im Herbst aufgenommen.
 
Zuletzt bearbeitet:
Weil es lustig war und es in aller Munde gewesen ist?
 
ich glaube nicht mehr an große sprünge sieht man ja an intel...
gabs nicht mal die ansage echtzeit ray tracing steht vor der tür so vor 5+ jahren?

abwarten
 
ich glaube nicht mehr an große sprünge sieht man ja an intel...
gabs nicht mal die ansage echtzeit ray tracing steht vor der tür so vor 5+ jahren?

abwarten
Das war damals Intels Projekt "Larrabee". Daraus sind die Xeon Phi hervorgegangen.

...aber back to Topic.
2016 erwarte ich eigentlich garnichst von NVidia. Die werden natürlich erstmal totale Krüppel herausbringen wie damals die GTX 670/680. Das Pondon zu den 780/780ti bzw. 980/980ti kommt erst 2017.
 
Ich finde ja es wäre interessant wenn sich Intel als dritter Grafikkarten Hersteller dazu sinnt, das Budget dafür hätten sie ja und ein dritter Hersteller könnte etwas Bewegung einbringen und die Preise vielleicht auch etwas reduzieren lassen.

@Tecfreak es muss ja nicht immer High-End sein, für mich und damit stehe ich sicher nicht allein, reicht die Region um einer x60 durchaus. Eine 1060 mit der Leistung einer 970 für rund 100TDP bei rund 200€. Ist vielleicht etwas zu viel erwartet aber wäre interessant :)
 
Zuletzt bearbeitet:
Jaja ist lustig wie Nvidia die Leute verarscht :wall:

Ich habe mich weg gehauen als das Bekannt gegeben wurde .
Weiß nicht mehr genau ne 5870 oder die 5970 hatte ich zu dem Zeitpunkt im Rechner.

Verarscht hätte ich mit gefühlt wen ich dann anstatt einer GTX580 Hydrogen Brenholz in meinem Karton vorgefunden hätte.:rofl:

Mal im ernst wenn ich am Ende ein gutes Produkt erhalte ist mir das wayne.

Die GTX 970 war eine Sauerei da gehe ich voll mit da ich aber nicht auf kleine GPUS stehe war ich nicht von betroffen.
Absolut unseriöse Machenschaften waren das in jedem Fall meiner Meinung nach.
 
Zuletzt bearbeitet:
Einen Vorteil hätte es, wenn NVIDIA auf TSMC und AMD auf Samsung/GF setzen würde. Dann wären Engpässe sicherlich weit weniger vorhanden.
Wenn aber Beide gleichzeitig wieder nur bei einem Fertiger bestellen würden, so darf man wieder auf Verschiebungen warten.
 
das bild zeigt aber noch eine GPU mit HMC?

HBM ohne Interposer geht nur, wenn man ihn direkt auf die GPU setzt.
der am foto gezeigte aufbau ist mit HBM nicht möglich!

das bild dürfte auch noch aus der zeit sein, in der NVIDIA auf HMC setzen wollte.
 
Jaja ist lustig wie Nvidia die Leute verarscht :wall:

es ging damals wohl eher darum das die Platine nicht in die falschen Hände gelangen sollte, deswegen hat man auf eine Attrappe gesetzt.
warum sollte man sonst eine Attrappe zeigen?!

fermi wurde damals auch oft verschoben.
 
Zuletzt bearbeitet:
Aber warum sollte man das tun? Wen wollte man denn täuschen, wenn man wirklich dieses Ziel verfolgt hätte? Ich kann mich noch erinnern, dass davon berichtet wurde das die Atrappe damals ziemlich schlecht verarbeitet war, viel zu schlecht um damit irgendjemanden ernsthaft täuschen zu können. Zudem dürfte der Versuch einer Täuschung schon von Anfang an zum Scheitern verurteilt sein, denn die Leute die in der Branche tätig sind, werden sich kaum durch eine Atrappe hinters Licht führen lassen.
 
ja, die war schlecht geschnitzt, die PCIe pins waren sogar verkehrt herum^^^
warum man mit einer so schlechten Atrappe jemanden täuschen wollte kann wohl nur NVIDIA beantworten!
 
Wenn man nicht täuschen wollte, dann vieleicht um einfach zu zeigen wie die Karte mal aussehen sollte.. allerdings fidne ich das auch irgendwo sinnlos.
 
War es nicht so, dass AMD zu dem Zeitpunkt die HD 5000er Serie schon fast draußen hatte? Und man dadurch dann den Leuten zeigen konnte "hey es gibt von uns auch schon fertige Karen, wartet bitte noch ein paar Monate..."

Wird aber OT, sorry dafür.
 
ja, so dürfte NVIDIA das geplant haben.
atrappen sind ja eigentlich nichts böses, aber es ist üblich das publikum darauf hinzuweisen!
 
Das war damals Intels Projekt "Larrabee". Daraus sind die Xeon Phi hervorgegangen.

...aber back to Topic.
2016 erwarte ich eigentlich garnichst von NVidia. Die werden natürlich erstmal totale Krüppel herausbringen wie damals die GTX 670/680. Das Pondon zu den 780/780ti bzw. 980/980ti kommt erst 2017.

Nun ja sollte der 3D Ram Einzug halten werden die Grenzen verschwimmen 670.680.970.980 waren kleiner Chips mit 256bit Anbindung anhand dessen sprachen ja viele davon das es kein high end sei.

Mit einer neuen Anbindung wäre das zumindest nicht mehr gegeben.
Glaube zu release konnte die GTX680 mit ihren nur 300mm2 um 35% auf die GTX580 zu legen.
Auch mit einem kleinem Chip 16nm 300-400mm2 und neuer Architektur sind grosse Sprünge denkbar.

Muss man erstmal abwarten.
Ich sage nur innerhalb einer Fertigung Titan Black Vs.Titan X.
Da hat man mal eben um ca.45% zugelegt.
 
ich glaube nicht mehr an große sprünge sieht man ja an intel...
gabs nicht mal die ansage echtzeit ray tracing steht vor der tür so vor 5+ jahren?

abwarten
Also da der Sprung in der Fertigung schon ein größerer ist glaube ich auch daß sich bei den Chips einiges ändern kann. Vor allem eben in der Effizienz bzw. Chipgröße. Leistungsmäßig wird sich der Sprung aber bestimmt in Grenzen halten, weil man sich ja nicht sofort selbst die älteren Modelle aus dem Rennen werfen will. Sprich wenn eine GTX 1080 um 50% schneller ist als eine GTX 980, aber nur etwas mehr kostet kauft keiner mehr die alten Modelle.
Auch HBM wird einen Einfluß auf die Leistung haben. Wie gut/wie viel steht noch in den Sternen. Bei der Fury sieht man ja daß da durchaus Potential dahinter steckt, allerdings auch nicht sooo viel denn auch die dicke GPU der FuryX kann einer 980Ti mit herkömmlichen GDDR5 davonrennen.

Ja die Raytracing Geschichte vor vielen Jahren ist wieder eingeschlafen. Liegt wohl mitunter daran daß das eine ganz andere Anforderung an die Hardware und Software ist. Die aktuellen GPUs und Softwareschnittstellen wie Direct3D sind halt auf Vektorberechnungen optimiert und ausgelegt. Durch die Compute Units kann man diese natürlich auch für andere Sachen mißbrauchen und bestimmt auch irgendwie für Raytracing nutzen, aber speziell darauf optimierte Hardware könnte das natürlich viel schneller.

Wie @tecfreak schon anmerkte war Intels Larrabee ursprünglich ein Kanditat dafür, wurde aber in späterer Folge nicht als Grafikkarte produziert sondern als reine Beschleunigerkarte im Computing Sektor eingesetzt.

...

...aber back to Topic.
2016 erwarte ich eigentlich garnichst von NVidia. Die werden natürlich erstmal totale Krüppel herausbringen wie damals die GTX 670/680. Das Pondon zu den 780/780ti bzw. 980/980ti kommt erst 2017.
Warum sind bei Dir eine GTX 670 und 680 "totale Krüppel"? Und warum ist es dann eine 980 in Deinen Augen nicht???

Die 670 und 680er waren damals recht offensichtlich "Midrange/Performance" Karten eben weil sie ein deutlich kleineres Speicherinterface als Ihre Vorgänger hatten aber vor allem durch den Chipnamen GK104 welcher eben nicht auf HighEnd bzw. größten Chip der Serie hindeutete. Was später durch die Titan, GTX 780 bzw. Ti bestätigt wurde. Das hat einigen Leuten etwas sauer aufgestoßen, inkl. mir. Nachdem jedoch die "kleinen" Chips genug Leistung hatten um sich mit der Konkurrenz zu messen bzw. genug Abstand zur vorherigen Generation zu bieten wurden diese eben als "schnellste Modelle der Serie" vermarktet.
Leider hat nVidia dieses Schema beibehalten bei der 970/980er GTX.
Was mich nach wie vor dran ärgert sind die Preise, denn nVidia hat nun einfach diese "Midrange/Performance" Karten in den HighEnd Preis geschoben und für die Ti Varianten dann ein Premium Preis Segment darüber geschaffen welches zuvor eigentlich nur Dual GPU Karten bzw. den Titan Modellen vorbehalten war.

Zu den Fake Modellen die auf Messen bzw. Renderings gezeigt wird ... das erinnert mich auch an die 3DFX Voodoo 5 6000 die zur Messe 99 gezeigt wurde. Immerhin war es dort eine schicke Platine mit Bauteilen die jedoch nicht lauffähig war da schon alleine alle Leiterbahnen auf der Platine fehlten und die Anordnung der Chips so nicht möglich.
Ist doch egal ob die da ein Stück Holz oder eine bestückte Platine in die Höhe halten die so nie lauffähig ist. Solange sie nicht Detailfotos zeigen und behaupten daß das das fertige Produkt ist, wayne.
 
Ich glaube schon das man gleich 50%+ Mehrleistung auf den Markt los lassen kann.
Ohne sich das Geschäft mit den anderen Karten zu versauen.
Man muss den Preis für das neue Produkt nur dementsprechend hoch genug ansetzen.

Denke nicht das die Stückzahlen in den ersten Monaten all zu hoch sein werden wenn man mal bei AMD rüber schaut mit HBM sieht man ja das es schleppend angelaufen ist oder läuft.

Da zu kommt noch ein shrink und wenn man von 8GB ausgeht ist ein hoher Preis garantiert.

Das wird man sich auf jeden Fall in Euronen veredeln lassen.
 
Zuletzt bearbeitet:
Was mich nach wie vor dran ärgert sind die Preise, denn nVidia hat nun einfach diese "Midrange/Performance" Karten in den HighEnd Preis geschoben und für die Ti Varianten dann ein Premium Preis Segment darüber geschaffen welches zuvor eigentlich nur Dual GPU Karten bzw. den Titan Modellen vorbehalten war.

Das kann man so aber auch nicht stehen lassen...
Die Preisspirale fing eigentlich mit der Folgegeneration von der HD4870/GTX 260 an zu drehen. Und das war weit vor der NV Politik, Mainstream Modelle und HighEnd Modell zeitlich versetzt zu vermarkten und somit bei beiden Versionen hohe Preise aufrufen zu können. Denn das waren die Performancekarten, die es für nen sehr sehr schmalen Taler zu kaufen gab. Kurz vor Auslauf der Reihe waren 110-120€ für ne HD4870 keine Seltenheit und die nicht minder schnelle GTX 260 lag preislich nur minimal drüber.
Endresultat war, dass gerade bei NVs riesigem G200(b) Chip die Boardpartner von sich aus die Produktion/Auslieferung runtergefahren, teils sogar eingestellt haben für einige Modelle, weil es nicht rentabel war, diese Modelle zu bringen!

Nur zur Erinnerung, NV hat mit der GTX 680 das Leistungsniveau der damaligen HD7970, welche ca. 3 Monate eher am Markt eintrag, erreicht, teils übertroffen, teils auch nicht. Preislich startete eine HD7970 mit ~500€ -> und exakt diesen Preis hat NV übernommen. Ich sehe da faktisch keinen Grund für eine derartige Diskusion mit dem Grundgedanken, NV hätte "Midrange/Performance" Karten in den HighEnd Preis. NV hat in dem Fall eine Karte mit einem schmalen Chip, weil kleine Fertigung als "HighEnd" Modell vermarktet, was durchaus legitim ist. Genaus so wie AMD eine HD7970 später mit einer noch viel größeren Hawaii GPU und noch später mit einer Fiji GPU abgelöst hat. Wo ist der Unterschied?


Eigentlich interessiert die Preisdiskusion doch nur sekundär. Dass Niedrigpreise wie im Falle der HD4870/GTX 260 auf Dauer für funktionieren sollte klar sein. Dass allerdings diese niedrigen Preise den Kunden am Besten gefallen, sollte auch logisch sein. Der ganze Rest der Diskusionen ist so extrem subjektiv und von Fall zu Fall sowie Person zu Person unterschiedlich, dass jegliche Debatte darüber sich nicht generell unter einen akzeptierten Hut bringen lässt!
 
Naja nein, das lass ich nicht so stehen.
Es stimmt daß zur Zeit der HD48xx und GTX 2xx Modelle oft Dumping Preise angesetzt waren, vor allem kurz vor Release neuer Generationen. Daß das auch nicht auf ewig funktionieren kann war auch klar.

Die Preisspirale fing eigentlich mit der Folgegeneration von der HD4870/GTX 260 an zu drehen. Und das war weit vor der NV Politik, Mainstream Modelle und HighEnd Modell zeitlich versetzt zu vermarkten und somit bei beiden Versionen hohe Preise aufrufen zu können. Denn das waren die Performancekarten, die es für nen sehr sehr schmalen Taler zu kaufen gab. Kurz vor Auslauf der Reihe waren 110-120€ für ne HD4870 keine Seltenheit und die nicht minder schnelle GTX 260 lag preislich nur minimal drüber.
Also die HD4870 war definitiv keine Performance Karte sondern High End. Was gab es denn darüber? Etwas später die HD4890 ... same thing wie die 4870 nur mit mehr Takt. Und halt die X2 Karten welche aber wie ich schon sagte einen Sonderstatus hatten. Die GTX 260 war auch fast High End, aber okay da laß ich Performance noch durchgehen. Jedoch bekam man auch eine GTX 275, 280 und später 285 für relativ vernünftiges Geld. Eine GTX 280 bekam man um etwas über 300 EUR ... sollen es 350 gewesen sein. Und die war auch High End.

Nur zur Erinnerung, NV hat mit der GTX 680 das Leistungsniveau der damaligen HD7970, welche ca. 3 Monate eher am Markt eintrag, erreicht, teils übertroffen, teils auch nicht. Preislich startete eine HD7970 mit ~500€ -> und exakt diesen Preis hat NV übernommen.
Die GTX 680 und HD7970 waren zu Ihrer Zeit High End da es außer Dual Karten nichts schnelleres gab. Gut - haben 500 EUR gekostet, in Ordnung. Doch jetzt kostet eine 980er immer noch fast 500 EUR (wo sie zuvor lange drüber war) und die ist nicht mehr High End. Das stellt nun die 980Ti dar, bzw. bei AMD die Fury Serie. Das meine ich mit den Preisen die mich etwas ärgern. Und da kann man recht weit zurück gehen ... für 400-500 EUR hat man fast immer High End bekommen, sei es eine 8800 GTX, GTX 280, GTX 480, GTX 580, GTX 680, ... und dann kam die Titan und nVidia ist mit den Preisen von High End nach oben gegangen, die 780 aber speziell die 780Ti lagen zum Start über 600 EUR, genauso wie die 980Ti jetzt.

Der ganze Rest der Diskusionen ist so extrem subjektiv und von Fall zu Fall sowie Person zu Person unterschiedlich, dass jegliche Debatte darüber sich nicht generell unter einen akzeptierten Hut bringen lässt!
Klar ist es subjektiv. Ich sehe es halt als ein neues Preissegment darüber, in Deinen Augen ist es einfach "High End ist deutlich teurer geworden" wenn ich es richtig verstehe, auch gut.
Fakt ist ich kann heute für bis zu 500 EUR KEIN HIGH END mehr kaufen. Und das konnte man lt. meiner Erinnerung früher fast immer bis zur 780 / 780Ti. Und ja ein paar Ausreisser wie eine 8800 Ultra gab' es schon, aber das war z.B. nur eine höher getaktete GTX.
 
Zuletzt bearbeitet:
Mir würde eine GTX 1060 mit HBM völlig reichen denke ich, bin gespannt wieweit Nvidia die TDP mit HBM runter kriegt.

Träum weiter ;) Wir reden von Nvidia, HBM2 ist noch nicht einmal Marktreif.. 2017 wird es Pascal GP100 mit HBM geben, der GP104 wird wenn erst als Refresh HBM bekommen. Alles andere wäre Ökonomischer Selbstmord.
Manchmal Frage ich mich, was die Leute eigentlich erwarten? GP104 kommt mit GDDR5 und vermutlich wird der auch nur in Etwa das Niveau von einem GM200 haben, bei besserer DP Leistung. Wenn man mit finfet 33% Energie einsparen kann, dann braucht man auch kein HBM, gleiches gilt für Fiji. Es bleibt abzuwarten wie die Roadmap von NV aussehen wird, derzeit gabs ja viele Streichungen und Verschübe. Ich glaube da erst etwas wenn es auf dem Markt ist (20nm Karten seit 2013/14 sage ich da nur)
 
Zuletzt bearbeitet:
@Bucho
Die GTX780 kam zum Start für über 600 Euro.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh