Bild zeigt angeblich NVIDIA GP104-Grafikchip mit Pascal-Architektur

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" alt="nvidia 2013" style="margin: 10px; float: left;" />Laut den Gerüchten wird NVIDIA im <a href="index.php/news/hardware/grafikkarten/38783-nachfolger-fuer-geforce-gtx-970-980-und-980-ti-kommen-im-juni.html" target="_blank">Juni die Geforce GTX 1070 und Geforce GTX 1080 veröffentlichen.</a> Die beiden Grafikkarten setzen auf den Grafikchip GP104 und dieser wird erstmals auf die Pascal-Architektur zurückgreifen. Bisher gibt es nur Gerüchte rund um die GPU, doch nun soll ein erstes Bild den neusten 3D-Beschleuniger von NVIDIA zeigen. Auf dem Bild ist der Grafikchip in der Versionen GP104-200 zu sehen. Dieser soll laut ersten Berechnungen eine Fläche von 333 Quadratmillimeter besitzen. Zum Vergleich: Der GM204 ist 399...<br /><br /><a href="/index.php/news/hardware/grafikkarten/38954-bild-zeigt-angeblich-nvidia-gp104-grafikchip-mit-pascal-architektur.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt doch, wenn die Karte insgesamt über 8 GByte Speicher verfügen soll (ein Baustein zu 8 Gbit = 1GByte).
 
GDDR5X bei der GTX1080 macht schon mal hoffnung das man zumindest über der GTX980Ti raus kommt von der Leistung.
 
Die neue Generation ala Pascal wird alles zerschmettern was Momentan am Markt vertreten ist laut Prognosen bis zu 4 x Schneller wie die Alte Generation. Da braucht man nicht hoffen oder vermuten sich einfach auf dem laufenden halten und Staunen ;) bin gespannt was AMD im peto hat dieses Jahr wieder einen Heizstrahler der 5-10% hinter Nvidia ist? xD aber dafür hat AMD das DX12 Argument :d haha..
 
Als Beleg für GDDR5X bei der 1080:

NVIDIA's Full Fat Pascal GP104 GPU Pictured With GDDR5X Memory - Features 8 GB Micron Chips To Drive GeForce GTX 1080 Cards

NVIDIA-Pascal-GP104-400-A1-GPU-1.jpg



Zur Kennzeichnung der Speicherchips:
3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Pascal - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision

Na daß die auf der Micron-Website nicht gelistet sind, wie in dem Artikel behauptet, stimmt nicht so ganz. Man muß nur "Z9TXT" in den FBGA part marking decoder auf der Micron-Website tippern (bei Micron stehen die Typenbezeichnungen nie direkt drauf) und man erhält:

MT58K256M32JA-100 ES:A

Also 8GBit (256Mx32), 10 GBps und es ist noch ein Engineering Sample der Revision A. Das ist (bis auf den Zusatz "ES") eins der drei gelisteten Module, das langsamste.
 
Hat nicht die Fury gezeigt das Bandbreite nicht wirklich das Problem ist?
Sprich nicht der limitierende Faktor ist.

Aber endlich geht es mal vorwärts für VR und Co. genau das richtige
 
Die Bandbreite sollte zumindest zur Leistung des Chips passen.
Bei der 980Ti ist es ja auch so das wenn man den Takt mitels OC anhebt und über 1300MHZ kommt der Ram mit geoct werden sollte da sich sonst die GPU nicht 1 zu 1entfallten kann.
Da die FuryX auf ähnlichen Level agiert passiert durch HBM halt nicht all zu viel.

Aber auch gilt was man im Überfluss hat kann nicht schaden .
 
Zuletzt bearbeitet:
selten so viel Quatsch gelesen,

der stärkste Pascal Chip GP102 soll erst Anfang 2017 erscheinen und bestenfalls eine verdoppelte Leistung gegenüber GTX 980 Ti bringen (was auch schon sehr gut wäre).
Der GP104 liefert in der besten Ausbaustufe 40-50% mehr wie eine GTX 980, auch nicht schlecht.

Wo steht denn etwas von 4x schneller?
 
Die neue Generation ala Pascal wird alles zerschmettern was Momentan am Markt vertreten ist laut Prognosen bis zu 4 x Schneller wie die Alte Generation. Da braucht man nicht hoffen oder vermuten sich einfach auf dem laufenden halten und Staunen ;) bin gespannt was AMD im peto hat dieses Jahr wieder einen Heizstrahler der 5-10% hinter Nvidia ist? xD aber dafür hat AMD das DX12 Argument :d haha..

Und an den Weihnachtsmann glaubst du auch noch oder?:d
 
Die 1070 lässt auf gutes hoffen ^^

EVGA ich komme xD
 
Ich bin mal auf jeden Fall gespannt, wie stark sich die 1070 und die 1080 leistungstechnisch unterscheiden werden.
 
Die neue Generation ala Pascal wird alles zerschmettern was Momentan am Markt vertreten ist laut Prognosen bis zu 4 x Schneller wie die Alte Generation. Da braucht man nicht hoffen oder vermuten sich einfach auf dem laufenden halten und Staunen ;) bin gespannt was AMD im peto hat dieses Jahr wieder einen Heizstrahler der 5-10% hinter Nvidia ist? xD aber dafür hat AMD das DX12 Argument :d haha..
Trollolol? :stupid:

Laut nVidias 'CEO math' sollen die GPUs genau 10x so schnell sein - klar, im Himmel ist Jahrmarkt! Selbst wenn sie das sein könnten wäre kein Unternehmen so dumm diese Mehrleistung in einer Generation zu verkaufen. Besagtes 'CEO math' rechnet Dinge wie zb '4xfaster' computing' und '2xfaster gaming' sowie weitere Faktoren zusammen und kommt auf absurde Summen. NVidias CEOs konnten leider scheinbar noch nie rechnen. Das ist so als wenn ich sage ein Prozessor mit 4 Kernen á 4 GHz läuft mit 16 GHz. :-P

PS: Übrigens heißt es 'als' und nicht 'wie'. Wenn du schon trollst, dann bitte orthographisch korrekt.
 
Zuletzt bearbeitet:
Ich bin mal auf jeden Fall gespannt, wie stark sich die 1070 und die 1080 leistungstechnisch unterscheiden werden.

Im 3DCenter geht man von einem Leistungsunterschied von 20-25% zwischen 1070-1080 aus.
Was zumindest dafür sprechen sollte das die 1070 Verhältnismässig günstiger wird.
 
Dann bleibt zu hoffen, dass durch diesen natürlichen Unterschied keine künstlichen Beschränkungen wie bei der 970 eintreten.
 
Wäre bei der Menge an Ram wohl ehr nebensächlich wen es so wäre.
In 4K und mit SLI könnte man dann die Grenzen erreichen.
Meine EX 980Ti 1506/4001 hatte mit dem Ram gelegentlich zu kämpfen in 4K beim neuen TR z.b Maxout@4K.wobei ich dann mit gefixten 30FPS gespielt habe da war die GPU schon am Limit.
 
Zuletzt bearbeitet:
Mal in die Glaskugel schauen: Was in Richtung "1080 Ti" mit 12GB HBM2 Speicher wäre für mich attraktiv. Da warte ich dann auch gerne bis weit ins Jahr 2017.
EVGA wäre mein klarer Favorit für so eine Karte, sollte sie denn wirklich wie oben genannt erscheinen. Na ja, lassen wir uns überraschen....
 
Ja eben im Verhältnis zur 1080;)
 
Hurraaaa..........es ist ein Grafikchip!!^^
 
Mal was anderes... denkt ihr GDDR5X wird sich in FPS erkennbar machen? Angenommen alles auf nem PCB gleich (außer halt dass 5 und 5X supportet werden) und dann GDDR5 vs GDDR5X.

Nur aus Interesse...

PS: Hoffe auf ne schöne 1080 von Palit oder inno3D, hoffentlich früher als später. ^^
 
Im Gegensatz zu den Meisten warte ich hier eher auf die 1070 als 1080 oder gar 1080 Ti.
Warum ?

Es sieht so aus als ob die 1070 volle 8 GB Ram hat, der Durchsatzunterschied wird durch unterschiedlcihen Ram erreicht.
Mal ehrlich, GDDR5 als 4000 Mhz Version mit einem 256 Bit SI reicht völlig, bzw rechnet die 1080 sich niemals bzgl Mehrpreis (wenn die Preise wie bei der aktuellen Gen. kommen.

Die 1080 Ti dauert ja noch ein wenig, 12 GB HBM2 könnten schon sehr interessant werden, oder gar 16 GB ?
 
Die 1080 Ti dauert ja noch ein wenig, 12 GB HBM2 könnten schon sehr interessant werden, oder gar 16 GB ?

Ja, das wäre dann auch die Karte, die für mich interessant sein würde. Alles über 12GB HBM2 wäre natürlich schön bei einer 1080 Ti, eine Bestückung unter 12GB würde ich persönlich jedoch als Enttäuschung ansehen.
 
Mal was anderes... denkt ihr GDDR5X wird sich in FPS erkennbar machen? Angenommen alles auf nem PCB gleich (außer halt dass 5 und 5X supportet werden) und dann GDDR5 vs GDDR5X.

Nur aus Interesse...

Das kann heute doch noch gar keiner beantworten.
Der Unterschied existiert auf dem Papier bspw. in Form der Bandbreite... Das Problem ist, wer weis heute, wie hoch der Bandbreitenbedarf von GP104 effektiv ist? Keiner ;)

Maxwell hat gut mit der Bandbreite gehaushaltet. Es liegt also die Vermutung nahe, dass der GP104 da nicht sooo viel Bedarf hat.
Ich persönlich erwarte bestenfalls messbare Unterschiede auf dem Papier, die rein auf den Speicher zuzuschreiben sind. Die Unterschiede zwischen der fiktiven 1070er und 1080er werden aber sicher größer ausfallen, als "nur" GDDR5 vs. GDDR5X, sofern sich letzteres überhaupt bewahrheitet.
 
Naja ich schätze das SI bleibt nach dem GTX 970 PR Debakel dasselbe bei der 1070, sie wird wohl weniger Shadereinheiten, ROPS etc haben als die 1080.
Mal sehen ob die 1080 dieses mal nen guter Kauf ist oder man getrost auch ne 1070 nehmen und viel Geld sparen kann..
 
Zuletzt bearbeitet:
Naja ich schätze das SI bleibt nach dem GTX 970 PR Debakel dasselbe bei der 1070, sie wird wohl weniger Shadereinheiten, ROPS etc haben als die 1080.
Mal sehen ob die 1080 dieses mal nen guter Kauf ist oder man getrost auch ne 970 nehmen und viel Geld sparen kann..

Kommt drauf an, aktuell spekuliert man auf GDDR5X bei der großen und GDDR5 bei der kleineren. Das würde eine "Trennung" ganz ohne irgend so einen Bockmist schaffen...
Abwarten...
 
Ja und ganz ehrlich, GDDR5X ist Nice to have, aber 4000 Mhz GDDR 5 und 256 Bit SI reicht auch bei der guten Komprimierung der Geforces.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh