Neue Grafikchips von AMD und Nvidia sollen sich verspäten

Da muss man aufpassen. Nicht immer entspricht der Name des Prozesses auch tatsächlich der Fertigung selbst. Ist bei jeden Hersteller etwas verschieden...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist schon klar. Nur wird AMD ja nicht dieselbe Transistorzahl einer GPU nochmal verkleinert unterbringen, das dürften deutlich mehr werden. Deshalb schrieb ich ja in meinem ersten Post in diesem Thread, dass ich bei 20nm von 15-16 Milliarden Transistoren ausgehe, wenn es ein großes Chipdesign ist (bezogen auf NV). Der Faktor lag imho bei 2,3xx als von 40nm auf 28nm gewechselt wurde.

@Cippoli
gelöscht, Hirn hat Unsinn verstanden...
 
Zuletzt bearbeitet:
@DragonTear du weißt schon das bei 20nm nix 20nm sein wird?
Ein Intel Ingenieur hat selbst zu 14nm Prozess gesagt: nix hat dort irgendwo eine Größe von 14nm

AMD scheint laut eigener Angabe einen Weg gefunden zu haben, die Packdichte zu verdoppeln, also diese "Struktur" von der du redest deutlich zu verkleinern (und die haben wohl keinen neuen Fertigungsprozess oder ne "Nanometarzahl" gefunden zu haben!)...

Diese "Struktur" hat nix davon zu tun in welchem Prozess sie Hergestellt wird!

Außerdem: viele schreiben hier etwas in der Art: ja 20nm überspringen ist Unsinn 14/16 wird doch eh noch kleiner und da wirds noch schlimmer.


Man sollte bei derartigen Fertigungsgrößen keineswegs vergessen das die Gates und Leiterbahnen im Chip aus nur noch "wenigen" Atomen breit sind!!(Relativ gesehen) damit wird alles deutlich komplizierter!

Außerdem haben die 14/16nm Prozesse im Gegensatz zum 20nm Prozess 3D-Transistoren was Leckströme deutlich verringert!
Deswegen ist das Interesse seitens Global Foundries am 20nm Prozess viel kleiner als am 14nm Prozess mit 3D-Transistoren.
 
@DragonTear du weißt schon das bei 20nm nix 20nm sein wird?
Ein Intel Ingenieur hat selbst zu 14nm Prozess gesagt: nix hat dort irgendwo eine Größe von 14nm

AMD scheint laut eigener Angabe einen Weg gefunden zu haben, die Packdichte zu verdoppeln, also diese "Struktur" von der du redest deutlich zu verkleinern (und die haben wohl keinen neuen Fertigungsprozess oder ne "Nanometarzahl" gefunden zu haben!)...

Diese "Struktur" hat nix davon zu tun in welchem Prozess sie Hergestellt wird!

Außerdem: viele schreiben hier etwas in der Art: ja 20nm überspringen ist Unsinn 14/16 wird doch eh noch kleiner und da wirds noch schlimmer.


Man sollte bei derartigen Fertigungsgrößen keineswegs vergessen das die Gates und Leiterbahnen im Chip aus nur noch "wenigen" Atomen breit sind!!(Relativ gesehen) damit wird alles deutlich komplizierter!

Außerdem haben die 14/16nm Prozesse im Gegensatz zum 20nm Prozess 3D-Transistoren was Leckströme deutlich verringert!
Deswegen ist das Interesse seitens Global Foundries am 20nm Prozess viel kleiner als am 14nm Prozess mit 3D-Transistoren.

Das stimmt schon alles was du sagst, aber trotzdem dürfte das Grössenverhältnis zwischen 28 und 20 etwa stimmen. Darum hab ich "Struktur" auch in Anführungszeichen geschrieben.
 
Es sollte nicht verwundern warum AMD sich beeilt.

Wenn ich mir jetzt im April/Mai 2015 eine Grafikkarte unter 150W (also mit nur einem 6 pin stromanschluss) zulegen möchte, muss ich auf 3 Jahre alte Technik zurückgreifen.

So eine Durststrecke gab es in der Geschichte von ATI/AMD Radeon noch nie. :(
 
Zuletzt bearbeitet:
Fakt ist, die verbesserung die sie bei Tonga hatten, können sie schonmal bei allen neuen Chips bringen.
 
Fakt ist, die verbesserung die sie bei Tonga hatten, können sie schonmal bei allen neuen Chips bringen.

Dann wirds aber nix mit mehr Leistung :fresse:
Das was Tonga besser macht gegenüber Tahiti, ist nun nicht unbedingt extrem viel.
Man begnügt sich mit etwas weniger Speicherbandbreite, was aber auch nicht unbedingt bei Tahiti problematisch ist/war. Und in Sachen Verbrauch ist Tonga auch nicht wirklich effizienter...

Bestenfalls könnte man die neuen Features wie vollen VSR Support da einrechnen. Aber auch dafür soll es in Zukunft Abhilfe für die älteren Modelle geben.
 
in Sachen Verbrauch ist Tonga auch nicht wirklich effizienter...

Schneller als die 280, und verbraucht weniger als die 280.

Das ist eine Starke verbesserung in meinen augen.

- - - Updated - - -

Das was Tonga besser macht gegenüber Tahiti, ist nun nicht unbedingt extrem viel.

Vielleicht keine 50%, aber doch gute 10-15%

Das gepaart mit ein paar weiteren Optimierungen und mit dem 20nm Shrink und schon gehts ab :)
 
Nur ist die Karte eben nicht schneller und verbraucht auch nicht wirklich weniger...
Schau dir doch mal die Custom 280er Karten an. Oder die Custom HD7950 Karten seinerzeit... Die packen das zwar nicht ganz, aber eben fast. Und das nicht erst heute, sondern schon vor Jahren ;)
Die 280er ist bspw. bei ht4u.net unter der Spielelastkategorie mit 180W eingemessen. Die 285er kommen auf 160W. Und das, obwohl die 280er eben 50% mehr VRAM bietet, der auch strom frisst, weil das Interface breiter ist... Zähle einfach eins und eins zusammen ;) AMD und Hynix wollen uns erklären, das GDDR5 Speicher mit einem breiten Interface und recht hohen Taktraten schweine viel Strom verbraucht ggü. HBM um auf hohe Bandbreiten zu kommen. Nun kürzt man bei Tonga das SI auf 256Bit zusammen ggü. Tahiti und der Verbrauch sinkt um gut 20W. Böse Zungen würden behaupten, der Verbrauchsvorteil kommt durch das schmalere SI und weniger VRAM als von Optimierungen im Chip. :wink: Ein Tahiti mit 256Bit SI würde mit ziemlich hoher Warscheinlichkeit nicht wirklich langsamer werden und die 20W lassen sich dort sicher auch rausholen... Was Tonga halt kann, er geht effizienter mit der Bandbreite um. Ob es das allerdings rausreißt? Lässt sich nicht belegen...
 
Zuletzt bearbeitet:
Die R9 285 ist aber auch reiner Tonga Abfall, mit dem Vollausbau und den echten Perlen sieht man ja wo in etwa TONGA landet/ landen kann :-)
Um 150 Watt bei ca. knapper R9 290-er Performance, was sicherlich nicht schlecht ist (gute 15% unter einer GTX 970 vielleicht)
Nur wann, oder ob noch solche Karten kommen werden steht auf einem anderen Blatt.
 
Wo gibts dazu Benchmarks? Irgendwelches Rosinenpicken geht bei den anderen Karten auch...

Es gab von der HD7970 schon binnen 3 Monaten nach Release Custom Modelle mit Werks OC der Boardpartner, die um die 210W verbraucht haben. (gemessen bei ht4u.net) Was mal schlappe 20% weniger sind, als das Ref. Layout der HD7970GHz im Schnitt verballert und dabei nicht langsamer.
Hat zwar nix mit der Tonga GPU zu tun, aber zeigt ziemlich eindrucksvoll, dass Tahiti alles andere als "optimiert" in dem Bereich an den Start gegangen ist. Wenn ich das richtig sehe hat man Tahiti ziemlich viel Polster in Sachen vGPU Spannung mitgegeben. Warum? Keine Ahnung, wohl um die Steuerung der Chips vom Wafer zu kompensieren. Wäre zumindest möglich. Auch die 280 und 280X Tahitis sind da nicht wirklich mehr optimiert. Der Verbrauch ist im Vergleich nicht sonderlich gesunken...

Tonga mit 290er Performance und 150W halte ich stand heute für nicht realistisch. Denn der Chip ist nicht nennenswert schneller pro Takt als Tahiti. Um also der 290er auf die Pelle zu rücken, müsste Tonga wohl annähernd die 2500 Shader der Hawaii Pro GPU nutzen und dazu in Sachen Takt auch minimum ähnlich laufen. Das sind über 30% mehr Rechenpower, die da benötigt wird. Das ist kein Unterschied, den man mit Ausschuss vs. Perle rechtfertigen könnte. Und so viel Ausschuss kann die 285er gar nicht sein. Denn offenbar decken sich die Werte der Boardpartner relativ genau. Da stehen um die 150-160W auf der Uhr... Übergreifend über die Boardpartnerdesigns. Das wäre schon arg Zufall, wenn der Ausschuss bei allen gleich "schlecht" sein würde.
Viel realistischer bei der Betrachtung ist da wie oben schon erwähnt, das Tonga den Verbrauch durch das gekürzte SI einspart. Und die Bandbreite durch diese Kompressionsverfahren effizienter nutzt. Ob das bei 290er Basisperformance allerdings noch aufgeht oder ob der Tonga dann mit 384Bit SI oder 256Bit SI und sehr hohem Speichertakt gepaart wird, müsste man sich im Detail ansehen.
 
Rechne Tonga wird losgelassen und ersetzt die R9 290 zumindest mit aehnlicher Performance
Dazu Fiji mit 8GB Speicher plus 10% Mehrperformance zur GTX 980-er Karte.
So sollte AMD Strategie aufgehen bis die 20-er Karten spruchreif werden.
 
ich bemerke gerade das AMD schon ohne Tonga, zumindest im berreich von 150W jetzt schon effizienter ist als Nvidia.

Die R270 welche nur einen 6 Pin Stromanschluss hat und sich dennoch locker auf 270X Niveau takten lässt, ist mit OC ca so schnell wie eine GTX760.

Die GTX760 benötigt allerdings deutlich mehr strom und hat einen 1 x 8 pin sowie einen 6 pin stromanschluss.

Die 750 Ti welche als schnellste Nvidia grafikkarte mit einem 6 pin stromanschluss verfügbar ist, ist deutlich langsamer.
 
Die GTX760 benötigt allerdings deutlich mehr strom und hat einen 1 x 8 pin sowie einen 6 pin stromanschluss.

Die 750 Ti welche als schnellste Nvidia grafikkarte mit einem 6 pin stromanschluss verfügbar ist, ist deutlich langsamer.

Die kleinen AMD Karten waren ja auch nie wirklich ineffizient ;) PitCairn damals war wenn ich das recht sehe zu 2012 die effizienteste GPU in dieser Klasse. Das Problem war viel eher, dass die großen Modelle eben durch hohen Takt, viel vGPU Spannung und beschissene Kühler im Ref. Design in den Reviews versagt hatten...
Das Problem der 760er ist, das es ne horn alte Kamelle ist (GK104). Da wird nicht viel... Und andere GPUs hat NV da aktuell nicht auf neuer Technik. GM206 lässt noch auf sich warten...
Auch die 770 macht es dort nicht besser mit dem GK104. Ich bin aktuell gespannt auf den GM206, je nachdem, wo der sich leistungstechnisch plazieren wird, wird die Effizienz womöglich gut steigen. PitCairn Niveau zu erreichen dürfte dicke drin sein, wenn man sich anschaut, was die 750TI verbraucht und was die 970er verbraucht. Von AMD hört man ja in dem Bereich aktuell irgendwie nichts. Ob Tonga die Hawaii GPU ersetzen wird, ist für mich zumindest noch fraglich. Denn wenn man wirklich einen Fiji Pro/XT bringt, dann wäre eher der Fiji Pro der, der die Hawaii GPUs ersetzen wird.

Eventuell werden dann aber die Restbestände von Tonga GPUs noch irgendwie mit ner Karte ala HD4830 oder HD5830 oder auch HD7870XT verramscht :fresse:
 
Eigentlich ist das keine Neuigkeit, hat doch 3D Center schon im August berichtet das nVidia und AMD keine 20nm GPUs bringen werden.

Aktualisierte Fertigungsverfahren-Roadmap: GlobalFoundries & TSMC bei 14nm/16nm fast zeitgleich | 3DCenter.org

Könnt ihr alles hier nachlesen.
Nein, dort kann man nicht nachlesen das "nVidia und AMD keine 20nm GPUs bringen werden" sonder das Global Foundries nicht in 20nm produzieren wird.
Die GPUs werden aber bei TSMC produziert :)

wccftech (vom 24.12.2014): AMD and Nvidia 20nm and 16nm GPUs Slightly Delayed.
...The reason for this delay is due to mobile chip makers, namely Apple and Qualcomm, gobbling up the limited early 20nm capacity. It’s not good news for 16nm either as the limited capacity of that node, especially in its early months of life, has also reportedly been drained almost dry by the same mobile giants....
Grobe Übersetzung:
>>Der Grund für die Verzögerung ist begründet durch die Hersteller von Mobil-Chips, Apple und Qualcomm, die die frühen, begrenzten Kapazitäten der 20nm Produktion aufnehmen.
Keine guten Neuigkeiten für die 16nm Fertigung da die begrenzten Herstellungskapazitäten, vor allem in den ersten Monaten, Berichten zufolge von den selben Mobil Giganten aufgekauft werden
<<

Schlussfolgerung: nVidia und AMD hätten gerne GPUs in 20nm produziert; Scheinbar geht nVidia direkt zu 14nm (2016??), aber AMD könnte im April oder Mai 2015 -hoffentlich- 20nm GPUs produzieren.
 
Wer lesen kann...

Steht doch da das bei TSMC keine 20nm GPUs hergestellt werden. "scheinbar keine GPU-Produkte in 20nm geplant"
 
Denn du bist persönlich mit TSMC, GloFo oder einem anderen Laden verbandelt?
 
Na ansonsten kanns dir egal sein, und wenn ein freundlicher Chinese den Chip aus Holz schnitzt...solange die Performance stimmt, der Preis stimmt, und die Leistungsaufnahme im Rahmen bleibt, ist der offizielle Prozessname fürchterlich egal. Und wie sehr mit Nanometerangaben (für die Fangemeinde) beschissen wird zeigt ja Intel.
 
Bei 20/16nm würden viele hier das größte Transisitormonster verbauen, das geht. D.h. eine GPU nahe 600mm² könnte 15-17 Milliarden Transistoren haben. Eine mit echten 14-16nm dann nahe 40 Milliarden. Der Verbrauch sinkt so gesehen nicht, man bekommt nur mehr Leistung in einer bestimmten Leistungsklasse (z.B. 150W TDP). Wenn es nach mir ginge können sie auch 300W TDP endlich mal bringen iVm. 800Mhz Takt. Übertakten kann ich selbst, Transistoren nachrüsten nicht. (Der Spruch stammt imho von R. Vötter, aber er hat schon recht)
 
die leistungsaufname wäre bei 20/16 nm nidriger

28nm ist seit jahren obsolete
eigentlich schon ein armutszeugniss der heutigen leistungsgesellschaft

Lol, das ist doch echt mal Käse...
NV hat gezeigt dass man auch mit 28nm noch rodentlich Mehrleistung rausholen kann!
Ich finde es gut dass man nun endlich nicht mehr nur den "bequemeren" Weg geht und einfach alles shrinkt, ohne die Achitektur in gleichem Maße zu verbessern.

@Berni_ATI
Was du sagst klingt durchaus am praktikabelsten... Die 295 würde dann wohl gut auf GTX 970/980 Niveau rangieren (vieleicht sogar drüber um den doch höheren Verbrauch wettzumachen) und AMD hätte dann genug Zeit sich für den Shrink und auf "Big Maxwell" vorzubereiten.
 
Zuletzt bearbeitet:
Kleinere Fertigung heißt nicht immer gleich sparsamer bei gleicher Leistung-Leckströme sind hier bsp. ein zu nennendes Problem. Nicht umsonst verzögert sich der shrink!...und eine Gpu ist in ihrer Komplexität nicht mit einem Smartphonechip zu vergleichen.
 
Es gilt zu bedenken, dass die klassischen High-End CPU´s kleiner von der Fläche sind als die GPU´s. Dazu ist der Aufbau weniger komplex. Bei der CPU ist ein nicht unwesentlicher Teil der Fläche der Cache, der im Verhältnis recht einfach herzustellen ist. Eine dedizierte GPU ist größer und komplexer und hat einen geringeren Absatzmarkt. Dazu hat Intel auch eigene Fabriken, der Rest nutzt Auftragsfertiger. Darum sind die Fertigungstechniken bzw. deren Anwendung anders. Auch glaube ich kaum, dass die breite Masse Interesse an 14nm hat, wenn diese 2-3000 Euro je Karte kostet, weil sich deren Einsatz nur so lohnt.
 
Gerade Intel hat mit einem Shrink nicht nur einmal einen solchen Bock geschossen...die älteren von euch werden sich daran erinnern.

Du hast aber recht, wenn alles richtig gemacht wurde...und soweit ist es wohl noch nicht!? Bis dahin kann sich die Produktion in einem älteren Prozess weiterhin lohnen.
 
Ich würde sogar noch u.U. 130nm CPUs kaufen... ;)

Passt doch gar nicht mehr in die Rechner von heute.....ist doch so groß wie ein Schuhkarton. Mir kommen nur 22nm und 20MPixel ins Haus und 800Mhz TVs.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh