AMD Radeon R9 285: Erste Tonga-Grafikkarte soll im August erscheinen

Tonga ist CGN2.0, das ist die nächste Generation - die Karte wirst du so auch unter irgendeinem Namen in der 300er-Serie finden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur sprechen eben diese Gerüchte aktuell genau davon. 256Bit SI mit womöglich 2048 ALUs (analog Tahiti) -> kleiner, weniger Leistungsaufnahme, Chip allgemein schlanker. Womöglich durch Wegfall von irgendwelchem GPGPU Zeugs... Weiterhin wohl 28nm und in erster Instanz bei 2GB VRAM. Ggf. später mit 4GB Modellen.

Ah. Sind also Gerüchte nun plötzlich Fakten ? Interessante Ansicht.

Ich habe dir mal die relevanten Teile markiert. Vielleicht wird dir jetzt auch klar, das da niemand von Fakten sprach.
Wenn das Ding als bald kommt und das wird so sein, wo sich nach wie vor August als Termin hält, dann kannst du davon ausgehen, dass diese Gerüchte ziemlich nah der Realität entsprechen werden. Ob es exakt so sein wird? Kann, muss nicht...
Und nein, gerade beim SI liegt bei Tahiti sparpotential, da es den Chip und das PCB eben Fett macht. Was am Ende Geld kostet, eben Geld, was man sparen kann...

Mal ganz davon ab, Mick wählte in seiner Aussage oben auch klar den Konjunktiv. Vllt wäre es sinnvoll dir mal anzusehen, was der Konjunktiv ist und was das für das geschriebene bedeutet! Du hast weder in Mick seiner Aussage noch in meiner diesen Konjuktiv erkannt.
 
Tonga ist CGN2.0, das ist die nächste Generation

ich meinte damit eig die nächste shrink generation. aber gut zu wissen das es CGN 2.0 ist und somit die gleiche architektur mit der nächsten gen einfach nur geshrinkt wird, danke :)
 
Soweit ich weiss, weiss man noch kaum was AMD als nächstes Vorhat.. EIn Shrink wird schlussendlich kommen. Aber wann? keine Ahnung. Nvidia hat ja auch den Shrink hinausgezögert und verkauft ihre neue Maxwell Architektur noch in 28Nm. Womöglich macht AMD das selbe.
Wir wissen ja nichtmal was für eine Graka diesen Monat erscheinen soll...
 
Ich glaube nicht, dass Nvidia den Shrink hinaus gezögert hat, genauso wenig wie AMD. ;)
 
Wie meinst du das? Ganz ursprünglich hies es dass Maxwell direkt mit dem Shrink kommen würde. Dan kam erstmal die GTX 750(ti) in 28nm Maxwell raus - und zumindest diese Samples die bei irgendwelchen Zollstellen aufgetaucht sind der GTX 880 deuten ja auch auf 28Nm hin...
Natürlich stellt sich die Frage ob es technische Gründe gibt oder nicht, andererseits ist auch klar dass die Grakahersteller, wenn sie nicht gezwungen sind, es gerne langsam angehen xD
 
Sollte doch viel eher am Prozess liegen...
Man spricht ja immer noch davon, dass die 20nm gar nicht sooo viele Vorteile ggü. den 28nm Prozessen bringt. Fakt dürfte aber sein, die 20nm sind im Vergleich heute wohl schweine teuer.
Zumal, zum Release der 750er dürften die 20nm noch nicht mal ganz serienreif gewesen sein. Von hinauszögern würde ich da nicht sprechen. Der neue Prozess bringt wohl sicher wieder genau dort Vorteile, wo man an die Limits geht. Sprich Performancebereich oder TopDog. Aber bei so popligen Mittelklasse Modellen? Da sollte der wirtschaftlich sicher deutlich billigere 28nm Prozess mehr Marge hinten über lassen als ein neuer... verzögern würde ich es dann nennen, wenn man 20nm nicht nutzt, obwohl es sinnvoll wäre dies zu tun. Ob es aber heute schon sinnvoll ist?
 
Wie meinst du das? Ganz ursprünglich hies es dass Maxwell direkt mit dem Shrink kommen würde. Dan kam erstmal die GTX 750(ti) in 28nm Maxwell raus - und zumindest diese Samples die bei irgendwelchen Zollstellen aufgetaucht sind der GTX 880 deuten ja auch auf 28Nm hin...
Natürlich stellt sich die Frage ob es technische Gründe gibt oder nicht, andererseits ist auch klar dass die Grakahersteller, wenn sie nicht gezwungen sind, es gerne langsam angehen xD

Ich gehe davon aus, dass der 20nm Prozess noch nicht wirklich Marktreif ist, sprich es lohnt sich nicht in ihm zu fertigen oder man kann gar nicht auf ihn zugreifen. AMD und Nvidia sind da auf ihren Dienstleiter angewiesen, wenn der hinterher hinkt, verspätet sich der Spaß. "Hinauszögern" wiederrum klingt, danach, dass man etwas funktionierendes nach hinten verschiebt, das dürfte den Zusammenhang etwas verfehlen. Die 290 und 290x waren, meiner Meinung nach, auch erst in 20nm geplant, man brachte sie aber in 28nm, weil man auf die 780er und aufwärts reagieren musste, man konnte nicht mehr auf den Prozess warten. TSMC soll bei 20nm erst vor zwei Monaten auf die "Zielgerade eingebogen sein: TSMC Begins 20nm Volume Production Finally - Next Gen GPUs At This Node Are Now A Possibility
 
Hmm, verstehe... 20Nm ist aber nicht enorm viel kleiner als 22Nm und das nutzt Intel ja jetzt schon seit fast nem Jahr. Hätte gedacht die anderen Chiphersteller wären da auch schon theoretisch soweit.
 
Intel ist in der Fertigung Rund eine Generation vorraus ;) -> zumindest so ganz groß über den Daumen. Denn Intel fertigt auch 22nm nicht erst seit diesem Jahr.
Das Problem dabei sollte normal nichtmal TSMC oder GloFo als solches sein, Speicherzellen werden ja schon länger in kleiner 28nm gefertigt, sondern das Problem liegt viel eher scheinbar bei größeren Logikchips. Speicherzellen sind vergleichsweise "doofe" Schaltungen. Da kansnt du Reserve noch und nöcher einbauen. Nicht funktionierende Teile kannst du dann quasi bequem ausknipsen und über die Reserve abdecken... Mach das mal bei hochkomplexen Logikschaltungen. GK110 dürfte nach wie vor mit einer der komplexesten Transistorschaltungen überhaupt sein. Das ist dann schon ne ganz andere Hausnummer als ein paar "Mio-Transistor-schwere" Speicherzellen. Selbst ne Haswell CPU ist da ein winzling dagegen... Und da ist noch enorm viel Cache drin.
Auch erkennbar ist, das selbst Intel für die neuere Fertigung nicht mehr die größeren Modelle vorschickt, obwohl diese es eher nötig hätten. Sondern Intel fährt spätestens seit Sandy den Weg, das man erst den Mainstream bzw. unteren Bereich mit neuer Fertigung versorgt. Sieht stark nach Austesten des Prozesses aus. Erst dann kommen die größeren Modelle hinterher.
Knights Landing ist aber wohl ne Ausnahme, wenn ich das richtig sehe. Aber da stehen ganz andere Preise auf der Uhr, entsprechend mehr Luft in der Marge und mehr Spielraum in Sachen Herstellungskosten. Zur not kann man dort auch die Preise hochschrauben, interessiert idR eher beiläufig ob da anstatt 5000€ nun 5500 oder 6000 stehen. Wer sowas kauft, der kauft auch bei mehr Geld -> sofern es keine Alternativen gibt.

Nach aktuellen Infos läuft bei Intel aktuell die 16nm Fertigung für Broadwell an bzw. langsam hoch... Wie viel Risiko das aktuell ist, wie die Yilds sind und wie viel Kosten das gegenüber den 22nm Prozessen bei Intel ist, weis wohl bestenfalls Intel selbst. Aber es läuft nach Meldungen schon.

PS: 22nm und 20nm gehören wenn man so will zur "selben Generation". Full Node und Half Node sozusagen. Genau so wie 32nm und 28nm zur "gleichen Generation" gehören.
Der nächst kleinere Schritt wäre dann 14/16nm... CPUs bei Intel kommen idR in den Full Nodes. GPUs hingegen werden idR im Half Node released. Aber mit Ausnahmen auf beiden Seiten -> Kaveri bei TSMC und zum Beispiel G200 bei NV in 65nm.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Och Schaffe, nicht schon wieder... Steht doch da, was daran nicht optimal für ein Mittel/Performanceklasseprodukt ist. Zu Fett, zu viel Verbrauch, zu viel SI, zu komplex, zu viel benötigte Fläche und die Profibereichsgene mit der schönen SP/DP Leistung benötigt da auch kein Mench in so einem Produkt.
Ob sich die Karte verkauft oder nicht, ist dabei gar nicht Thema... Sicher verkauft sie sich irgendwie. Die Frage ist eher, was bleibt bei AMD davon hängen?
Ein Produkt, was aktuell im Bereich 200€ "verramscht" wird, was derart fett ist und viel Fläche benötigt, dazu noch komplex auf dem PCB aufgrund des SI bei wenig Speichertakt usw. usf. ist alles andere als Optimal.

Letztendlich ist doch nur die größe des Chips relevant und da finde ich nunmal, dass du etwas übertreibst.
Ich sehe das eben anders.
Weder sehe ich zuviel Verbrauch, weder sehe ich "zu fett", weder sehe ich zu komplex und weder sehe ich zuviel SI, letztendlich ist das alles an Chipfläche verschmerzbar mehr, als Nvidia mit ihrem Gk104 geboten hat.
Für den Gamingsektor steht aber zweifellos fest, dass diese Rund was die besten Margen anging, wohl klar an Nvidia ging. Kleinerer Chip, anfangs etwas schneller, etwas weniger Verbrauch.


Welche anderen Specs meinst du?

Da wäre zum Beispiel Texturierleistung und ROP-Leistung und die Rasterizer Leistung.
AMD´s Chip war nicht so ausgewogen wie der von Nvidia, aber obs am Frontend liegt, keine Ahnung.

Tahiti war wohl eher als "HighEnd" geplant. Mit ~30% über einer GTX 580 und in Summe guten 40-50% über einer HD6970 konnte man das auch anfangs so nutzen... Heute mit Hawaii als HighEnd Produkt und einer GK104 Konkurenz, die einfach viel mehr Mainstream für diesen Bereich ist, ist das eben nicht mehr optimal...
Das ganze ist dabei auch völlig wertungsfrei zu betrachten. Sieh doch nicht permanent in jeder Aussage irgendwelche Kritik an AMD...

Ich betrachte das wertungsfrei. Ich bin lediglich nicht deiner Meinung, dass der Chip dafür alles andere als optimal ist.
Weder sehe ich die Verteilung der Cu´s pro SE suboptimal, noch den Einsatz dieses Chips als Performancekarte.
Denn offenbar ist er ziemlich günstig zu produzieren, evtl. einen Ticken teurer wie der von Nvidia 294mm² vs 365mm².

fdsonne schrieb:
Nach der Rohperformance von Tahiti müsste dieser fixer als GK104 sein und das nicht nur um ein paar Prozent, wie es die GHz Edition der Tahiti Modelle ist/war, weil man dort den Takt hochgeprügelt hat.

Bei gleichem Takt ist man auch in etwa 20% fixer.

Natürlich wäre ein Chip mit 256bit Interface für den Bereich aus Sicht der Marge besser.
Und ich vermute genau das wird Tonga werden. Vielleicht wird Tonga auch nur ~200 mm² groß im First Gate Prozess bei Globalfoundries.
 
Ich habe dir mal die relevanten Teile markiert. Vielleicht wird dir jetzt auch klar, das da niemand von Fakten sprach.

Dein ganzer Kommentar soll ein einziger Fakt sein. Vielleicht verstehst du es nicht, aber ein Widerspruch gegen einen Kommentar, offeriert man nicht mit dem gleichen Wortlaut, sondern es müssen Argumente kommen, die diesen Sachverhalt widerlegen können.
Wenn ich schreibe, es sind nur Gerüchte, dann kann man nicht mit Gegenargumenten kommen, wo genau der selbe Wortlaut, in diesem Fall Gerüchte vorkommen. Ansonsten stimmst du mir nämlich zu !

Und ganz nebenbei. Wir sind hier nicht beim Puzzel, wo man sich die einzelnen Wörter aus seinem Kommentar herauspicken kann und zu einem neuen Mosaik verknüpft. :rolleyes:
Steh endlich mal zu deiner Aussage und verwinde dich anschließend wieder nicht in alle Richtungen.

Du schreibst von Womöglich ect. Also Gerüchte... Genau das was ich geschrieben habe.

Und ganz nebenbei. Was hast du damit zu tun ?
Ich hab auf einen Kommentar von jemand anderes geantwortet.
Was Pickebuh wohl zu diesem SI-Krüppel sagen würde...

Darauf habe ich geantwortet das es nur Gerüchte sind. Punkt.
Was du nun mit deinem Nonsens willst wird mir einfach nicht klar.
 
Zuletzt bearbeitet:
Pickebuh... er hat doch nur gesagt was er für wahrscheinlicher hält, sonst nichts. Gerüchte sind ja auch dafür da um diskutiert zu werden!
 
Pickebuh schrieb:
Dein ganzer Kommentar soll ein einziger Fakt sein.

Also da verrennst du dich jetzt aber schon etwas. Wenn man hier nichtmal mehr über theoretische Entwicklungen reden kann, könnte ich hier jedem den Mund verbieten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh