Navi wird die Mittelklasse bedienen und keine High-End-GPU werden

Genau, aber Nvidia konnte Kepler noch für die 780Ti verwenden.
GTX 780 (Ti) basierte aber auf einem deutlich grösseren Design, was halt auch entsprechend teurer und weniger wirtschaftlich war. Das kann man nicht mehr mit der HD 7970 oder GTX 680 vergleichen. GTX 780 (Ti) wurde zudem erst 2013 gelaunched, GCN in Form der HD 7970 hingegen Ende 2011.

Da bringst du was durcheinander. Fermi war zwar ineffizienter und später, aber trotzdem schneller.
Ich bringe gar nichts durcheinander. Dass Fermi etwas schneller war, ändert an meiner Aussage doch nichts. Am Ende waren es auch nur 10-15%. Und diese wurden einfach mit enorm viel Stromhunger und starker Abwärme erkauft. Neben den Fertigungsproblemen (Fermi konnte man nicht mal im Vollausbau auf den Markt werfen) und der Verspätung war Fermi einfach eine Gurke.

Auch heute hat Nvidia deutlich weniger Shader ...
Shader sind nicht alles. Auch Taktrate spielt natürlich eine Rolle. Aber mal davon abgesehen, mittlerweile sind die Unterschiede bei der Anzahl der Shader nicht mehr so gross wie einst.

Der Unterschied ist der, dass Nvidia sich das offenbar problemlos leisten kann, während AMD wieder rumheult, dass sie keine Kohle mehr haben.
Was sich Nvidia leisten können wird, wird man erst noch sehen. Fakt ist, AMD hat HBM Produkte im Client Markt, Intel hat HBM Produkte im Client Markt, Nvidia hingegen hat keine HBM Produkte im Client Markt. Und je länger Nvidia das hinauszögert, vor allem eine entsprechende Plattform dafür zu schaffen, umso mehr kann ihnen das später wehtun. Sachen wie Infinity Fabric oder EMIB entwickelt man nicht mal über Nacht. Ich sehe übrigens auch niemanden bei AMD, der wegen fehlender Kohle rumheult. ;)

Ja, HBM ist die Zukunft, aber eben nicht die Gegenwart.
Doch, HBM IST Gegenwart. Anscheinend haben das einige noch nicht kapiert. Genauso dass HBM gar nicht dafür gedacht, in jedem Produkt verwendet zu werden. Oder mit anderen Worten, HBM soll GDDR nicht komplett ablösen, im oberen Leistungsspektrum aber schon.

- - - Updated - - -

Mal aufs Datum geschaut? Nicht gerade aktuell. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GTX 780 (Ti) basierte aber auf einem deutlich grösseren Design, was halt auch entsprechend teurer und weniger wirtschaftlich war. Das kann man nicht mehr mit der HD 7970 oder GTX 680 vergleichen. GTX 780 (Ti) wurde zudem erst 2013 gelaunched, GCN in Form der HD 7970 hingegen Ende 2011.
Ist das verwunderlich? Durch Voodoo kommt die Mehrleistung sicher nicht. ;)

Ich bringe gar nichts durcheinander. Dass Fermi etwas schneller war, ändert an meiner Aussage doch nichts. Am Ende waren es auch nur 10-15%. Und diese wurden einfach mit enorm viel Stromhunger und starker Abwärme erkauft. Neben den Fertigungsproblemen (Fermi konnte man nicht mal im Vollausbau auf den Markt werfen) und der Verspätung war Fermi einfach eine Gurke.
Der GF100 war eine Gurke, alles was danach kam war gar nicht so schlecht wie meist getan wird. Oder war die GTX460 eine schlechte Karte? Die GTX570 war der HD6970 sowohl in Sachen Leistung als auch Verbrauch ebenbürtig. Wenn die eine Gurke war, dann waren es die Karten von AMD demnach auch. ;)

Was sich Nvidia leisten können wird, wird man erst noch sehen. Fakt ist, AMD hat HBM Produkte im Client Markt, Intel hat HBM Produkte im Client Markt, Nvidia hingegen hat keine HBM Produkte im Client Markt. Und je länger Nvidia das hinauszögert, vor allem eine entsprechende Plattform dafür zu schaffen, umso mehr kann ihnen das später wehtun. Sachen wie Infinity Fabric oder EMIB entwickelt man nicht mal über Nacht. Ich sehe übrigens auch niemanden bei AMD, der wegen fehlender Kohle rumheult. ;)
Nvidia verbaut jedoch bereits längst HBM2 außerhalb des Consumerbereichs und kann somit Erfahrungen sammeln. Ich würde Nvidia in dieser Hinsicht nicht abschreiben. Denn genau DAS könnte später wehtun. Momentan hätten sie im Consumerbereich viele Nachteile mit HBM2, aber praktisch keine Vorteile, die das ansatzweise aufwiegen könnten.
Kann auch sein, dass die User hier immer rumheulen, dass AMD kein Geld hat. :cool:

Doch, HBM IST Gegenwart. Anscheinend haben das einige noch nicht kapiert. Genauso dass HBM gar nicht dafür gedacht, in jedem Produkt verwendet zu werden. Oder mit anderen Worten, HBM soll GDDR nicht komplett ablösen, im oberen Leistungsspektrum aber schon.
Merkt man an den vielen kaufbaren Karten. ;)
Davon abgesehen wird es gegenwärtig zumindest bei Nvidia nicht zwingend gebraucht. Eine 1080Ti rennt auch mit GDDR5X wie geschmiert.
 
Das ist schön.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh