Denke die Frage, als Außenstehende, was nun teurer ist, führt zu keinem genauem Ergebnis. Besagter 21 GBp/s Gddr6 Speicher sollte auch nicht günstig sein, vor allem bei der Anzahl der Chips.
In einem Video hat Industrie-Insider darüber erzählt, dass bei steigender Anzahl an Speicher, HBM sich relativiert.
Und die Beschäftigten bei nvidia können auch Interposer designen. Machen diese ja schon lange.
Du hast echt komische Ansichten wenn es um NV geht. Ehrlich... Warum sollte das jetzt so sein? Was interessiert denn der Preis auf einmal? Bei der 2080TI ist dir der Kostenfaktor doch auch völlig wumpe? Da gehts doch nur darum dass du den Preis für zu hoch empfindest, blendest aber komplett aus, dass das Teil 750mm² groß ist und kommst dann mit irgendwelchen Winzig GPUs, denen teils 50-60% von der Leistung fehlen, im Vergleich um irgendwas zu rechtfertigen. Kapier ich ehrlich gesagt nicht...
Generell möchte ich darauf hinweisen dass eine Radeon R7 in 7 nm und mit 16 GB hbm Anfang 2019 700 € gekostet hat.
Als 7nm duv noch recht neu und teuer war und 16 GB hbm auch was gekostet hat.
Das 1000 € Spielergrafikkarten nicht mal 16 GB hbm verbaut haben (Spekulationen zufolge nur 12 GB gdrr6), oder 2000 € Enthusiastenkarten, ist nur dick Marge.
Aber die Meinungsverschiedenheiten um Folgen/Konsequenzen gab es ja bereits letzens im Thread.^^
Das ist halt einfach genau der Käse - das hat nichts mit Meinungsverschiedenheit oder so zu tun, wenn du maximal negativ an ein Thema ran gehst und dann Urteile bildest die du alle Nase lang irgendwo platzierst... Eigentlich müsste doch langsam mal aufgefallen sein, dass es eben nicht so einfach geht!? Turing kam als 750mm² GPU mit neuem (zur Einführung schweine teuren GDDR6) Speicher auf den Markt. Da wurden teilweise für 8GB über 100$ spekuliert, an Kosten für den Hersteller um den Spaß zu beziehen. Lass dir das mal auf der Zunge zergehen
Btw. ist der Wink zur Radeon VII auch nur bedingt schlüssig. Der Vega20 ist 336mm² groß. Das ist nichtmal die Hälfte der TU102 GPU - selbst wenn man die damalige Aussage von AMD nimmt, wo die 7nm TSMC Fertigung ungefähr doppelt so teuer sein soll wie der Vorgänger 16nm Prozess. Dann wäre TU102 immernoch teurer. Da hat nicht ein Entwickler an dem RT Kram gesessen. Für dich zur Erinnerung, Vega20 ist ein Shrink - da ist nicht sonderlich viel neu dran. Kann man so einfach nicht vergleichen zu Turing. Geänderte Shader ggü. Pascal, deutlich erweiterter Aufbau, mehr Function Units usw. usf.
Dass AMD an der Radeon VII nichts verdient, muss wohl auch nicht erwähnt werden - generell blendest du die Quartalszahlen irgendwie immer ganz aus. Du sprichst über AMD als würde der Laden satt Kohle einfahren, dabei kommt da real nur sehr wenig vom Umsatz bei an -> und da ist der Ryzen gar mit drin! Wie viel die GPUs allein erwirtschaften, sieht man gar nicht... Ganz ehrlich, bitte überdenk doch mal endlich diese komischen Aussagen mit deinen Preisansichten. Das ist irgendwo recht weit weg von der Realität. Wie viel, lässt sich nicht beziffern. Aber ein Blinder mit Krückstock sieht, dass da was bei deiner Wunschvorstellung einfach nicht zusammen passt... Und nein, schon vorbeugend - ich kann das kaum besser beziffern. So einfach wie du es hinstellst, ist es aber definitiv nicht.
Das jetzige SLI mag zwar scheiße sein aber es funktioniert auch nativ so wie aktuell bei denn nv cloud/remote gaming GPUs ohne das man auf irgendwelche Spiele Software/Treiber Profile angewiesen ist.
600 Watt sind auch nichts neues bei ner dual gpu siehe Titan Z/R9 295X2
Kannst du das genauer ausführen? Mir wäre nicht bekannt, dass da irgend ein MGPU Verfahren zum Einsatz kommt!?
Was dort genutzt wird, zumindest was ich kenne, sind Maßnahmen zum Splitten einer Hardware in mehrere virtuelle Teile. Das geht aber schon seit Anno Asbach - früher hießen die Dinger mal "Grid" Mit Kepler gabs da ne Grid K1 bspw. -> im Server Virtualisierungsumfeld konnte eine physische Hardware in virtuelle Einheiten geteilt werden, sodass jede Virtuelle Maschine einen Teil der GPU Ressourcen nutzen konnte. Meines Wissens nach wird das heute in ähnlicher Form fabriziert.
Wovon ich da aber bis dato nichts gehört habe, ist die Skalierung über mehrere physische GPUs. Was auch ohne weiteres so gar nicht geht. Zumindest nicht mit den bisher bekannten Mitteln... Normalerweise verwendet man in diesen Cloud-Gaming Kisten irgendwelche relativ "dicken" Server mit relativ dicken GPUs - mehrere an der Zahl und betreibt dann auf so nem Blech mehrere Instanzen und teilt die Ressourcen auf. Das geht dann komplett ohne eine Softwareskalierung wie SLI oder Crossfire, weil genug Instanzen drauf laufen. Anders kann sich sowas auch irgendwo gar nicht rechnen bei den Preisen die da aufgerufen werden!?
Wenn du da irgendwelche näheren Infos hast, hau mal was raus, ich hab da ernstes Interesse dran
Ist ein anderer Satz für vorenthalten xD Nicht wohlen, da nicht müssen, da nicht brauchen, da sich rentiert.
Und wieder zu kurz gedacht...
Der Laden muss Geld verdienen. Wie macht man das wohl!? Man verkauft sinnigerweise seine Produkte. Erkläre mir, wie möchte NV mir noch ne dritte, vierte, fünfte 2080TI bitte schmackhaft machen!?
Kannste dir sicher sein, das wird nix werden... Ne 3080TI oder wie auch immer das Teil heißen wird, 2 Jahre nach der Turing, damit lockst du die ganzen Enthusiasten wieder vorm Ofen vor.
Das gilt btw. in der Mittelklasse noch viel mehr. Die, die versorgt sind, sind versorgt. Die kaufen kein zweites mal. Paar wenige Ausnahmen mal abgesehen...
Du kannst dir sicher sein, die werden alles dran setzen um so schnell es geht ne neue Generation zu bringen - einfach weil das bedeutet, dass man auf 1-2 Jahre wieder quasi gesicherte Einnahmen hat. Je nachdem, wie AMD mitspielt in der Konstellation wird die Sicherheit mal mehr, mal was weniger.