Dann könnte Intel keine B570 10GB um 260 bzw. B580 12GB um 300€ anbieten, nebenbei auch Nividia hatte seinerzeit eine 12GB Mittelklasse alias 3060.
Du stellst Dich aber schon extra schwer von Begriff, oder?
Ich meinte eben damit, dass Intel es nötig hat, das Speicherinterface größer zu gestalten, um solche Speichergrößen anbieten zu können. Intels bisherige Architekturen Arc und Battlemage unterstützen nur GDDR6, alles andere wäre auch zu teuer, und den gibt es wie gesagt nur bis 2GB pro Modul. Um mehr als 8GB anbieten zu können, aber nicht gleich 16GB mit der doppelten Anzahl Module, muss man eben auch mehr als 128Bit anbieten. Man muss einfach zugestehen, dass Nvidia dank GDDR7 und bald 3GB-Modulen auch mit kleinerem SI sowohl genügend Bandbreite, als auch Speichergröße erzielen kann ohne Nachteile und mit geringerer Chipfläche.
Ich würde allerdings die meisten beisherigen Intel-GPUs in die Kategorie packen, für die 8GB oder maximal 12GB absolut ausreichend sind. 10GB sind Unsinn, es gibt so wenige Karten damit, dass diese Größe so wenig mitbedacht wird, dass sie kaum Vorteile ggü. 8GB bietet. Hat man ja bei der 3080 10GB gesehen, die hat fast genauso Speicherprobleme wie 8GB-Karten.
"Nötig" hat Intel das vielleicht auch, um die Karten attraktiver zur machen.
Auch die 3060 hat nur deshalb 12GB, weil bei 192Bit eben sonst nur 6GB drin gewesen wären und das eindeutig zu wenig gewesen wäre. Deshalb ist die 3060 auch erst erschienen, als die 2GB-Module verfügbar waren, die 3090 hat noch 24x1GB. Gab ja auch nochmal eine Neuauflage der 2060 mit der gleichen Anzahl Shader wie die 2060S, aber dem 192Bit-SI der 2060.
Alle diese Karten, die 2060 12GB, 3060 und sogar die 2080Ti 11GB fallen übrigens in die Kategorie, die bei Indiana Jones zwar im Gegensatz zur 3080 10GB und Karten mit 8GB Full-RT aktivieren können, aber keine spielbaren Frameraten erreichen,
während die 3080 12GB und die 4060Ti 16GB dies gerade so schaffen. Da sieht man also, dass die damals so gelobte und beliebte 3080 10GB keine gute Karte war und eighentlich von Anfang an die später unbeliebte 12GB-Version hätte angeboten werden sollen, während die 4060Ti 16GB besser ist als ihr Ruf.
Für mich käme weder die 5060Ti, noch die 5070 infrage, ich zöge erst etwas ab 5070Ti in Erwägung. Ich rüste nicht oft auf und dann soll es lange halten. Ich Würde aber auf jeden Fall den Vergleich mit der RX 9070 (XT) abwarten und eigentlich auch spätere Versionen mit 3GB-GDDR7-Modulen abwarten (also 18GB auf der 5070 und 24GB auf der 5070Ti/5080).
Ja, Nvidia liefert momentan ungefähr so viel Fortschritt wie Intel zu Skylake-Zeiten und wir brauchen unbedingt wieder Konkurrenz seitens AMD, aber man muss die Karten nicht schlechter machen als sie sind.