Insgesamt drei weitere Modelle: NVIDIA soll GeForce RTX 5060 Ti mit 16 und 8 GB planen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
115.619
In dieser Woche wird mit der NVIDIA GeForce RTX 5070 das vierte Modell der Blackwell-Generation starten. Bereits jetzt zeichnen sich am Horizont die weiteren Modelle ab, welche das Angebot nach unten hin abrunden sollen. Laut WCCFTech plant NVIDIA drei weitere Ableger: Zwei GeForce RTX 5060 Ti mit einmal 16 und 8 GB und eine GeForce RTX 5060, die dann ausschließlich mit 8 GB Grafikspeicher ausgestattet sein soll.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1740569000507.png


Kann mir bei diesem Bild ein Schmunzeln nach wie vor nicht verkneifen... :lol:
 
Nach wie vor halte ich von abgespeckten Grafikkarten-Varianten wenig und eine Verschwendung von Materialien. Meine Meinung. Wenigstens können sie mit der 5060 (+Ti) all die Probleme ausmerzen, die bis dato aufgetreten sind. Da erwarte ich, dass die Karten auf Anhieb super funktionieren.
 
Die Nvidia Blackout Generation...
 
Schon die 4060Ti mit nur 8GB ist ein Krüppel. Jetzt wollen die das ernsthaft nochmal bringen?
8GB sind mittlerweile das absolute Minimum, was man einer Gaming GPU zugestehen sollte. Reicht in manchen Titeln nicht mal mehr in FullHD wirklich aus.
Also nur was für die günstigsten Mainstream Karten.

EDIT: Man sieht dieser Tage auch vermehrt RTX 3070/3080 Karten, die verramscht werden, weil schlicht der Speicher zu klein geworden ist. Will aber trotz recht hoher GPU Leistung kaum mehr jemand für viel Geld kaufen, also wird das Zeug billigst verschleudert.
Das hat man davon, wenn man NVidia auf den Leim geht und deren elende Speicherknauserei mit einem Kauf unterstützt.
 
Zuletzt bearbeitet:
8GB sind mittlerweile das absolute Minimum, was man einer Gaming GPU zugestehen sollte. Reicht in manchen Titeln nicht mal mehr in FullHD wirklich aus.
Ach, für ne sparsame 180-220€ Karte und genügsamen FHD Genuss ist das doch realistisch noch länger ausreichend...
Oh... wait... :d
 
Oder Hersteller verbauen endlich mind 12GB siehe B580 von Intel in dieser Preisklasse
Wie oft noch, man kann den Speicher nicht beliebig konfigurieren! Die GB206-GPU hat ein 128Bit-Speicherinterface, das aus vier einzelnen 32Bit-Controllern besteht. An jeden davon kann man ein oder zwei Speicherchips anschließen. Die gibt es bei GDDR6(X) mit maximal 2GB pro Chip, bei GDDR7 sind nun 3GB neu, aber wohl noch in so geringer Zahl lieferbar, dass die der 5090 Laptop vorbehalten sind, damit die 24GB an 256Bit erreicht.
Mit 2GB-Chips sind demnach nur 8GB oder 16GB möglich, ein 12GB-Modell kann es höchstens später als Ersatz für das 8GB-Modell geben.
Schon die 4060Ti mit nur 8GB ist ein Krüppel. Jetzt wollen die das ernsthaft nochmal bringen?
8GB sind mittlerweile das absolute Minimum, was man einer Gaming GPU zugestehen sollte.
Wenn Du selbst sagst, dass man auch mti 8GB noch von einer Gaming-GPU sprechen kann, dann ist doch alles ok. Natürlich stimmt es, dass es inzwischen Spiele gibt, wo man mit der 4060Ti mit 8GB bestimmte Einstellungen nicht spielen kann, mit 16GB aber schon und mit spielbaren Frameraten. Aber das sind wenige Titel, sonst dürfte meist die Leistung zu gering sein.
EDIT: Man sieht dieser Tage auch vermehrt RTX 3070/3080 Karten, die verramscht werden, weil schlicht der Speicher zu klein geworden ist.
Bei der 3080 10GB, die ich keineswegs verteidigen möchte, ist das aber etwas übertrieben, das sind ja nur ein paar ganz wenige Titel, wo 10GB dann in UHD mit RT oder mit Full-RT/PT nicht reichen.
 
Wie oft noch, man kann den Speicher nicht beliebig konfigurieren! Die GB206-GPU hat ein 128Bit-Speicherinterface, das aus vier einzelnen 32Bit-Controllern besteht. An jeden davon kann man ein oder zwei Speicherchips anschließen. Die gibt es bei GDDR6(X) mit maximal 2GB pro Chip, bei GDDR7 sind nun 3GB neu, aber wohl noch in so geringer Zahl lieferbar, dass die der 5090 Laptop vorbehalten sind, damit die 24GB an 256Bit erreicht.
Mit 2GB-Chips sind demnach nur 8GB oder 16GB möglich, ein 12GB-Modell kann es höchstens später als Ersatz für das 8GB-Modell geben.
Ich weiß das, dann muss der Hersteller halt den Chip auf 160 oder 192 Bit Speicherinterface bauen...
Intel schaffts ja auch
Bzw hats nVidia mit der 3060 auch notgedrungen geschafft.
Ändert nichts an der Speichergeizmentalität seitens nVidia...
 
Ich weiß das, dann muss der Hersteller halt den Chip auf 160 oder 192 Bit Speicherinterface bauen...
Intel hat es auch nötig. Klar wäre das schön, aber unwirtschaftlich. Das Speicherinterface nimmt AFAIK immer noch einen recht großen Teil der Chipfläche ein und schrumpft nicht im gleichen Verhältnis wie andere Teile der GPU durch Shrinks. Zudem kommt ja jetzt mit GDDR7 ein massiver Bandbreitenzuwachs bei weniger Abwärme und Energieverbrauch als GDDR6X und mit den 3GB-Moldulen eine 50% höhere Speicherdichte. Es ist also schlicht nicht nötig. 36GB GDDR7 an 384Bit mit 1.440GB/s Bandbreite wären auf einer 5080 völliger Overkill. Denk auch dran dass es seit der letzten Generation keinen Shrink gab bzw. das neuste Fertigungsverfahren noch nicht genutzt wird, weshalb alle GPUs außer dem GB202 ja keine zusätzlichen Ausführungseinheiten bekommen haben.
 
Wenn Du selbst sagst, dass man auch mti 8GB noch von einer Gaming-GPU sprechen kann, dann ist doch alles ok.
Nein!
8GB sind das absolute Minimum, welches man dem ebenfalls absoluten Einstieg ins Gaming heute noch mitgeben kann. Und das hab ich auch so in meinem Post geschrieben, aber du hast es geflissentlich in deinem Zitat rauseditiert.
Eine RTX 5060Ti agiert sowohl leistungsmäßig als auch preislich in einer ganz anderen Sphäre. Dort sind 12GB Minimum angebracht.
 
Schon die 4060Ti mit nur 8GB ist ein Krüppel. Jetzt wollen die das ernsthaft nochmal bringen?
8GB sind mittlerweile das absolute Minimum, was man einer Gaming GPU zugestehen sollte. Reicht in manchen Titeln nicht mal mehr in FullHD wirklich aus.
Also ich war überrascht, wie gut meine 4060-mobile mit 8GB läuft. Mit WQHD. Hatte bisher noch nichts, was damit nicht ausreichend gut lief. Gut, 160fps kriegt man eher nicht. Alles stumpf auf High oder gar Ultra stellen geht natürlich auch nicht, aber.... es reicht überraschend gut.

Das Ding zieht maximal 120W. Mit nur 8GB hatte ich bisher auch kein Problem und sogar die Performance reicht durchaus. Der ganze Laptop zieht unter Spielevolllast soviel wie mein Desktop im Idle. :ROFLMAO:

Nach wie vor halte ich von abgespeckten Grafikkarten-Varianten wenig und eine Verschwendung von Materialien. Meine Meinung.
Ich meine das Gegenteil. Die Highend-Karten sind eigentlich nur was für absolute Enthusiasten. Der Wald-und-Wiesen-Gamer braucht das absolut nicht. Mit der Preisentwicklung mittlerweile noch viel weniger.
 
Ich meine das Gegenteil. Die Highend-Karten sind eigentlich nur was für absolute Enthusiasten. Der Wald-und-Wiesen-Gamer braucht das absolut nicht. Mit der Preisentwicklung mittlerweile noch viel weniger.
Das passt schon, wie du es beschrieben hast, für Wald- und Wiesen Gamer, nicht so anspruchsvolle Games, HD, Video, Internet, Office (da reicht auch eine APU) usw. Vorteil ist natürlich auch der Stromverbrauch vom Gesamtsystem, keine Frage. Es limitiert eben nach oben, Richtung Mittelklasse. Spätestens, wenn eine Anwendung oder ein Game mehr Power braucht, wird diese ausgetauscht oder baut sich sowieso ein neues System auf, was die Performance bietet. Aus Erfahrung weiß ich, dass es so ist. Das war auch mit der Grund, warum ich von Gesamtsysteme von der Stange recht früh abgekommen bin. Wegen der limitierenden Komponenten, beim Mainboard/BIOS angefangen. Mir fehlt auch die Nachhaltigkeit von Produkten, besonders im IT-Bereich spricht man schon nach 2 Jahren von "ist veraltet". Teuer erkaufter Elektroschrott.
 
Intel hat es auch nötig. Klar wäre das schön, aber unwirtschaftlich. Das Speicherinterface nimmt AFAIK immer noch einen recht großen Teil der Chipfläche ein und schrumpft nicht im gleichen Verhältnis wie andere Teile der GPU durch Shrinks. Zudem kommt ja jetzt mit GDDR7 ein massiver Bandbreitenzuwachs bei weniger Abwärme und Energieverbrauch als GDDR6X und mit den 3GB-Moldulen eine 50% höhere Speicherdichte. Es ist also schlicht nicht nötig. 36GB GDDR7 an 384Bit mit 1.440GB/s Bandbreite wären auf einer 5080 völliger Overkill. Denk auch dran dass es seit der letzten Generation keinen Shrink gab bzw. das neuste Fertigungsverfahren noch nicht genutzt wird, weshalb alle GPUs außer dem GB202 ja keine zusätzlichen Ausführungseinheiten bekommen haben.
Wusste gar nicht, dass die 3GB Module schon lauffähig sind. Dann wärs natürlich cool, wenn nVidia diese der 5060 mit auf den Weg geben würde, da glaube ich aber eher weniger dran ^^
Ich glaube auch, dass die 5060Ti mit 16GB ein heißes Eisen werden kann... kommt auf den Preis an.

Intel hats nicht nötig, sie wissen einfach, dass 8GB einfach nix mehr ist ^^
 
Na es wird so kommen wie es bei den 4ern auch schon war. Nach ein paar Monaten nach release 5060 für ab 300 5060ti 8gb ab 400 5600ti mit 16gb ab 500. Die günstigste 5070 mit 12(?)gb wird dann iwo plus 50 bis 100 euronen drüber sein. Sehe da außer man bekommt ne günstige 5060 oder 5070ti keine Schnitte im Lineup.
Derzeit, kann auch sein das sich die Preise bis Sommer sehr drücken, aber warum? Auch wenn AMDs neue gut liefern und davon gehe ich aus wird es da keinen großen Preiskampf geben. Lediglich die 7er könnten untenrum nochmal etwas günstiger werden.
Glaskugel aus*
 
Intel hat es auch nötig. Klar wäre das schön, aber unwirtschaftlich.
Dann könnte Intel keine B570 10GB um 260 bzw. B580 12GB um 300€ anbieten, nebenbei auch Nividia hatte seinerzeit eine 12GB Mittelklasse alias 3060.
Die Nebenbei erwähnt bessere Framtimes in Spielen liefert als die tolle 4060 mit ihren 8GB ebenso bringen die 4GB mehr auch in der Klasse viel, bei der Textur kann das Entscheidend sein zwischen Niedrig und Hoch :ROFLMAO:

Aber lustig ist der Gedanke schon:
5060TI alles auf Hoch in 1080p aber die Textur und Objektdetails auf Minimal weil der RAM fehlt, eine alte 3060 alles auf Mittel wegen der Leistung, dafür Textur und Objektdetails auf Ultra:banana:
 
Zuletzt bearbeitet:
NVIDIA

Unangefochten der Papiertiger 2021-2025.

Keiner kündigt soviel heiße Luft an.
 
Dann könnte Intel keine B570 10GB um 260 bzw. B580 12GB um 300€ anbieten, nebenbei auch Nividia hatte seinerzeit eine 12GB Mittelklasse alias 3060.
Du stellst Dich aber schon extra schwer von Begriff, oder?

Ich meinte eben damit, dass Intel es nötig hat, das Speicherinterface größer zu gestalten, um solche Speichergrößen anbieten zu können. Intels bisherige Architekturen Arc und Battlemage unterstützen nur GDDR6, alles andere wäre auch zu teuer, und den gibt es wie gesagt nur bis 2GB pro Modul. Um mehr als 8GB anbieten zu können, aber nicht gleich 16GB mit der doppelten Anzahl Module, muss man eben auch mehr als 128Bit anbieten. Man muss einfach zugestehen, dass Nvidia dank GDDR7 und bald 3GB-Modulen auch mit kleinerem SI sowohl genügend Bandbreite, als auch Speichergröße erzielen kann ohne Nachteile und mit geringerer Chipfläche.
Ich würde allerdings die meisten beisherigen Intel-GPUs in die Kategorie packen, für die 8GB oder maximal 12GB absolut ausreichend sind. 10GB sind Unsinn, es gibt so wenige Karten damit, dass diese Größe so wenig mitbedacht wird, dass sie kaum Vorteile ggü. 8GB bietet. Hat man ja bei der 3080 10GB gesehen, die hat fast genauso Speicherprobleme wie 8GB-Karten.
"Nötig" hat Intel das vielleicht auch, um die Karten attraktiver zur machen.
Auch die 3060 hat nur deshalb 12GB, weil bei 192Bit eben sonst nur 6GB drin gewesen wären und das eindeutig zu wenig gewesen wäre. Deshalb ist die 3060 auch erst erschienen, als die 2GB-Module verfügbar waren, die 3090 hat noch 24x1GB. Gab ja auch nochmal eine Neuauflage der 2060 mit der gleichen Anzahl Shader wie die 2060S, aber dem 192Bit-SI der 2060.

Alle diese Karten, die 2060 12GB, 3060 und sogar die 2080Ti 11GB fallen übrigens in die Kategorie, die bei Indiana Jones zwar im Gegensatz zur 3080 10GB und Karten mit 8GB Full-RT aktivieren können, aber keine spielbaren Frameraten erreichen, während die 3080 12GB und die 4060Ti 16GB dies gerade so schaffen. Da sieht man also, dass die damals so gelobte und beliebte 3080 10GB keine gute Karte war und eighentlich von Anfang an die später unbeliebte 12GB-Version hätte angeboten werden sollen, während die 4060Ti 16GB besser ist als ihr Ruf.

Für mich käme weder die 5060Ti, noch die 5070 infrage, ich zöge erst etwas ab 5070Ti in Erwägung. Ich rüste nicht oft auf und dann soll es lange halten. Ich Würde aber auf jeden Fall den Vergleich mit der RX 9070 (XT) abwarten und eigentlich auch spätere Versionen mit 3GB-GDDR7-Modulen abwarten (also 18GB auf der 5070 und 24GB auf der 5070Ti/5080).

Ja, Nvidia liefert momentan ungefähr so viel Fortschritt wie Intel zu Skylake-Zeiten und wir brauchen unbedingt wieder Konkurrenz seitens AMD, aber man muss die Karten nicht schlechter machen als sie sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh