AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

es wird ja immer so getan als wenn der Video-Ram schon vom Solitaire spielen überläuft und alles unspielbar ist.
1060_vram.jpg


VRAM unter Windows bereits zu 59% ausgelastet... lebe quasi am Limit... vermutlich reicht es damit nicht einmal mehr für Solitaire?
Katastrophe, VRAM Gate, ruft den Verbraucherschutz [beliebige weitere HWLuxx Parolen hier anfügen]!

Dass ich effektiv trotzdem keine Probleme habe, obwohl der VRAM ingame am Anschlag ist, verschweige ich ganz unauffällig :hust:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
16 GB würde ich Klasse finden damit hätte man zumindest einen Puffer 11GB hab ich zwar noch nicht oft angekratzt in Spielen aber mit den neuen Konsolen könnte der Speicherhunger weiter steigen war ja mit der jetzigen Konsolen Gen auch so.
Da fühle ich mich schon wohler bei 16GB vor allem wen die Leistung mit NV auf Augenhöhe wäre.
Die 24 GB wird man wahrscheinlich kaum bezahlen wollen zumindest nicht jeder wenn der Preis natürlich nicht so hoch wäre würdd ich auch zu 24 nicht nein sagen.
Wenn wir von Preisen von um die 1000 Euro+ reden erwarte ich eigentlich auch min 16GB .
Hatte jetzt 11GB bei der 1080Ti dann bei der 2080Ti noch mal möchte ich das nicht !
 
Zuletzt bearbeitet:
Die VRAM Menge bei GPUs ist jetzt das, was der CPU Takt mal bei CPUs war (gefühlt kann man nicht genug haben). Dann haben sich auf einmal User gewundert, warum ein PC mit 1000Mhz langsamer sein konnte als ein PC mit 600Mhz. Architekturen, oder andere RAM Geschwindigkeiten, FSBs, LevelCaches etc. waren wohl noch Unbekannte.
Unterm Strich will ich ja nur sagen, dass VRAM Menge nicht alles ist
 
Zuletzt bearbeitet:
16 GB würde ich Klasse finden damit hätte man zumindest einen Puffer 11GB hab ich zwar noch nicht oft angekratzt in Spielen aber mit den neuen Konsolen könnte der Speicherhunger weiter steigen war ja mit der jetzigen Konsolen Gen auch so.
Nur dass - als die PS4/Xbox One auf den Markt kam mit ihren 8GB shared Memory für CPU und GPU Part, irgendwo der Speicherausbau im Highend Gaming GPU Umfeld bei 2-3GB lag.
Im Gegensatz zu den kommenden Konsolen, die 12GB dedicated bei der Series X, wovon 2GB reserviert fürs System sein sollen, ergeben 10GB nutzbaren VRAM - und damit sogar weniger als das bisher erhältliche auf den dGPUs der alten Riege. Die PS5 hat 16GB shared, wovon ziemlich sicher auch wieder ein gewisser Bereich Systemreserviert ist. Lass es 14GB shared sein, die das Teil nutzen kann. Von 2-3 GB für die Anwendungen - macht im Schnitt 11-12GB für den VRAM. Irgendwo so im Dreh. Mal bisschen mehr, mal bisschen weniger.
Mit 10-12GB auf der dGPU Seite bist du zumindest von der Seite her gut aufgestellt... Die große Preisfrage ist, wie stark funkt das Streaming dort rein und was bedeutet das am Ende wirklich für den PC Gamer? Bis dato spielt es exakt gar keine Rolle, ob du ein Spiel auf ner HDD, SATA SSD oder schnellen PCIe 3.0/4.0 NVMe SSD hast liegen. Da wird nix schneller, du hast nicht weniger Nachladeruckler oder sonstwas. Was sich verbessert ist die Ladezeit beim Spielstart - aber wer einmal drin ist, ist drin. RAM Caching federt das gar auf lahmen HDDs extrem ab sodass die Unterschiede am Ende Marginal sind.
Wenn aber das Datenstreaming massiv in Abspruch genommen wird, dann muss man sehen wie das auf dem PC aufgeht... Man kann natürlich die Daten länger im VRAM lokal bei der GPU cachen -> steigert den Verbrauch deutlich! Oder man nutzt andere Wege, bspw. dass die Daten vorher in den RAM gekippt werden. Lass da einfach mal sagen wir 5-10GB an Daten cachen, die bei Bedarf in den VRAM geschubst werden - mit 16-32GB/sec auch deutlich fixer als in der Konsole der Fall, wo es dort direkt aus der SSD kommen wird.

Ich bin allerdings nach wie vor eher skeptisch, dass die Entwickler das auf dem PC sauber implementieren werden. Es gibt so viele schöne Sachen, die bei sauberer Implementation so schön sein könnten -> aber es steht immer der Aufwand im Verhältnis zu der Nutzung. Kopfstände für ne PC Portierung werden da wohl nicht sooo viele Entwickler veranstalten...
 
Das streaming wird mit Sicherheit stark genutzt. Besonders bei only Ps5 games wird das stark ausgenutzt werden.
aber man sieht ja das MS keine echten Xbox Series X games bringt und die games auch auf der XBOX One X laufen müssen daher wird es nicht so schnell dazu kommen das man am PC streaming Probleme bekommen wird.
wie das dann aber bei einem Only Next Gen Spiel wie z.b. Battlefield 6 sein wird muss sich dann zeigen.
könnte mir nur vorstellen das die PS5 da Vorteile zum PC hat und nicht die Xbox Series X
 
Das wäre aber auch gut, sodass sich schnellere SSDs mehr lohnen. Bislang gibt es nur wenige Spiele wo überhaupt ein Unterschied zwischen NVMe und SATA merkbar ist, wenn sind das 1-2 Sekunden.
 
[...]
512-Bit sind durchaus denkbar, die 290/390 machte es schon vor. Die Karten waren sogar relativ günstig. Dies könnte AMD auch einen Vorteil in Sachen Speicherbandbreite geben, je nach dem ob NVIDIA wieder beschneidet (wovon man ausgehen kann) - Seit der 1080 Ti gibt es im High-End ja nur noch 352-Bit.

Wäre ein Interface für GDDR6(X) denn platzmäßig größer oder komplexer als bei der 290 mit GDDR5? Eigentlich dürfte eher das Gegenteil der Fall sein.
Als Außenstehender schwer überhaupt zu vermuten^^
Die Gtx 280 war die letzte Spielekarte mit 512-Bit Speicherschnittstelle. Acht 64-Bit Controller.
Vorteil ist man kann günstigeren GDDR6 einkaufen der niedriger taktet. Nachteil man braucht mehr von diesem und die ganzen Leitungen von der Gpu zum Speicher, BGA und package etc.
Wenn ich korrekt verstehe hat ein GDDR Speicherchip eine Busbreite von 32? Man bräuchte also auch heute noch ganze 16 Chips davon?
Wenn ja, nun deshalb verbaut man bei Nvidia kein 512-Bit^^

12 Chips a 2 GB für die rtx 3000 Titan macht 24 GB sollten es schon sein. Wohl min. 2500 € :fresse:
Könnte auch sein dass die in Gerüchten erwähnt rtx 3090 wirklich so heißen wird und einfach als neue Preis- und Produktoption über der rtx 3080 ti rangiert.
Dann halt für 1500 € oder so. Aber in welchen Eigenschaften sollte sich diese von der rtx 3080 mit 12 GB Vram absetzen? Einen neuen Chip extra dafür zu designen wird man wohl nicht.
 
hoffe auf einen Preis bis 2000 Euro für die 3090, dann würde ich wahrscheinlich zuschlagen;
hoffentlich wissen wir im August mehr
 
Kommt halt auf die Leistung an finde ich.
angeblich soll ja nächstes jahr schon der nachfolger von Ampere am start sein und das würde dafür sprechen das AMD dem Ampere schon ordentlich auf die pelle rücken wird
 
fände es gut, wenn beide Lager was ordentliches bieten würden; dann hätten wir Endverbraucher was davon;
auf die neue Generation nächstes Jahr möchte ich nicht warten, brauche die Leistung Ende des Jahres
für Cyberpunk
 
Als Außenstehender schwer überhaupt zu vermuten^^
Die Gtx 280 war die letzte Spielekarte mit 512-Bit Speicherschnittstelle. Acht 64-Bit Controller.
:fresse:
Ach Hyrasch, Rückblicke in die Vergangenheit sind echt nicht so dein Ding ;)
Die letzte 512Bit SI GPU war Hawaii von AMD ;)

Aber in welchen Eigenschaften sollte sich diese von der rtx 3080 mit 12 GB Vram absetzen? Einen neuen Chip extra dafür zu designen wird man wohl nicht.
Versteh ehrlich gesagt die Frage nicht... So wie alle anderen Modelle auch, die sich den gleichen Chip teilen?
TU102 ist auf der TitanRTX, den beiden Quadros und der 2080TI. TU104 ist 2080S, 2080, 2070S und Quadros.

Um es vereinfacht auszudrücken, man teildeaktiviert einfach, lässt ggf. noch was Takt nach, restriktiert etwas mehr das Powerlimit und spielt vllt noch mit dem SI/VRAM Ausbau und gut ist...
 
Bin heute morgen aus dem BN Hypertrain ausgestiegen mit einem Kater. :cry:
 
Gestern zu viel Rotwein gehabt?
 
BN für ca. 800 EUR mit einer Leistung auf Höhe einer 2080ti ist mein Vorschlag.
Verfügbarkeit ab September in Maßen, mit Customs zum Start weg ... :censored:
 
Zuletzt bearbeitet:
angeblich soll ja nächstes jahr schon der nachfolger von Ampere am start sein und das würde dafür sprechen das AMD dem Ampere schon ordentlich auf die pelle rücken wird
Das wurde Anfangs zu Turing auch gesagt, und gekommen ist nichts außer nen Super Fail.
 
Lichtblick ist sicherlich das neue native shader system, früher primitive shader, aber es muss halt wie immer vom Spiel unterstützt werden.
Das hat aber schon zu Vega Zeiten nicht geklappt, daher erwarte ich mir nicht mehr so viel.
 
Abwarten und einen Kaba trinken.
Zumindest wird AMD garantiert Preis-Leistungs-Sieger. :d
 
Das wäre bitter, so weit hinten dran glaube ich aber nicht wirklich.
Neue Konsolen legen ja auch gut zu und da ist kein "Großer" Chip verbaut.

War sicher nicht das Ziel nur die 2080ti zu schlagen. Das NV wieder zulegt wissen die wohl selbst gut genug.
 
Es wäre zu wenig, da möchte ich nichts schön reden, AMD hatte Highend versprochen, wenn jetzt tatsächlich "nur" ne 2080ti in rot rauspringt eine Enttäuschung unabhängig vom Preis erstmal.

Scheinbar muss man noch etwas Geduld haben, was am Ende jedoch bleibt ist, dass AMD weiter an NV heran rückt und das wird sich zumindest im mittleren Segment auch auf die Preise von NV positiv auswirken.
 
Klar, wurde ja bisher immer davon gesprochen das die Dinger so viel an Leistung zulegen.
Vor Kurzen war noch von schneller als NV die rede.

Naja egal wie, bevor keine Richtigen Benchs Online sind bleibt das alles nur blabla
 
Das mag schon sein, dass Nvidia eine 3090 bringt mit 50% mehr Leistung, aber das darf der Kunde dann sicherlich zahlen (mind. +50% zur 2080TI aufpreis). Bringt also den wenigsten was..
Aber die 50% sollen sie erstmal außerhalb von RTX best case Szenarios auf die Straße bringen.

Ich gehe aber schon davon aus, dass das neue Topmodell eingeführt wird um weiterhin den Vorsprung vor AMD mit dem einen großen Chip zu halten/demonstrieren, dafür geht man bei den 60er/70er und XX80(TI)-Modellen wieder minimal runter mit dem Preis und schon freuen sich alle, dass sie günstig die Nvidiakarten kaufen können. Weiß ja eh keiner mehr, dass das Topmodell vor nicht allzu vielen Generationen bei 600-700 Euro lag. Damit hat dann Nvidia immernoch erfolgreich seine Preise innerhalb von 2-3 Generationen verdoppelt. Dank den Schlafmützen bei AMD.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh