Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Wenn AMD die 3080 echt nur erreicht, wenn sie da genausoviel Strom durchjagen
Also das würde ich schon als Erfolg werten. Habe eher Bedenken dass sie deutlich mehr Strom dafür brauchen werden...

Ich würde mich eher fragen warum Nvidia so auf letzte puste Grafikkarten luncht ? Das haben sie nie gemacht wenn sie sicher waren das da nichts kommt was sie bedrängen könnte
Wie meinst du das? Zeitlich oder was die TDP angeht?

Pascal kam auch vor Polaris... und letzteres konkurrierte eher mit der von Nvidia bereits aufs Abstellgleis gelegten Maxwell Architektur, sprich Nvidia hat sich nie eine Sekunde Gedanken um Polaris gemacht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dell hatte schon die 3070 mit 16GB bei Zusammenstell PC gelistet oder wer auch immer. Ich schätze kurz nach Big Navi um nochmal einen reinzusemmeln. Je nachdem wo die AMD Karten preislich vertreten sind wird man entsprechend 50€ mehr oder weniger für die neuen Karten verlangen. Im Zweifel kaufen die leute lieber mehr Speicher, wenn die Performance etwa gleich ausfällt. Und das AMD mehr als 16GB haben wird, davon geh ich mal nicht aus.
 
Es sind aber noch keine 2GB pro Stein im Umlauf.
 
Ich erinnere mich gerade an die "Turbo-Cache" Zeiten zurück wo eine 256MB Karte auf einmal mit 2Gb VRAM beworben wurde und jeder Hersteller tun und lassen konnte was immer er wollte :shot:
 
Wieder was gelernt...
 
20 GB kommen sicher nicht so bald, weil Micron die 2GB Dinger noch gar nicht produziert, geschweige den in Masse.
Da mal nicht vom Osterhasen träumen bitte.

Die Erklärung von NVidia zu den 10 GB sind auch schlüssig UND decken sich mit den Tests der näheren Vergangenheit von HardwareUnboxed z.B., die auch mit 6 GB kein Bottleneck in 4k feststellen konnten.

Belegt ist halt ungleich benötigt. Wenn NVidia sagt, dass sie in 4k MIT Raytracing 4-6 GB BENUTZT, dann ist doch 10 GB wirklich ausreichend und hat genug Spielraum für Upgrades. Games machen doch nicht überraschend doppelt so krasse Texturen. Die breite masse hat doch gar keine GPUs dafür.
Genauso wird eine Firma wie NVidia doch nicht in ihr Flagship zu wenig VRAM packen und dann riskieren, dass Kunden dauernd Ruckler haben, nur weil da 2-3 Sticks zu wenig drauf sind.

Eine gewisse Skepsis ist immer gut und wichtig, aber man darf einer Firma auch mal etwas glauben, wenn alle Indizien darauf hindeuten, dass sie nicht lügen und sogar einen Nachteil davon hätten.
 
20GB 3080 kann auch ohne 2GB Steine kommen - die 10GB 3080 ist ja nur single-sided bestückt, kann man ja auch was auf die Rückseite knallen wie bei der 3090
 
20GB 3080 kann auch ohne 2GB Steine kommen - die 10GB 3080 ist ja nur single-sided bestückt, kann man ja auch was auf die Rückseite knallen wie bei der 3090
Dann wird es aber teuer, siehe 3090.
 
Dann wird das Ding aber 3090 Preis haben, das zahlt doch keiner.
Beidseitig bestückt braucht andere Kühlung, anderes PCB,... da ist ne MENGE Aufwand dahinter. Das wäre sicher nicht rentabel, weder für NVidia noch für den Kunden.
 
Denke das könnte man dann als 3080Ti für 1111€ verkaufen :d
 
Und obendrauf würde so ne Karte kein deut schneller sein.

Ich sehe da eher ne 3090 mit halben speicher und etwas Beschneidung beim Chip.
 
Woher würden wir das aktuell wissen?
 
Vieleicht gibt es ja recht zügig wieder die KFA2 mit +30% PT .
Ich wollte ja eigentlich die 3090FE kaufen aber das die kein Ref design haben hat mich dann doch umgestimmt und ich warte lieber.
Cyberpunk kommt eh erst im November

Warum ?
Fe Bloecke wurde auch en masse geben und was man so liest ist das pcb der fe besser als das normale weil nv die fe als premium positionieren moechte.
 
@Scrush
naja gut wenn man einen Monitor hat der Pixel wie legosteine hat ist das OC auch nicht nötig 😝😆 nur Spaß 😉

@Thrawn.
ja das habe ich mir auch gedacht aber irgendwie möchte ich gerne OC betreiben und ich weiß nicht ob man da ein gutes Bios bekommt.
Bei 3D Center stand was von locker 2,1Ghz aber dann braucht man bei der 3090 über 400Watt und wenn man die karte alles gibt an watt sind wohl auch 2,2Ghz problemlos drin.

ich werde es mir genau ansehen und dann kaufen.
ich will ja auch nen Aquacomputer kühler oder nen Watercool und daher warte ich etwas ab
 
Beidseitig bestückt braucht andere Kühlung, anderes PCB,... da ist ne MENGE Aufwand dahinter. Das wäre sicher nicht rentabel, weder für NVidia noch für den Kunden.

Also bei BN wird gerade über 16 GB für 549,- Dollar spekuliert - scheint sich auch keiner zu beschweren, dass sich das nicht rentieren würde. Ich meine da sollte man doch erwarten können das nVidia für einen tausender auch 20 GB beidseitig hinkriegt...

:unsure:
 
20 GB kommen sicher nicht so bald, weil Micron die 2GB Dinger noch gar nicht produziert, geschweige den in Masse.
Da mal nicht vom Osterhasen träumen bitte.

Die Erklärung von NVidia zu den 10 GB sind auch schlüssig UND decken sich mit den Tests der näheren Vergangenheit von HardwareUnboxed z.B., die auch mit 6 GB kein Bottleneck in 4k feststellen konnten.

Belegt ist halt ungleich benötigt. Wenn NVidia sagt, dass sie in 4k MIT Raytracing 4-6 GB BENUTZT, dann ist doch 10 GB wirklich ausreichend und hat genug Spielraum für Upgrades. Games machen doch nicht überraschend doppelt so krasse Texturen. Die breite masse hat doch gar keine GPUs dafür.
Genauso wird eine Firma wie NVidia doch nicht in ihr Flagship zu wenig VRAM packen und dann riskieren, dass Kunden dauernd Ruckler haben, nur weil da 2-3 Sticks zu wenig drauf sind.

Eine gewisse Skepsis ist immer gut und wichtig, aber man darf einer Firma auch mal etwas glauben, wenn alle Indizien darauf hindeuten, dass sie nicht lügen und sogar einen Nachteil davon hätten.

Die 3080 ist nicht das Flaggschiff, eher Bauernporsche
 
Es kommt WC3 mit RTX?! Weiß ei er obs nen Patch gibt oder muss ichs nochmal kaufen?
 
Gratis Patch für alle Plattformen wenn man das Game schon hat.
Wird aber auch ne Kaufbare Next Gen version geben.
Nur nicht für Nintendo... :d

Infos gibts auf Twitter
 
nur Patch am PC und auch weitere Verbesserungen+ HDR
Konsolen auch nur nen Patch 😮 nicht schlecht wusste ich garnicht
 
Ein paar weitere Häppchen
 
@Scrush
naja gut wenn man einen Monitor hat der Pixel wie legosteine hat ist das OC auch nicht nötig 😝😆 nur Spaß 😉

@Thrawn.
ja das habe ich mir auch gedacht aber irgendwie möchte ich gerne OC betreiben und ich weiß nicht ob man da ein gutes Bios bekommt.
Bei 3D Center stand was von locker 2,1Ghz aber dann braucht man bei der 3090 über 400Watt und wenn man die karte alles gibt an watt sind wohl auch 2,2Ghz problemlos drin.

ich werde es mir genau ansehen und dann kaufen.
ich will ja auch nen Aquacomputer kühler oder nen Watercool und daher warte ich etwas ab

Mir reicht das normale oc, biosmod usw muss nicht sein
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh