[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

wäre halt schön wenn sie zwei Karten mit 12 und 24 GB bringen würden, aber den Chip dann nicht beschneiden.
Ist das wirklich so wichtig? Ich weiß nicht wieso alle Leute Probleme mit Beschneidungen haben, für die ganzen beschnittenen GPUs unterhalb einer 2080Ti gibt es doch auch Käufer...

Auch bei der 1060 3gb vs 6gb habe ich das nicht verstanden, fehlen halt ein paar Shader... na und? Der Preis muss/wird es richten...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wohin Beschneidung führen kann, haben wird bei der gtx 970 ( :fresse: )
gesehen.
 
Solange am VRAM nichts geschnitten wird, wie bei 660/970 ist mir das egal.
 
EOL beudeutet das die Karte eingestellt wird, Treiber Support( bug fixes ) gibt es trotzdem noch aber Optimierungen/Features etc. werden normalerweise auch eingestellt also man konzentriert sich auf die Aktuelle Generation.
Wo auch immer diese Definition herkommt, sie ist schlichtweg falsch. Gerade im Bereich der IT sind EoS und EoL sehr klar definiert. Siehe bspw hier. Sieht man bspw bei aktiven Komponenten von Cisco, da werden auch die Daten für EoS und EoL direkt auf der Produktseite angegeben.

EoL bedeutet, dass der Support komplett eingestellt wird. Und das wird Nvidia für die 20er Serie ganz sicher nicht tun.
 
Bzw zeigte ja such NV schon mal RT mit einer 1080Ti auch wenn nicht so performant das es auch andere Wege gibt RT zu berechnen .

Woher stammt denn eigentlich das Märchen, dass RT nur in Hardware geht!?
RT geht schon immer in Software - seit sonst wie lange schon... Das Ding ist nur, es ist halt langsam. Der Knackpunkt ist es, einen Weg zu finden, der es schafft, etwas in Echtzeit zu berechnen. Wie man das macht, ist völlig bumms egal. Ob das jetzt dedizierte Raytracing-Units sind, ob das irgendwelche CPU Cores in Größenordnungen sind oder ob das irgendwelche Unified Shader im GPU Bereich sind. Am Ende völlig egal. Die Software machts.
Aktuell wissen wir nicht, was AMD da bringt - NVs RTX Zeugs ist zumindest grundlegend DXR "geeignet" - was AMD da bringt, muss sich noch zeigen. Vergleichbar mit den Konsolen ist das aucht nicht zwangsweise, da dort möglicherweise die Uhren wieder etwas anders ticken.
Zumal das RT-Problem nicht die Einheiten ansich sind, sonder der Spagat zwischen notwendiger Rechenleistung und resultierender Optik. Nach dem ganzen rumgehube, was die Leute in den Foren immer ablassen, wenn es um DLSS geht, dürfte Raytracing gar nicht gut weg kommen. Denn dort geht es (in aktueller Form) eigentlich mehr darum mit nem Denoiser die mangelnde Performance zu kaschieren.

Den bisher gezeigten Trailern für die neuen Konsolen zur Folge kommt da von AMD auch nichts sonderlich groß leiststungsstarkes. Man sieht den Trailern mit bloßen Auge an, dass direkt ab Start, vor der aller ersten Veröffentlichung der Hardware und des ersten Spiels - die Performance schon so schlecht ist, dass die Auflösung und die Anzahl der Rays seeehr massiv abgesenkt werden muss. Perspektivisch werden sich da sicher neue Mittel und Wege finden, das "besser" zu kaschieren, aber aktuell kommt da mMn nicht so wirklich groß ein Fortschritt von AMD in der Hardware. Ich wäre mir nichtmal sicher, ob da überhaupt was groß in Hardware kommt. Kann - muss aber nicht.
Bei NV darf man allerdings durchaus davon ausgehen, dass Ampere in diese Kerbe massiv weiter reinschlagen wird.



Übrigens Thema DLSS - das was du da verlinkst ist aber schon eher ne andere Baustelle.
MS baut da ne Schnittstelle. Es ist heute doch lange schon möglich, komplett abseits DLSS, ne Art KI für Upscaling zu nutzen. Offline und ohne die Integration in eine Engine. Code, wie man das fabriziert - sogar GPU beschleunigt, gibts zu Hauf im Netz. Das ist aber eben nur die halbe Wahrheit. Sowas nutzt man um spezielle Probleme zu lösen. Bspw. denkbar bei der Restauration von altem Video/Fotomaterial. Der Knackpunkt dabei ist - ne Schnittstelle macht lange keine Implementation. Man muss NV definitv eins lassen -> die grünen haben seit je her ein Händchen für solchen Kram. Das muss man nicht gut heißen, viele kritisieren sogar ihre Bestrebungen in der Richtung, aber in der Vergangenheit gab es schon öfters derartige Ansätze, wo NV mit der Fix-und-Fertig Lösung ums Eck kam, während andere ne Art Schnittstelle brachten -> aber dann viel Arbeit allein rein stecken mussten. Wenn du dich zurück erinnerst - die exakt selbe Diskussion gab es damals zu PhysX vs. DirectCompute Zeiten. MS hat DirectCompute angekündigt und eine Integration ins OS bzw. in die DirectX Themen wurde von den Leuten als positiv aufgenommen -> es gab aber effektiv nie einen wirklichen GPU beschleunigten echten Konkurrenten zu PhysX per GPU. Man könnte meinen, dass das hier ähnlich laufen wird ;) DLSS basiert in erster Linie auf Berechnungen mit niedriger Genauigkeit -> und profitiert damit vom höheren Durchsatz der Tensor Cores (zumindest ab 2.0). Irgend ein DirectML oder alternative Schnittstellen können sowas in der Basis auch - aber es fehlt halt immernoch die Implementation. MS gibt auch nur bedingt Support an der Stelle. ;)
ICH würde mich allerdings wundern, wenn zumindest in den kommenden Konsolen nicht ne Art Abwandlung davon irgendwie einfließt. Weil es ist ein 1a Mechanismus um massiv Performance zu sparen ohne (wenn überhaupt) optische Nachteile zu haben.
 
Ich weiss auch nicht woher das Märchen stammt das RT nur mit spezieller Hardware gehen soll !
Gezeigt wurde Raytracing ja früher mal schon mit einer CPU.
Ich hab mich da wohl unzureichend ausgedrückt!

Hier gibt es halt viele Leute die lieber noch mehr Rohleistung gehabt hätten als Raytracing!
Das könnte über ein Paar Jahre hinweg vielleicht auch möglich werden auch wen zum Zeitpunkt wo die RTX Serie rauskam noch nicht der Fall war.

Mann muss halt auch mal schauen wie sich das nun mit der neuen Schnittstelle entwickelt also direkt ML !
Ja DLSS ist ein anderes Thema aber die Version 2.0 macht es zum Beispiel möglich Young Blood so mit 60FPS und Raytracing konstant auf meinem 4K Oled zu spielen und es sieht dabei sogar noch schärfer als native aus.
Konnte es es selbst nicht glauben als ich die Qualität mit meiner 2080Ti gesehen.
Dazu gibt es ja auch Tests und Berichte.
Wo DLSS zu Release ein Flop war hat es sich in Version 2.0 als sehr potent herausgestellt.

Was ich damit sagen will gepaart mit mehreren Techniken wird Raytracing vielleicht auch ohne dezierte Einheiten wird Performance vielleicht gut genug werden.
Wen man am ende den Unterschiede nur im Standbild sieht und im direkten vergleich wäre es zum Beispiel auch vernachlässig bar wenn man mehr Platz für Rohleistung auf dem Chip bekommt und man selbst bestimmen kann ob man RT Nutzen will oder nicht!
 
Zuletzt bearbeitet:
Ist das wirklich so wichtig? Ich weiß nicht wieso alle Leute Probleme mit Beschneidungen haben, für die ganzen beschnittenen GPUs unterhalb einer 2080Ti gibt es doch auch Käufer...

Auch bei der 1060 3gb vs 6gb habe ich das nicht verstanden, fehlen halt ein paar Shader... na und? Der Preis muss/wird es richten...
Ein Grund warum ich mir noch keine 2080 super gekauft habe. Klar gibt es da Käufer, oder eben auch nicht^^
Und wenn ich mir dann den Aufschlag zu einer Ti anschaue mit etwas mehr Speicher und einer GPU die NICHT beschnitten wurde :rolleyes:

Du sprichst es an, der Preis. Der SMD Bestücker setzt ein paar Bausteine mehr und Zack kostet das Ding mal ne ganze Ecke mehr?
Oh ja die 1060, war ganz lustig.

Also 24GB brauch ich wirklich nicht, ob ich bisher mehr als 8GB gebraucht hätte, keine Ahnung. Aber es muss doch durchaus möglich sein Karten anzubieten die eben nicht so mega viel Speicher haben aber dafür einen Chip im Vollausbau.
Man wird ja noch träumen dürfen ;)
 
Zuletzt bearbeitet:
Jo mit HBM oder mehr Bit sprich 448 ,512 könnte man für die heutige Zeit halt gut Bis 16 GB verwalten.
 
Ein Grund warum ich mir noch keine 2080 super gekauft habe. Klar gibt es da Käufer, oder eben auch nicht^^
Und wenn ich mir dann den Aufschlag zu einer Ti anschaue mit etwas mehr Speicher und einer GPU die NICHT beschnitten wurde
Dir ist aber schon klar, dass die 2080S den TU104 im Vollausbau nutzt - während die TI den TU102 in teildeaktiverter Form verwendet?? :stupid:
Irgendwie kann man eure Gedankengänge hier größtenteils nicht nachvollziehen - als ob es einen interessiert ob das Ding jetzt teildeaktiviert ist oder nicht. Am Ende zählt, was bei rum kommt...

Also 24GB brauch ich wirklich nicht, ob ich bisher mehr als 8GB gebraucht hätte, keine Ahnung. Aber es muss doch durchaus möglich sein Karten anzubieten die eben nicht so mega viel Speicher haben aber dafür einen Chip im Vollausbau.
Der Vollausbau eines 750mm² großes Chips in voller Funktion ist nunmal teuer - es hat schon einen gewissen Sinn, warum man teildeaktiviert. Und das ist sicher nicht um den Fans in den Foren Futter zum lästern zu geben. Es geht dabei um das Erhöhen der Ausbeute. Rechne dir doch einfach selbst aus wie viele voll funktionsfähige Chips bei 750mm² aus einem 300mm gesägt werden können und wie viel Kosten das in etwa verursacht. Das sind Werte, die kann man an jeder zweiten Ecke im Netz nachlesen.
Aber nur weil irgendwer gern hätte, dass das so ist heißt das lange nicht, dass es Sinn ergibt. Eins sollte man dabei nicht vergessen - das sind Kapitalgesellschaften, es geht dabei nicht darum, dich als Kunde glücklich zu machen, sondern möglichst wirtschaftlich zu agieren.

Ob der Vollausbau der TU102 wie bei der TitanRTX 2700€ wert ist - muss jeder selbst wissen/entscheiden. Fakt ist, der Speicher macht bei dem Preis dann den Kohl nicht mehr fett. Die Frage ist, was wäre realistisch? Bei derart hohen Preisen ist der Absatz extrem gering. Und am Ende muss sich das Produkt, was dennoch irgendwo produziert werden muss, was dennoch irgendwo Aufwand erzeugt usw. usf. eben rechnen. Um so geringer der Absatz in der Menge, desto mehr muss der Preis da nachjustieren. Hätte NV die Hand voll Prozent an ALUs einfach "weggelassen", sprich nicht teildeaktiviert, sondern von vorn herein nicht verbaut - die Kosten wären ansatzweise ähnlich wie für den Vollausbau jetzt auch. Um das zu drücken hätten sie dann wieder teildeaktivieren müssen -> was die Ausbeute erhöht und damit die Kosten drückt.
 
Am besten wäre es wenn es keinen Vollausbau geben würde , Sprich keine Titan und dafür den Herstellern überlassen wird ob sie die Grafikkarte beidseitig mit RAM bestücken wollen weil dann hätten wir sicherlich mehr als 12Gb bekommen zu vertretbaren preisen.

Die Frage ist aber nur ob man dann mehr als 12GB gebrauchen kann oder ob da einem die Leistung einen Strich durch die Rechnung macht.
NV hat ja immer nur so viel wie nötig gebracht und das hat ja auch immer gut funktioniert.
Man wird ja auch sehen wie das in Zukunft mit den Nextgen Spielen sein wird wobei ich da glaube das wenn diese Spiele kommen die die 12GB Sprengen das man da dann schon wieder andere Grafikkarten am Markt hat
 
Also mal abwarten, wieviel RAM nun wirklich kommt. Aber ich gebe euch Recht - dieses "sinnlose" Wettrüsten beim RAM kann ich auch nicht ganz nachvollziehen. War schon immer mehr dafür da einen knalligen Sticker mit XGB RAM auf die Retail Packung zu klatschen und den unbedarften Käufer zu verwirren. Mehr ist immer besser - auch wenn es kein Mensch braucht :unsure::stupid:
 
Endlich kappiert, mehr Leistung bekommste nur durch mehr RAM :shot:
 
was ein
Doofgebrabbel teilweise, die mit den Späßen sind doch die ersten die Jammern wenn der Ram voll ist..
 
Endlich kappiert, mehr Leistung bekommste nur durch mehr RAM :shot:

So ist es :) Darum verbauen sich auch Leute ein 1200W Netzteil in einen pummeligen Gaming Rechner mit einem Quadcore und einer Mid-Range Graka..... mehr ist eben immer besser :)

was ein
Doofgebrabbel teilweise, die mit den Späßen sind doch die ersten die Jammern wenn der Ram voll ist..
Naja - es gibt schon eine gewisse Grenze was Sinnhaftigkeit vs. Zukunftssicherheit(oder wie immer man das benennen will) betrifft. Wir reden da ja immer noch von einer High End GAMING Karte und nicht von einem Rendering Monster für professionelle Anwendungen.
 
Deswegen schreib ich ja 16 GB wären ok, aber ich zahl sicher nicht über 1000 Taler für das DRITTE !!! mal bzw die Dritte Gen mit selber Vram Ausstattung..

GTX 980/970, GTX 580, GTX 780Ti usw, schon oft war der Vram zu wenig aber die GPU hatte noch genug Dampf, das sowas immer so schnell vergessen wird..
 
Bei der über 3 Jahre alten 1080ti hat sich auch keiner über die 11GB Speicher beschwert (klar, diese Menge hat damals keiner gebraucht, aber genölt hat auch niemand). Beim Nachfolger 2080ti gab es eine Stagnation des Speichers trotz ca. 40% Leistungssteigerung. Und jetzt soll bei weiteren 30-40% Mehrleistung gegenüber der 2080ti der Speicher um 9% steigen? Wer 1500 € ausgibt, erwartet halt auch etwas mehr ;)

Letztlich wäre die 1080ti auch bestens mit 8GB ausgekommen (die vergleichbare 2070S kommt damit ja auch klar). Für die 2080ti waren die 11GB sinnvoll, wenngleich sich die Szenarien, die das ausnutzen, bislang an gefühlt nur einer Hand abzählen lassen. Ob die 12GB für 3080/3090 reichen werden, wird sich zeigen. Aber im Rahmen der neuen Konsolen könnte der Speicher je nach Spiel und Auflösung eher an die Grenzen kommen, als es bei den Top-Modellen der Vorgängergenerationen der Fall war.
 
Selbst 14Gb Wäre top aber glaubst dran das sowas kommt?
Ich glaube es werden 12Gb und das wars.
für 4K sind 12Gb auch echt ok und reichen noch gut aus aber wie das in einem Jahr aussieht wird sich zeigen aber dann gibt es bestimmt schon wieder die nächste Gen
 
Den RAM könnte man auch nochmal 2-3 Jahre bei 11GB lassen, wenn es denn sein müsste.
 
Erkläre das bitte nochmal genauer
 
Kurz und Knapp: es ist ein muss mehr VRAM zu verbauen.
 
Laut neuesten News kann es vielleicht noch schlechter werden bei den Preisen.

Mining Nachfrage soll aktuell wohl auch anziehn.
 
Das ist dass traurige, wie leicht manche sich ausnutzen lassen.

Ich hab mir jedenfalls geschworen unter 14GB gibt es keine 800+ Euro von mir mehr.

Edit:

Bei noch teurer bin dann aber generell raus.
 
Ich hatte damals mit der PS4 auch eine PC Auszeit genommen.
Könnte man mit der PS5 dann auch alles aussitzen
 
PS5?
Da hol ich mir lieber gleich ne Radeon. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh