[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

Ich spekuliere mal ohne jegliche Basis ins Blaue hinein:

3090 = 1500€
3080 = 999€
3070 = 600€
3060 = 400€
3050 = 280€
3030 = 190€ :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo sind die Ti Karten?

3090 = 2000 €
3080TI = 1500€
3080 SUPER = 1000 EUR
3080 = 850€
3070 = 600€
3060 = 400€
3050 = 280€
3030 = 190€
 
Auch für 2.000 EUR?
 
mh, 2000 Euro sind schon sehr viel, vielleicht kommt die ja für 1500 ? Denke, dann wäre ich dabei
 
Zu teuer!, bei einem Materialwert von ca. 30 EUR.
 
24GB Ram und 1500 würde ich auch schwach werden, aber darüber eher nicht..
 
Meine 1080ti hat 830€ gekostet. Mehr gebe ich nicht aus. Bevor ich kaufe, werde ich sowieso warten bis die Vorstellung aus beiden Lagern stattgefunden hat, und der Hypetrain abgefahren ist. Dann sind die Preise bereinigt.
 
Zu yrelease habe ich 1330Euro (150 für den Block inkl Backplate 1 Monat später) für die 2080ti bezahlt. Viel günstiger ist sie nach 2 Jahren nicht geworden. Das mag an der fehlenden Konkurrenz liegen. Aber warten/hoffen kann man man immer bis was günstiger wird
 
Die neue Gen. wird genauso viel kosten (mit oder ohne Konkurrenz) :(
Bin gespannt ob diesmal eine "stärkere" non-RTX Variante geben wird als GTX1660 Ti / Super :wall:
Und die 75-125W TDP Karten. Hoffe auf eine Single-Slot :d
 
Welchen Sinn hätte es leistungsstarke non rtx Karten rauszubringen? Aus meiner Bewertung heraus garkeinen.

Für das entry und low midrange Level aus kostengründen ja, alles andere wäre schwachsinnig. Aber da würde ich keine wirklichen Sprünge zur gtx 1660 erwarten
 
Ich fände es gut. So etwas wie die 2080 Ti nur in bezahlbar. Der RTX-Müll juckt mich nämlich null. Aktuell hat man da nur die Option AMD zu nutzen wenn man ein vernünftiges Preis-/Leistungs-Verhältnis möchte, leider hat AMD nur nichts Besseres als obere Mittelklasseleistung. Wenn RTX in nativen 3840 x 2160 mit über 60 FPS (und das ohne irgendwelchen DLSS-******) möglich wäre, wäre das ein nettes Gimmick, für mich aber nicht mehr ein Kaufgrund als Hairworks bei Witcher.
 
Bis RTX ein wirkliches Kaufargument wird, wird wohl noch min ne Gen oder 2 kommen. DLSS finde ich immer noch das attraktivste Feature sofern es mal anständig funktionieren würde und das bei allen neuen und aktuellen Spielen. Aber ohne RTX wirst du in Zukunft wohl keine ordentlichen Karten mehr bekommen. vlt. hat AMD was, aber das würde auch bis zum nächsten refresh verschwinden.

Was die Preise angeht werden die nur steigen weil die Chips immer größer werden. Sofern AMD nicht anfängt Chiplets auch für GPUs zu verwenden wird sich das nicht ändern. Dazu müsste die IF aber wesentlich schneller werden.
 
AMD wird auch Raytracing bieten, zumindest im High-End. RTX ist aktuell so wie DX12 zur Kepler-Maxwell-Ära: Bis es eine Rolle spielt sind die Karten sowieso schrottreif.
 
Welchen Sinn hätte es leistungsstarke non rtx Karten rauszubringen? Aus meiner Bewertung heraus garkeinen.
Für das entry und low midrange Level aus kostengründen ja, alles andere wäre schwachsinnig. Aber da würde ich keine wirklichen Sprünge zur gtx 1660 erwarten

Viele Leute interessieren sich nicht für RTX. Jedoch kostet RTX Die Platz und damit Shader/Perfromance!

Wenn man bei gleicher Diegröße/Verkaufspreis die Wahl hätte zwischen:
-RTX 2080 = 100% Performance + RTX
-GTX 2080 = 140% Performance ohne RTX

Was würde der Großteil wohl kaufen? Die 40% schnellere Variante ohne RTX!

RTX ist ja nichts was man on Top dazu bekommt, es treibt unnötig die Die Kosten nach oben oder es kostet wertvolle (non RT) Performance, je nachdem von welcher Basis man ausgeht.
 
Das interessiert aber Nvidia nicht. Hier geht es um das Huhn-Ei-Problem. Wenn niemand die HW hat, wird niemand dafür was programmieren. Wenn niemand dafür was programmiert gibt es keinen Bedarf für HW. Außerdem hast du keinen 40% Leistungszuwachs nur weil du 40% mehr Fläche hast. Ein größerer Chip kann nicht so hoch Takten, ganz abgesehen von der Verzögerung. Buildzoid von Actually Hardcore Overclocking hat dazu ein sehr schönen Video gemacht als er die x2 Performance von den neuen AMD GPUs analysiert hat. Außerdem kannst du glauben dass Nvidia die GPUs nicht nur genauso sondern höher bepreisen würde. Du würdest schlicht weg keine non RTX Karte mit der Leistung sehen weil sie es nicht nötig hätten eine zu bauen solange AMD nicht vergleichbares hat. Vlt. als Titan Ultra oder so. Nvidia würde nur mit sich selbst konkurieren. Und wenn der Leistungszuwachs einer Generation zu hoch ist, ist es schwieriger die nächst genauso viel schneller zu machen. Das ist ja das was wir mit Turing sehen. Das ist das was Intel von Sandy Bridge bis Coffelake gemacht hat. Solange 4 Kerne mit etwas mehr Takt und IPC bis du die Kerne so klein hast, dass du auf die Gleiche Fläche 6 statt 4 bekommst. So kannst du die kosten stabil halten aber den Preis erhöhen.
Beitrag automatisch zusammengeführt:

Was Nvidia hier macht ist sich selbst den Arsch retten. Irgendwann hast du eine GPU so effizient dass du sie einfach in die CPU integrierst. Mit RT haben sie nicht nur eine bessere Technologie implementiert, sondern auch dafür gesorgt dass der Chip schön groß und teuer bleibt und schön viel strom frisst, sodass eine effektive Angliederung an eine CPU vorerst unmöglich bleibt. Wenn Intel und AMD nur genug Zeit haben, würden sie APUs bauen die so Leistungsstark sind, dass nur noch XX70/80 Aufwärts alleine Sinn macht. Du hättest immer noch Abstriche mit geteiltem RAM und langsamerer Anbindung dessen, aber in dem Preissegment geht es um Preis/Leistung. Keiner braucht 16 Kerne in einem Midrange System aber 8 Kerne und eine 1060 in einem? Das wäre was. Und siehe da AMD macht genau das. Es braucht zwar zeit bis du da ne ordentliche Leistung hast, aber in 10 Jahren würde doch keiner mehr eine Budget GPU kaufen. Es sei denn diese budget GPU hätte etwas das die APU (noch) nicht haben kann... ja was könnte das wohl sein? Etwas was viel Strom frisst, Platz braucht und noch möglichst viel VRAM. Etwas das so heiß wird dass du es unmöglich mit der selben Durchschnittskühllösung abspeisen kannst.

Nvidia würde gerne nur an Datacenter verkaufen weil die Margen einfach höher sind. Aber Asic und co sind halt effizienter. Und mit ARM auf dem Vormarsch sieht das auch nicht gut aus. Und wenn du noch AMD in schach halten kannst wäre dass natürlich ein willkommener Zusatz.
 
Zuletzt bearbeitet:
Was Nvidia hier macht ist sich selbst den Arsch retten. Irgendwann hast du eine GPU so effizient dass du sie einfach in die CPU integrierst. Mit RT haben sie nicht nur eine bessere Technologie implementiert, sondern auch dafür gesorgt dass der Chip schön groß und teuer bleibt und schön viel strom frisst, sodass eine effektive Angliederung an eine CPU vorerst unmöglich bleibt. Wenn Intel und AMD nur genug Zeit haben, würden sie APUs bauen die so Leistungsstark sind, dass nur noch XX70/80 Aufwärts alleine Sinn macht.

Das habe ich schon mal gelesen, ich erachte das jedoch als Bullshit. Eine GPU für Gamer kann man nicht mit einer Sound-/Lan Karte vergleichen, die mal eben onboard genommen wird. Das was AMD dort betreibt kostet Die Platz und Energie, dadurch wird der Gamer PC nicht günstiger, eher teurer mangels Variabilität. In welchem Jahr glaubst du würde eine IGP mit 5-10W Leistungsaufnahme 4k@144Hz stemmen? Meine Meinung: nie. Völlig unabhängig von RTX.
 
4K@144 wird es so schnell ohnehin nicht geben. Die kommende Generation wird 60 FPS gut und darüber je nach Spiel eventuell stemmen. Aber auch nur wenn man das Topmodell kauft. Ich persönlich strebe 90 Hz an, das wären für mich schon 50 % mehr als jetzt, die Monitore sinken auch langsam im Preis. Es lohnt sich aber nicht sowas anzuschaffen bevor nicht die passende Grafiklösung schon im PC ist.
 
@undervolter19 Ich glaube nicht das es mit normalen sockelgrößen geht aber wenn du was größeres nimmst wie 2066 und 2-3 chips darauf platzierst dafür etwas den takt zurück nimmst würde das schon heute möglich sein. Den Intel Nuc gibt es immerhin auch. niemand sagt dass du 5-10 watt hast. prozessoren können auch 200W ziehen also bengrenzt du die auf die hälfte und gibst der gpu den rest. außerdem sparst du platz weil die sich den IO part teilen würden. idealerweise hast du noch HBM2 da drauf. das ist momentan zwar äußerst grenzwertig, aber nicht unmöglich.
 
Also mich interessiert RT sehr. Nur noch nicht so sehr, dass ich unbegrenzt Geld dafür auf den Tisch gelegt hätte. Ich hab mir das erste mal RT auf BF5 angeschaut und die Spiegelungen im Wasser und den Fenstern alleine haben mich schon umgehauen. Weiss gar nicht wie man überhaupt sagen kann, dass einen diese bessere Darstellung nicht interessiert.
 
Alles neue ist schlecht weißt doch. Zumal du halt schon unnötig Geld ausgibst. RT im MS Flightsim 2020 wäre sicher was wo ich den Aufpreis rechtfertigen kann. Auch wenn die 2090 erstmal die einzige Karte wäre die das hinbekommt.
Beitrag automatisch zusammengeführt:

ich selbst spiele sonst wahrscheinlich nur cyberpunk wo ich es nutzen kann. aber scheinbar hast du ja keine wahl. entweder man bleibt so lange auf der 1080ti/Titan pascal bis es ausgereift ist oder man schluckt die pille.
 
Dieses sinnlose gehate und herab gespiele von raytracing im allgemeinen kann ich absolut nicht nachvollziehen. Allein der Vergleich mit kinkerlitzchen Features wie hairworks ist hanebüchen. Wie ich bereits sagte, ich bin felsenfest davon überzeugt, dass raytracing zukünftig bestehende Verfahren komplett ablösen wird. Allein weil die Entwicklung einer entsprechenden Grafik engine deutlich einfacher wird, wird es für die hersteller zunehmend interessanter werden. Insbesondere wenn wir dann irgendwann an den Punkt kommen, wo wir nicht mehr auf hybride sondern auf vollumfängliche raytracing Lösungen setzen werden. Da müssen nicht mehr aufwendig irgendwelche shading models und screen spaced refelctions, etc kreeiert werden. Man jage Physikalisch korrekte Beleuchtung über die Geometrie und voila.

Naturlich sind wir noch in den Anfängen dieser Technik in echtzeitanwendungen. Aber wer glaubt, dass raytracing sich nicht durchsetzen wird, der glaubt auch das kupfer die Zukunft ist und dieses internetz sich nicht durchsetzt.

Gerade wegen der leistungshungrigen, aber hochparallelisierbaren Technik dahinter ist dedizierte Hardware wichtig, um die nötige Leistung auch in echtzeit bereitstellen zu können. Daher bedarf es eben der auf Matrizen Multiplikation optimierten recheneinheiten. Die zu erwartenden leistungssprünge in diesem speziellen und neuen Bereich würde ich aber als sehr hoch einschätzen. Daher bitte im her damit, damit sich diese Technik schnell etablieren kann. Gerade in diesem Kontext macht Hardware ohne RT für mich überhaupt keinen Sinn mehr und erinnert mehr an pauschale Verweigerung.

Ob die konkrete implementierung von rt wie nvidia sie vorgemacht hat am Ende des Tages der Weisheit letzter Schluss ist, daß wird sich noch zeigen müssen. Eventuell wird es diesbezüglich noch bessere Ansätze geben, aber dedizierte/ angepasste Hardware halte ich für zwingend notwendig.

My 2 Cents
 
Denke auch, wenn jetzt Amd noch kommt mit Karten die entsprechende Leistung bringt bis runter zu den Konsolen wird Rt nicht mehr zu stoppen sein!
 
Das Raytracing reden immer die schlecht, die nicht das Geld für eine Raytracing Karte haben. Wer den Vergleich gesehen hat, der wünscht sich für die Zukunft mehr davon.
 
Viele Leute interessieren sich nicht für RTX. Jedoch kostet RTX Die Platz und damit Shader/Perfromance!

Wenn man bei gleicher Diegröße/Verkaufspreis die Wahl hätte zwischen:
-RTX 2080 = 100% Performance + RTX
-GTX 2080 = 140% Performance ohne RTX

Dummerweise ist nur schon klar belegt wurden, dass die RTX Geschichten auf Turing nicht den Platz kosten... Was den Platz kostet ist ganz klar der Split von FP und INT - der aber in Games bei weitem nicht das an Mehrleistung einspielt, was er in Fläche kostet.
Der Flächenbedarf der RT Cores sowie der Tensor Cores ist gelinde gesagt, überschaubar wenig. Vllt nicht vernachlässigbar. Aber es ist eben schlicht ein Märchen, dass du mit weniger/kein RT bzw. Tensor Zeugs wirklich greifbar mehr FP Leistung hättest bekommen. Denn die Rechnung hat einen Pferdefuß - die Leistungsaufnahme steigt bei steigender ALU Anzahl mehr oder weniger ansatzweise Linear. Ob du nun also 5120 ALUs (GV100 *hust*) mit 250-270W oder 4352 ALUs mit 250-270W bringst - macht overall effektiv keinen Leistungsunterschied, wie eben TU102 vs. GV100 ganz klar belegen. Nur braucht der GV100 (trotz HBM Vorteil!) eben entsprechend mehr Strom bei den ALUs, den man mit weniger Takt kompensieren muss. Oder anders ausgedrückt, im gleichen Prozess limitiert nicht die Anzahl der Ausführungseinheiten, sondern die Prozess/Einheiteneffizienz die absolute Leistungsfähigkeit der Hardware. Da kann man sicher, optimiert bis ins klein klein noch ein paar Prozent mehr oder weniger rausquetschen - geschenkt. Aber die 40%, die du da in den Raum wirfst, sind schlicht unrealistisch...

Oder sagen wir es anders - ob da jetzt RTX und Tensor Cores drin sind oder nicht, ändert weder den (Wafer)-Kostenfaktor noch die Rasterperformance nennenswert.

Ob es jetzt so sinnig ist/war von NV, der Gamer-GPU dedizierte INT Einheiten zu geben obwohl das in Games (aktuell noch im Schnitt) wenig bis keinen großen Mehrwert bringt - ist ne komplett andere Baustelle. Aber hier auch zieht schlicht wieder das Argument, dass die GPU nicht für den Spieler only entwickelt wird, sondern in anderen Marktbereichen auch her halten muss... Im Computebereich zieht das ungleich mehr ;) Denn da bringt die Trennung halt auch wirklich deutliche Punkte.
Allerdings gibts mittlerweile eben auch schon den ein oder anderen Titel, der von sowas mehr profitiert - ein Grund dafür ist dann die teils gestiegene Anforderung an die INT Einheiten. Da macht dann eben Turing Operationen gleichzeitig zu den FP Geschichten, wo Pascal und andere Architekturen das nacheinander durchführen - was eben Performance bringt... Das ist zwar auch nur die halbe Wahrheit, weil durch Volllast auf der Power limitierten GPU keine Luft für mehr Einheitenauslastung ist - sprich das skaliert nicht Faktor 2, aber es scheint dennoch zu skalieren...
 
Das Raytracing reden immer die schlecht, die nicht das Geld für eine Raytracing Karte haben. Wer den Vergleich gesehen hat, der wünscht sich für die Zukunft mehr davon.
Zeig mal nen realistischen Vergleich zwischen fake RT und richtigen RT via RTX. Sowas ist mir noch nicht bekannt. Kannte nur die künstlichen Vergleiche von Nvidia und Co, in denen man einmal alle Lichter einfach weggelassen hat und bei RTX on nur so mit Lichtern um sich geworfen hat um einen Unterschied zu demonstrieren.

Nur hätte man ähnliche Effekte (physikalisch nicht 100% korrekt, aber wayne?) vermutlich auch faken können, so dass der sichtbare Unterschied sehr gering bis nicht wahrnehmbar ausfällt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh