Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Zumal, wenn es einem echt seelische Schmerzen bereitet ein Produkt zu bestellen und zurückzuschicken bei Nichtgefallen, kann man auch bedenkenlos abwarten bis alle drölftausend Videos zu Ampere raus sind und jede Schraube im Detail analysiert wurde.
Denke mal die breite Masse will eh nur die Benchmarks sehen und hat damit alle relevanten Informationen. Und die sind ja 1 Tag vor dem Bestelltermin online. Reicht doch dicke.

Mal anders gefragt: Was für andere tiefergehende Videos will man den abwarten, dass es ein Problem wäre?
Würde auch lieber heute als morgen Benchmarks sehen, aber ohne einen Bestell-Knopf bringen sie mir halt eh nix, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben und dazu kommt noch, dass die Mehrleistung einer 3090 eher messbar ausfällt als spürbar.
 
Man kennt halt den Unterschied in der Hardware.
Da irgendwas über 20 % zu erwarten ist pures Wunschdenken.

Wobei man aber natürlich eine Sache relativieren muss: Man kann die RASTERLEISTUNG ableiten und abschätzen,... DLSS und RT hingegen würde ich nicht als abschätzbar ansehen.
Evtl. profitieren die vom VRAM? Evtl. steigt die Leistung da exponentiell mit der Hardware, statt abflachend linear?

Also klar, ich relativiere meine eigene Aussage hier,... ehm, ja.
OK OK! Aber angeblich ist ja alles bis auf Raster egal und da sind es max 20% ;-)
 
Ich denk, dass die meisten sich bereits entschieden haben. Der Preisunterschied zwischen beiden Karten ist extrem und das macht es eher einfacher. Schlimmer wäre eine 3080 und 3080 Ti mit 200-300€ Unterschied.

Genau das würde ich mir wünschen. Eine 3090 Light, weniger VRAM und vielleicht ein paar Shader weniger für 1 K.

Die Benchmarks wären schön. Dann wüsste man ob Ampere überhaupt begehrenswert ist.
 
So langsam juckt es mich doch etwas zu bestellen prinzipiell hätte ich gern lieber die kurze Karte.
Aber ich hab kein Bock be NV direkt zu bestellen. Was mich wundert man spricht immer davon wegen der Signale so kurz gewählt zu haben , die anderen Hersteller bauen aber lang. Oder habe ich da etwas übersehen?
 
Eben und dazu kommt noch, dass die Mehrleistung einer 3090 eher messbar ausfällt als spürbar.
Du hast ja bei allen Recheneinheiten ca. 20% mehr, ne RTX 3080 auf ca. 2100Mhz sollte dann ca. gleich schnell sein wie ne RTX3090@1700hz.
Da kann man keine Wunder erwarten bei der 3090, wenn du dir mal die RTX2080ti anguckt die hatte ca. 46% mehr Recheneinheiten als die RTX2080, nur bei der Speicherbandbreite waren es 37% und die war im Schnitt 30% schneller.

Wenn ich danach gehe ist die RTX3090 ca. 15% schneller als die RTX3080, also fast nix.
Du hast quasi fast nur das mehr an VRam, den man nun nicht zwingend brauch, es wurde ja mit 8K DLSS geworben, vielleicht brauch man den da explizit.Man kann derzeit auch mit weniger VRam leben, das tötet einen nicht^^.
 
Du hast ja bei allen Recheneinheiten ca. 20% mehr, ne RTX 3080 auf ca. 2100Mhz sollte dann ca. gleich schnell sein wie ne RTX3090@1700hz.
Da kann man keine Wunder erwarten bei der 3090, wenn du dir mal die RTX2080ti anguckt die hatte ca. 46% mehr Recheneinheiten als die RTX2080, nur bei der Speicherbandbreite waren es 37% und die war im Schnitt 30% schneller.

Wenn ich danach gehe ist die RTX3090 ca. 15% schneller als die RTX3080, also fast nix.
Du hast quasi fast nur das mehr an VRam, den man nun nicht zwingend brauch, es wurde ja mit 8K DLSS geworben, vielleicht brauch man den da explizit.Man kann derzeit auch mit weniger VRam leben, das tötet einen nicht^^.

So kann man sich auch ne 3080 schönreden..
 
Sind nicht alle so verrückt und zahlen doppelt für nur den VRAM. Die 15% sind doch nen witz.
 
So kann man sich auch ne 3080 schönreden..
Das ist kein Schönreden, ich fahre derzeit mit nur noch einer RTX2080@OC 5120x1440 und ich habe noch keine harten VRam Probleme, das der klar am Limit ist bzw. immer voll steht außer Frage.
Die RTX 3080 ist ganz klar der bessere Deal, die 10GB VRam werden den meisten locker reichen zumal auch nicht jeder UHD fährt.

Nur weil ich selber mir ne 3090 holen will, macht es das nicht zur sinnvolleren Wahl, das ist für mich die RTX3080.
Ich bin mir einfach im klaren drüber, das ich für kaum Mehrwert viel Geld versenke, der große Kühler der 3090FE ist wahrscheinlich auch mit der größte Vorteil, den tausch ich aber ja dann aus.^^
 
Das die 3090 im Vergleich der mehrleistung unverhältnismäßig teuer ist zur 3080, ist denke ich unstrittig. Auch der große vram rechtfertigt das nur bedingt. Allerdings ist das absolute topmodell auch in der Vergangenheit immer "etwas" teuer gewesen. Von daher, alles im Rahmen.
 
Wie war das mit dem Engel und dem Teufel auf der Schulter?
 
15% mehr sind kein Witz, wenn man von einer übertakteten 2080 Ti kommt. Man kann das Topmodell letztlich immer nur mit dem nächsten Topmodell sinnvoll ersetzen (Titan Serie ausgeklammert). Für Leute die z.B. noch auf Pascal sind, würde ich die 3080 klar empfehlen - da muss man nicht groß überlegen, das ist ein guter Leistungssprung.
 
  • Danke
Reaktionen: THK
Naja wer möchte denn von der 1080TI den Vram downgraden ? Die Fragen nach der 3080 20GB und 3070 16GB sind nicht umsonst so zahlreich..


Das ist kein Schönreden, ich fahre derzeit mit nur noch einer RTX2080@OC 5120x1440 und ich habe noch keine harten VRam Probleme, das der klar am Limit ist bzw. immer voll steht außer Frage.
Die RTX 3080 ist ganz klar der bessere Deal, die 10GB VRam werden den meisten locker reichen zumal auch nicht jeder UHD fährt.

Nur weil ich selber mir ne 3090 holen will, macht es das nicht zur sinnvolleren Wahl, das ist für mich die RTX3080.
Ich bin mir einfach im klaren drüber, das ich für kaum Mehrwert viel Geld versenke, der große Kühler der 3090FE ist wahrscheinlich auch mit der größte Vorteil, den tausch ich aber ja dann aus.^^

Ja aber schon vor Release die Performance kleinreden ohne echte Tests ?
Für mich ist es eine Prinzipienfrage, ich finde 3. GPU GEn in Folge stagnierenden Vram in Anbetracht neuer Konsolen mit 16 GB Vram ein Unding.
Und ich bin auch der Meinung das es früher als gedacht Probleme mit dem Vram geben wird. Wenn eine RTX 3060 für 350 knappen Vram hat akzeptiere ich das, aber sicher nicht bei 700 plus..
 
Jaja, jetzt geht die leia wie im CPU Bereich los wo 10% denn Kauf rechtfertigt.
 
Ja aber schon vor Release die Performance kleinreden ohne echte Tests ?
Niemand redet die Performance klein... Wir haben aber nunmal die Infos über den Hardware Ausbau, und das sind halt nur 20% Unterschied. Und wenn man sich 2080 vs 2080ti anguckt waren es da mit über 40% unterschied auch nur eher max 30% mehrleistung.

Klar kann der VRAM da n bissi was an der gleichung ändern, aber da wo er nicht limitiert kann man nun echt relativ konfident von <20% sprechen
 
Niemand redet die Performance klein... Wir haben aber nunmal die Infos über den Hardware Ausbau, und das sind halt nur 20% Unterschied. Und wenn man sich 2080 vs 2080ti anguckt waren es da mit über 40% unterschied auch nur eher max 30% mehrleistung.

Klar kann der VRAM da n bissi was an der gleichung ändern, aber da wo er nicht limitiert kann man nun echt relativ konfident von <20% sprechen

Weil man ja auch die Erfahrung mit Turing und dessen Leistungsskalierung über die Shadercluster 1 zu 1 auf Ampere übertragen kann.. dazu kommt bessere Kühler, wohl bessere selektierte Chips (Abfall wird 3080), keine Vram Probleme..
 
Gab es eigentlich das "VRAM Problem" Ende 2018 noch nicht? Oder hat man das erst durch die 2080Ti (+1GB) gemerkt dass es da ein Problem gibt?
Habe irgendwie dazu nichts gefunden dass sich einer mit seiner 2080Ti jemals darüber beschwert hätte :rolleyes:
 
Ich hatte das Vram Problem schon mit der 1080 TI, evtl fehlt so manchem die Expertise dies zu erkennen ?
 
Man bezahlt halt ganz klar auch den "besseren" Chip mit mehr aktiven Recheneinheiten.
Bei den CPU´s ist es meistens so das diese auch oft besser im Takt skalieren, was aber nicht garantiert ist.

Aber best Case 1:1 Umsetzung wären halt 20% bei gleichen Takt, der große Kühler könnte den Takt evtl. höher/kühler halten bei der FE.
Das Teil ist ja nun echt riesig^^.
 
Zuletzt bearbeitet:
Ich finde 20% hören sich immer wenig an. Wenn man aber FPS-Absolutzahlen gegenüberstellt, sieht das m.M.n. etwas überzeugender aus, ohne Spiele genauer zu benennen (Pauschalansatz):

3080 in fps vs. 3090 in fps
  • 100 vs. 120
  • 50 vs. 60
  • 80 vs. 96
  • 200 vs. 240
Etc...
 
Man bezahlt halt ganz klar auch den "besseren" Chip mit mehr aktiven Recheneinheiten.
Bei den CPU´s ist es meistens so das diese auch oft besser im Takt skalieren, was aber nicht garantiert ist.

Denke das vernachlässigen viele, die von den "besseren" Chips auf der 3090 ausgehen.

Die 1500,-€ werden hier viel weniger für die Selektierung von höher taktbaren Chips aufgerufen als eher für die Selektierung von Chips mit überhaupt nutzbaren (fast) vollen Recheneinheiten.
Die hohten Bins der 3080 auf der Gaming X Trio, Strix OC usw. dürften im Mittel alle höher takten als die durchschnittliche 3090.
 
Wo und wann kann man am besten zuschlagen, um noch sicher einer 3080 zu bekommen?
Kann man schon grob sagen, welches custom-design 3080 man kaufen sollte oder lieber FE?
 
Denke das vernachlässigen viele, die von den "besseren" Chips auf der 3090 ausgehen.

Die 1500,-€ werden hier viel weniger für die Selektierung von höher taktbaren Chips aufgerufen als eher für die Selektierung von Chips mit überhaupt nutzbaren (fast) vollen Recheneinheiten.
Die hohten Bins der 3080 auf der Gaming X Trio, Strix OC usw. dürften im Mittel alle höher takten als die durchschnittliche 3090.
Der "bessere" Chip ist auf aktive Einheiten bezogen.Die Wahrscheinlichkeit auf nen höheren Takt ist evtl. gegeben im Durchschnitt, du kannst genauso nen 3090 "Grottenchip" erwischen.
Ich sag mal so auch bei den besten 2080Tí Perlen war der Takt meist höher als bei der RTX2080, meine sehr gute 2080 macht 2160 und bis 2190/2205 benchbar,
dennoch gab es genauso 2080Ti´s die schon bei 2000Mhz Probleme hatten.
 
Wo und wann kann man am besten zuschlagen, um noch sicher einer 3080 zu bekommen?
Kann man schon grob sagen, welches custom-design 3080 man kaufen sollte oder lieber FE?
Tests kommen erst noch, aber tendenziell sollte man mit ner Asus Strix oder MSI Gaming X Trio nichts falsch machen (waren bei der 2000er Reihe beide sehr gut).

Zuschlagen kann man offiziell dann halt zu Release
 
Ich hatte das Vram Problem schon mit der 1080 TI, evtl fehlt so manchem die Expertise dies zu erkennen ?
Ich nutze aktuell noch die 1080ti (WQHD) und habe bis auf bei COD Warzone keine Probleme. Das Problem konnte ich aber auch beheben indem ich eine ini. angepasst habe damit das Game dem VRAM nicht wegfrisst. Die Games sind halt einfach zT absolut beschissen optimiert.

Wenn man 4k anpeilt würde ich allerdings auch zur 3090 greifen.
 
Was mich wundert man spricht immer davon wegen der Signale so kurz gewählt zu haben , die anderen Hersteller bauen aber lang. Oder habe ich da etwas übersehen?
Da geht es um die Signalwege zwischen GPU und Ram-Bausteine.

Daher kuscheln sich auch bei den längeren Karten die RAM-Module an den Interposer der GPU.
 
Ah okay , danke :-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh