Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Mich persönlich interessieren RDR2 Benchmarks in mindestens WQHD.
Es juckt schon ein bisschen. Und eine RTX 3070 würde mir da reichen, wenn der Generationssprung so ausfällt, wie von GTX10xx zu RTX20xx
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ne High-End GPU als Wertanlage ist in der Tat ne komische Idee. ;-)
Man kann ja noch streiten, ob einem 20% den doppelten Preis wert sind. Das verstehe ich. Vor 6 Jahren hätte ich so jemand ausgelacht. Heute gehöre ich dazu, weil ich den Unterschied auf dem Konto nicht merke. Aber davon auszugehen, dass das Geld bei so einem Extremprodukt nicht komplett im Abfluss landet nach 2 Jahren, ist wirr. ;-)

Bei Headsets oder so mag das nicht so wild sein, aber GPUs? Da war doch Turing mit dem kleinen Sprung nun eher ne Ausnahme. Normal haben wir ja deutlich mehr.
 
in wie weit kann DP1.4a eine Einschränkung sein ?
bei klassischen displays im moment wohl noch nicht.

aber bei vr? da reicht halt die bandbreite von dp1.4a irgendwann nicht mehr aus. dann braucht man statt einem displayport-anschluss deren zwei. bei einem monitor wäre das wahrscheinlich egal, zumal dort hdmi immer noch weit verbreitet ist und die bandbreite von hdmi 2.1 erstmal reichen sollte. aber wie gesagt, bei vr? da ist es dann schon eine einschränkung, wenn zwei oder ein dickes kabel verwendet wird und das dann die bewegungsfreiheit einschränkt. kabel sind bei vr sowieso nervig.

dp1.4a = 25,92 gbit/s
hdmi2.1 = 42,66 gbit/s
dp2.0 = 77,37 gbit/s

kann sich jeder ausrechnen, dass man bei einer vr-brille mit zwei hochauflösenden displays und hoher refresh-rate schnell die grenzen von dp1.4 sprengt.
 
Ne High-End GPU als Wertanlage ist in der Tat ne komische Idee. ;-)
Man kann ja noch streiten, ob einem 20% den doppelten Preis wert sind. Das verstehe ich. Vor 6 Jahren hätte ich so jemand ausgelacht. Heute gehöre ich dazu, weil ich den Unterschied auf dem Konto nicht merke. Aber davon auszugehen, dass das Geld bei so einem Extremprodukt nicht komplett im Abfluss landet nach 2 Jahren, ist wirr. ;-)
Leisten könnte ich sie mir auch, daran liegts nicht, ich mag halt nicht, ist es mir nicht wert, kauf ich mir lieber einen neuen RC-Heli zB, ist auch ein Spielzeug
Ich lache auch niemanden dafür aus, jeder soll seine Kohle ausgeben wofür er möchte,
Nur das Gejammer einerseits bzw die Häme andererseits ist halt wirklich lächerlich.

die RTX3090 wird die 25% nicht schaffen.
eher 15-20% bei gleichem Takt zur 3080
Da wurde ja gemunkelt dass sie etwas höher taktet, aber who cares ob 15 oder 25%, es bleibt der doppelte Preis und das letzte Quentchen ist halt immer am teuersten. ;)
 
Solange HDMI 2.1 darauf ist und VR Headsets eh wireless laufen werden, ist mir das mit DP erst mal nicht so relevant.
Meine Monitore spacken eh rum bei DP, daher muss ich eh HDMI nutzen. (Hoffe neue Monitore machen da keine Probleme dann)
 
Hardware als Geldanlage, ich schmeiß mich weg... 😂

NVidia drückt damit die GPU Preise schön nach unten...
 
Solange HDMI 2.1 darauf ist und VR Headsets eh wireless laufen werden, ist mir das mit DP erst mal nicht so relevant.
Meine Monitore spacken eh rum bei DP, daher muss ich eh HDMI nutzen. (Hoffe neue Monitore machen da keine Probleme dann)
alle highend-vr-headsets sind verkabelt. und schaut man sich mal die wireless-lösung der htc vive an, dann ist auch klar, dass es vorerst keine wireless-lösungen mit ausreichend bandbreite für neue highend-geräte geben wird. zumindest nicht ohne ganz massive einschränkungen wie z.b. reduzierung der bildqualität durch kompression etc.

auf der anderen seite haben alle aktuellen brillen displayport, hdmi gibts nicht mehr. und es ist anzunehmen, dass ab nächstem jahr neue brillen auf dp2.0 setzen werden. da fehlt dann bei nvidia halt die passende grafikkarte. die power wäre ja vorhanden, aber halt kein dp2.0.
 
@cruger
ah alles klar danke VR hatte ich nicht am Schirm, da ich aktuell schon froh bin über ne Karte die mir einigermassen 60fps in 4K liefert (ohne allzuviel an den Reglern spielen zu müßen), wäre schön wenn bereits die 3080 das einigermassen schafft

dann könnte ich mir die 800 Flocken für ne 3090 sparen - hier langen die grünen ja mal wieder ordentlich zu und die 24 GB Vram sind nett aber fürs Gaming einfach komplett uninteressant (und ich kann mir nicht vorstellen das sich das bereits in den nächsten Jahren ändert - 16GB ok aber alles darüber kann ich mir wie gesagt einfach nicht vorstellen im Gaming Bereich)

Mich persönlich interessieren RDR2 Benchmarks in mindestens WQHD.

da wäre auch auch sehhhhhhhrrrrrrr interessiert daran und gleich auch noch welche in 4K :d
 
Ne Graka war noch nie eine gute Wertanlage.. Wenn man Sowieso bei jeder Gen wechselt verkauft man immer vor so einer Veranstaltung. Da ist es dann nicht ganz so krass.
 
Maxwell kann man jetzt nur noch verschenken :haha:

Die erste 3070 mit 16GB ist gesichtet:

Das sieht nicht gut für AMD aus.
 
Zuletzt bearbeitet:
man sieht halt nix von der karte wirklich. nur die eine ecke von "oben"

Hier gibt es etwas mehr zu sehen; scheint abseits des Displays eher unspektakulaer zu sein. Jedenfalls kein Vergleich zu den Flakscheinwerfern der 2000er-Modelle.

Da es nun 2080ti Performance für 500 geben wird, ist ja sogar die aktuelle RX 5700XT schon etwas in Zugzwang.

Selbst wenn die 3070 die 2080 Ti eher selten erreichen und ansonsten knapp unter ihr bleiben sollte, wird es fuer die 5700 XT in der Tat eng. Da wird es schon mehr als einen Wundertreiber und Container in Schiphol brauchen ...
 

Die Shader können zwei Berechnungen ausführen, dass heisst aber mMn nicht, dass die Anzahl der Shader verdoppelt ist, was bei Deinem Link angegeben ist. Bei CPUs hast du auch SMT/HT auf einem Kern. Heisst aber nicht, dass das die doppelte Leistung ergibt. Es kommt also darauf an, wie Nvidia das umgesetzt hat.

Und mal ganz abgesehen davon, um mit Igor zu sprechen, es gibt noch keinen Treiber für die Karten. Die sollen nach seiner Aussage nach, erst am 4.9. kommen. Geleakte Benchmarks sind also immer noch mit vorsicht zu sehen.

Cunhell
 
Zu spät. Meine beiden TitanX habe ich schon vor nem 3/4 jahr verschenkt
lagen eh nur rum weil die 2080ti da war :LOL:
Pascal wird folgen, die erste 3070ti mit 16GB wurde gesichtet.

Oben im Beitrag verlinkt.
 
Naja ist doch normal.
die 3080 mit 20gb wird folgen.

so wie es aktuell aussieht geht NV in kampfhaltung gegen AMD.
und AMD wird mit Sicherheit auch in den Kampf gehen.
 
Maxwell kann man jetzt nur noch verschenken :haha:

Die erste 3070 mit 16GB ist gesichtet:

Das sieht nicht gut für AMD aus.

Na dann kommt definitiv eine 3080 Ti mit 20 GB
 
um mit Igor zu sprechen, es gibt noch keinen Treiber für die Karten. Die sollen nach seiner Aussage nach, erst am 4.9. kommen. Geleakte Benchmarks sind also immer noch mit vorsicht zu sehen.

Wenn es keinen Treiber geben soll Frage ich mich wie Digital Foundry gestern die 3080 ins laufen bekommen hat.
 
Ich hab Zeit bis bis zu einem Jahr :d
 
EK Vector für die FE

Bildschirmfoto 2020-09-02 um 10.08.32.png Bildschirmfoto 2020-09-02 um 10.10.17.png Bildschirmfoto 2020-09-02 um 10.10.19.png

Quelle ist wohl Instagram kann das aber nicht verifizieren (Hab die Bilder vom CB Forum)
 
Wenn es keinen Treiber geben soll Frage ich mich wie Digital Foundry gestern die 3080 ins laufen bekommen hat.
Mit einem Treiber der nur mit diesen Spielen lief. Knall mal ein unbekanntes Spiel auf die neuen Karten und guck dir dann die Skalierung an (wobei ich bezweifle, dass ein Reviewer so genau hingucken wird - die Liste an Spielen ist meist in Stein gemeißelt)
DF hatte einen Dev-Treiber. Der Rest ist Spekulation. Ob dieser Dev-Treiber gewisse Stellschrauben hatte, damit die neue gen besonders gut läuft, ob der die alten Karten generft hat, ob es Optimierungen unter der Haube gab - alles unbekannt. Es gibt einen Grund, warum die absoluten FPS nicht gezeigt werden durften, sondern nur relative.

Das sind natürlich Details, die im Fieberwahn der Forenkommentar-Explosion schnell untergehen und wo auch kein Schwein mehr nachfragt - paßt halt nicht zum "Zeitgeist".
 
Dann könnte man ja auch, bis AMD mal um die Ecke kommt, warten bis noch evtl eine 3080ti kommt.
Warum TI?
es würde reichen wenn da einfach 20gb drauf sind.
mal angenommen big navi wäre 10% schneller, wovon ich auch ausgehe, kostet dann 799€ mit 16GB und NV bringt die 3080 mit 20gb für 849€ dann würde ich klar zu Nvidia greifen.
ob ich nun 50 oder 55fps in 4k habe wäre egal weil Freesync das klärt.
aber bei NV hat man DLSS 2.0 was sich schon bewiesen hat und echt gut ist.
zudem habe ich seit der GTX780Ti niemals treiber Probleme gehabt. Das ganz lief einfach nur.

ich würde selbst bei 900€ lieber die 3080 20GB kaufen wenn sie nur 10% langsamer ist weil man das nicht merkt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh