Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Ja man weiß es nicht:) Spinnen wir mal ein wenig und spekulieren das alles so gewollt war.)

Die 3080 ein wenig auf Mining optimiert, das ganze inoffiziell weitergetragen, das die 3080 eine sehr gute Mining Leistung hat.


Dann geben wir der Karte 10 GB und optimieren ein wenig den Treiber :)

Und zu guter Letzt bieten wir die Karte für 699€ an, obwohl wir sie eigentlich für 850-900 € Verkaufen.

Ich denke mal das es da um richtig viel Geld geht und NVIDIA ist doch nicht blöd.

Heiß machen bis die Geldbeutel platzen... Das ist das Problem. Für 699 € würde ich gar nicht mehr jammern sondern mir eine 3080 kaufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Sollte dem so sein und der Unterschied zwischen 3080 und 3090 in Sachen Performance wirklich nur bei 10% liegen, ist die 3090 eigentlich "nur" eine 3080 mit 14 GB mehr Speicher. Schon eher etwas im Bereich von 15-20% erwartet. Mal sehen ob sich die 3090 besser Takten lassen und damit vielleicht etwas mehr Abstand dazwischen kommt. Eine 20 Gigabyte 3080 macht die 3090 dann doch nahezu obsolet.
 
Kannste knicken, wetten?

Der Chip der 3090er wird sich nicht anders verhalten wir bei der 3080er. 4% - 6% OC möglich, eventuell mit Wasserkühlung etwas mehr, aber das kostet jede Menge Watt. Lohnt sich nur für die Stromanbieter in DE. ;)
 
Wenn dem wirklich so sein sollte, verstehe ich absolute nicht was NV sich da gedacht hat. Das macht alles herzlich wenig Sinn. Das wird ja immer besser hier...
 
Die haben sich garnichts bei gedacht, der 8 nm von Samsung gab halt nicht mehr her.
 
Wohlwissend dann trotzdem 800 Euro Aufschlag wg. 10% und 14GB VRAM mehr? Das ist doch alles Kalkül, dass sie die Kunden jetzt genau in dieser Lage lassen in der wir sind. Kann mir niemand was anderes erzählen.

Hoffentlich liefert AMD diesmal ohne Treiberprobleme, ich würde es ihnen so heftig gönnen.
 
Es gibt keine Treiberprobleme bei AMD. Die Fertigung ist das Problem. Ich hoffe aber ernsthaft, dass RDNA2 da ausgereifter ist.
Bin noch gespannt wie die 3070 wird. Das wäre vermutlich eher ein Modell mit dem ich mich anfreunden könnte. 3080/90 find ich für mich persönlich komplett Fail. Da fand ich selbst Turing besser :|
 
Immer auch ein Frage was für Ansprüche man hat, und wie man spielen möchte.

Szenario bei mir:

Meine 2070 (non Super) für 315€ in der Bucht verkauft (bevor nichts mehr wert).
Aktuell meine GTX-970 AMP EXTREME wieder im Rechner, die nutze ich immer gern als Übergang (und das Teil ist Optisch der Oberkracher).
Spielen tue ich aktuell u.A NFS Heat.
Die 970 zaubert auf 1440p @ Medium Details fast konstant 50 Frames auf den Bildschirm. Trotz des 3,5GB Gates. Bin immer wieder überrascht. :d
 
Es gibt keine Treiberprobleme bei AMD. Die Fertigung ist das Problem. Ich hoffe aber ernsthaft, dass RDNA2 da ausgereifter ist.
Bin noch gespannt wie die 3070 wird. Das wäre vermutlich eher ein Modell mit dem ich mich anfreunden könnte. 3080/90 find ich für mich persönlich komplett Fail. Da fand ich selbst Turing besser :|


Abwarten, vielleicht klappt es ja diesmal bei AMD.

TMSC sollte eigentlich zur Zeit etwas besser aufgestellt sein als Samsung, von daher könnte es was werden.


Gruß

Heinrich
 
Es gibt keine Treiberprobleme bei AMD. Die Fertigung ist das Problem. Ich hoffe aber ernsthaft, dass RDNA2 da ausgereifter ist.
Bin noch gespannt wie die 3070 wird. Das wäre vermutlich eher ein Modell mit dem ich mich anfreunden könnte. 3080/90 find ich für mich persönlich komplett Fail. Da fand ich selbst Turing besser :|

Die Blackscreens sind ein Hardware-Problem und nicht Software? Bist du dir da sicher? Ist das erste Mal, dass ich das höre, sonst wird das immer als Treiberfehler dargestellt. AMD adressiert das doch auch immer wieder in den Patchnotes.

Wohlwissend dann trotzdem 800 Euro Aufschlag wg. 10% und 14GB VRAM mehr? Das ist doch alles Kalkül, dass sie die Kunden jetzt genau in dieser Lage lassen in der wir sind. Kann mir niemand was anderes erzählen.

Die 3090 ist sehr günstig. Ich meine das vollkommen ernst, ein Bekannter promoviert aktuell an der RWTH und ist richtig heiß auf die 3090, damit er auch zuhause vernünftig arbeiten kann. Massig CUDA Cores und 24 GB VRAM mit fast 1TB/s Durchsatz für nur 1500€ sind ein Schnäppchen.

Als Gaming-Karte natürlich unattraktiv, aber als Compute-Karte für jemanden, dem die validierten Quadro-Treiber und Zertifizierungen egal sind, ist das Teil top.

Nvidia hat die nicht umsonst in der Präsentation so positioniert. Dass Gamer dann trotzdem mehr als den doppelten Preis für 10% mehr Leistung und in fast jedem Fall überflüssigen VRAM ausgeben, war denen jedoch auch bewusst.
 
Abwarten, vielleicht klappt es ja diesmal bei AMD.

TMSC sollte eigentlich zur Zeit etwas besser aufgestellt sein als Samsung, von daher könnte es was werden.


Gruß

Heinrich

Machen sich Fertigungsprobleme/Treiberprobleme sofort bemerkbar oder kann es sein, dass man AMD kauft und erst nach 4-5 Monaten klar wird, dass es mit einer bestimmten Config nicht harmoniert? Konkret: Wenn ich 2-3 Wochen nach release der AMD karten warten würde, könnte man dann mit gewissheit sagen, ob die Karten Probleme machen oder nicht?
 
Jemand mit dem neuen Nvidia Treiber und G-Sync unterwegs? Bei über 60hz berichten viele von schwarzem Bildschirm und Ähnlichem. Über alle Auflösungen hinweg. Ich frage mich, ob nur manche G-Sync Compatible Monitore Probleme machen oder ob es ein generelles Problem ist.
 
Ja die Blackscreens oder sonstige Instabilitäten sind ein HARDWARE-PROBLEM und haben rein garnichts mit der Software zu tun. AMD versucht nur softwareseitig die Hardware-Instabilität einzuschränken. Wer Probleme hat soll die Karte eintauschen und gut ist.
Beitrag automatisch zusammengeführt:

Machen sich Fertigungsprobleme/Treiberprobleme sofort bemerkbar oder kann es sein, dass man AMD kauft und erst nach 4-5 Monaten klar wird, dass es mit einer bestimmten Config nicht harmoniert? Konkret: Wenn ich 2-3 Wochen nach release der AMD karten warten würde, könnte man dann mit gewissheit sagen, ob die Karten Probleme machen oder nicht?

Ansich macht sich das sofort bemerkbar.
 
Zuletzt bearbeitet:
Jemand mit dem neuen Nvidia Treiber und G-Sync unterwegs? Bei über 60hz berichten viele von schwarzem Bildschirm und Ähnlichem. Über alle Auflösungen hinweg. Ich frage mich, ob nur manche G-Sync Compatible Monitore Probleme machen oder ob es ein generelles Problem ist.
WQHD 144 und keinerlei Probleme bei PoE,Warframe,CSGO oder Dying Light.Einzig bei PoE dauerts beim Einloggen teilweise ne Sekunde bis alle Texturen geladen sind.Davor sind die Klamotten manchmal Schwarz.2080Ti Asus PG278Q
 
Wäre eine neue Taktik, unbemerkt Texturenqualität runterzusetzen. Das wäre dann, nach der 970 mit ihren lahmen 500mb Vram, die nächste Nvidia-Verarsche. Aber ohne 4k Monitor nutzt man 4k eh nur als AA Methode. Ich würd auch mal bei extremen Spielen auf 1440p gehen, mir wärs also grob auch langsam egal. Aber wäre eine klassische Schweinerei.
Wobei der Begriff Matschtexturen natürlich falsch ist :)
Bei Crysis Remastered übrigens wird angeblich die gesamte Spielwelt grob gerendert, auch das, was man nicht sieht, in den höchsten Einstellungen. Das Spiel ist nix, ein Desaster.
 
Wäre eine neue Taktik, unbemerkt Texturenqualität runterzusetzen. Das wäre dann, nach der 970 mit ihren lahmen 500mb Vram, die nächste Nvidia-Verarsche. Aber ohne 4k Monitor nutzt man 4k eh nur als AA Methode. Ich würd auch mal bei extremen Spielen auf 1440p gehen, mir wärs also grob auch langsam egal. Aber wäre eine klassische Schweinerei.
Wobei der Begriff Matschtexturen natürlich falsch ist :)
Bei Crysis Remastered übrigens wird angeblich die gesamte Spielwelt grob gerendert, auch das, was man nicht sieht, in den höchsten Einstellungen. Das Spiel ist nix, ein Desaster.
Also lieber heftige Ruckler statt dynamische Wahl der Texturauflösung? Da hab ich lieber mal ne Matschige Textur wenn der Karte der VRAM ausgeht, als ruckeln. Außer du siehst die Ruckler als "Service" der dir anzeigt, dass es Zeit ist eine neue GPU zu kaufen. Aber allgemein nix dagegen wenn mit Big Navi und den von den AMD-Göttern pauschal herbeigesehnten 16 Gigabyte VRAM für ALLES plötzlich eine Explosion der Grafikqualität einhergeht. Dann organisiere ich mir gerne auch wieder etwas neues.

Auch mal sehen was eine 2GB Pro Chip- 3080 Version kosten wird. 999 Euro klingt doch nach einem runden Preis :d. Damit sind wir dann wieder auf 2080 Ti Launch-Niveau.
 
Die haben sich garnichts bei gedacht [...]
Wohlwissend dann trotzdem 800 Euro Aufschlag wg. 10% und 14GB VRAM mehr? Das ist doch alles Kalkül, dass sie die Kunden jetzt genau in dieser Lage lassen in der wir sind. Kann mir niemand was anderes erzählen.

Doch, die haben sich etwas dabei gedacht ... nennt sich "Das Melken der Enthusiasten" :d Und klappen tut das i.d.R. für Nvidia ziemlich gut.
 
Das wäre aber echt heftig. 20 % hätte ich schon erwartet, wohlwissend dass die 3080 so oder so am Ende die bessere Wahl ist. Selbst mit 10 GB kann man sich zwei kaufen für das Geld, also die Kohle weglegen und später wieder wechseln. Außer man hält es nicht aus dass vielleicht mal ein Jahr einer 10 % mehr Balken hat. Ingesamt muss Ampere für 2080 Ti Besitzer ziemlich langweilig wirken.
 
.... Ingesamt muss Ampere für 2080 Ti Besitzer ziemlich langweilig wirken.

Leider nicht so ganz, zumindest für mich.

Allerdings wenn meine 2080TI schon HDMI 2.1 hätte, ja, vollkommen öde das ganze. :d
 
Leider nicht so ganz, zumindest für mich.

Allerdings wenn meine 2080TI schon HDMI 2.1 hätte, ja, vollkommen öde das ganze. :d

Gibt es keine Möglichkeit Displayport in HDMI 2.1 umzuwandeln?

Wenn die 3090 echt nur 10 % schneller ist wird dort kaum Raum für eine Ti sein. Einzig für mehr Speicher ist noch Luft.
 
Doch, habe ich sogar hier.

Der Adapter von Club3D (cac1085) macht 4K@120Hz am LG C9 etc. möglich. Leider nur mit Einschränkungen, VRR funktioniert leider nicht damit und die Bandbreite von DP1.4 reicht nicht für 4:4:4 bei 4K@120 Hz. Und das Ding ist ziemlich zickig, nichts für Choleriker halt.


Gruß

Heinrich
 
Wenn dem wirklich so sein sollte, verstehe ich absolute nicht was NV sich da gedacht hat. Das macht alles herzlich wenig Sinn. Das wird ja immer besser hier...
Ich hab mich schon vor mehr als 15 Jahren gewundert, warum die Hersteller so „blöd“ sind, und CPUs/GPUs mit bis zu 50% OC-Potential verkauften.
Beitrag automatisch zusammengeführt:

Bin noch gespannt wie die 3070 wird. Das wäre vermutlich eher ein Modell mit dem ich mich anfreunden könnte. 3080/90 find ich für mich persönlich komplett Fail. Da fand ich selbst Turing besser :|
Mit nur 8GB VRAM?
Als 1080p-Zocker (maximal 1440p) voll ok
 
Ich spiel eh nur 1440p. Bislang hab ich da noch keine Probleme mit 8GB gehabt mit der 5700XT. Könnten nur paar mehr FPS sein ;)
Allerdings auch nur bei passendem Verbrauch. Meine 5700XT säuft 130Watt ASIC + ca. 40Watt on Top bei 5% Leistung unter Stock. Sowas hätt ich gern wieder, oder auch mit weniger Verbrauch, nur schneller.
Wäre interessant was Leute durch UV bei der 3080 rausholen können bei minimalem Leistungsverlust. Wenn das nicht monströß ist, seh ich da für die 3070 allerdings auch schwarz und hoffe auf RDNA2 in kleiner Ausführung.
 
Ich spiel eh nur 1440p. Bislang hab ich da noch keine Probleme mit 8GB gehabt mit der 5700XT. Könnten nur paar mehr FPS sein ;)
Allerdings auch nur bei passendem Verbrauch. Meine 5700XT säuft 130Watt ASIC + ca. 40Watt on Top bei 5% Leistung unter Stock. Sowas hätt ich gern wieder, oder auch mit weniger Verbrauch, nur schneller.
Wäre interessant was Leute durch UV bei der 3080 rausholen können bei minimalem Leistungsverlust. Wenn das nicht monströß ist, seh ich da für die 3070 allerdings auch schwarz und hoffe auf RDNA2 in kleiner Ausführung.
Optimumtec kam in seinem test von 340 auf 310 Watt runter, mehr war nicht drin. Sieht nicht so gut aus mit undevolting derzeit. Leider.
 
410W :)
Der Hersteller empfiehlt ein 800W Netzteil, hässlich ist sie ja schonmal :fresse:

Immerhin gibt es den passenden RAM dazu.

47681935_10156954139204168_3970628713178988544_o.jpg


Mehr als 400 Watt geht auch mit einer 3080. Hier EVGA FTW3.

FTW3_3080_400w.JPG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh