NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
3440x1440

Anhang anzeigen 531210

640x480

um die 170 zu erreichen in der szene würde nichtmal die 3090 reichen. ich bräuchte mehr als 100% mehrleistung zur 2080S

Anhang anzeigen 531211

ja in actionszenen gehen die fps sicherlich cpu seitig runter. das stimmt ^^
Bei 720p auf Ultra hab ich z.B. ca. 120FPS auf 720p low fast 200FPS, Graka ist immer zu 100% ausgelastet^^.

Wieviel ne 3080 auf 720p Ultra dann packt schwer zu sagen.Auf jeden Fall kann ich dir sagen das du mit nen 9900K mit RamOC genug Leistung hast um die Graka auch bei WQHD fast auszulasten bei neuen Titeln.
Bei Shadow of the Tombraider WQHD@Ultra mit SLI hatte ich 192FPS AVG im Benchmark und war nur wenig im CPU Limit,
soviel FPS stemmt die 3080 da nicht.
 
Zuletzt bearbeitet:
Das man das CPU/GPU-Limit überhaupt diskutieren muss. Da gibt es keine Fehlinterpretationsmöglichkeit.
Augen auf, zwei Zahlen ablesen, Ergebnis steht fest.
 
Zuletzt bearbeitet:
Bei den Karten bist du ganz klar mit nen aktuellen Intel und starken RamOC im Vorteil, das war aber vorher schon klar.
Die FPS packst du mit nen AMD einfach nicht, da liegen mit beide @OC ca. 25% dazwischen, meist auch mehr, mal auch weniger wie bei Assasign creed.

P.S.
Bezogen auf WQHD @Goldeneye007 der AMD macht schon noch genug FPS.😉
 
Zuletzt bearbeitet:
Dann sind auf einmal alle Games sehr CPU-lastig? In 4K und Ultra. Okay
 
Oder ne schicke Customkarte
 
So eine Strix wäre nett, ne FE wäre aber auch OK.
 
Dann sind auf einmal alle Games sehr CPU-lastig? In 4K und Ultra. Okay
Könntest du bitte auch zuerst einmal abwarten und nicht die ganze Zeit das ganze ins Lächerliche ziehen?

Ich denke wir haben alle verstanden, dass das Overlay unfehlbar sein muss!
Dann sind auf einmal alle Games sehr CPU-lastig? In 4K und Ultra. Okay

Wer schaufelt denn nochmal die Daten der GPU zu? Die GPU selbst?

Mir geht es doch nur darum auch mal das Lesch Prinzip anzuwenden = der andere (Igor) könnte ja auch Recht haben?

Und wenn es nicht so sein sollte, hey auch gut!
Wenn doch oder nur aufgrund seiner guten Mischung an Spielen (alte, neue usw.), könnte es sein das wir eher demnächst nach CPU Leistung gieren werden... 😉
 
ja, warten wir es ab und hoffen wir mal, dass das jetzt wirklich kein CPU Problem wird
Beitrag automatisch zusammengeführt:

Ob es wohl gleich Shops geben wird?
 
Ich finde das Fazit von der PCGH sehr gelungen.

Da passt für mich eigl. alles bis auf den VRAM. Werde das Gefühl nicht los, dass ich den Kauf bereits nach kurzer Zeit bereuen würde. Ärgerlich, denn mit 12 GB gegen einen kleinen Aufpreis hätte ich mich noch arrangieren können, aber so ist die 3080 trotz des guten P/L-Verhältnisses für mich leider ein Dealbreaker. Schade...
 
Also vor der nvidia Ankündigung habe ich meine 2080 für 500 Euro verkauft. Ging auch recht zügig weg.
Jetzt lege ich 300-400 Euro drauf und hole mir eine Strix.

Finde da kann man nicht meckern. Selbst wenn es nur 20-40 % Leistungszuwachs wären.

Wer das Maximum rausholen will, schrottet einfach seine Karte. Dann hat er einen Leistungszuwachs von unendlich %
 
Genau und nur die Kosten der Entsorgung
 
Bei den Karten bist du ganz klar mit nen aktuellen Intel und starken RamOC im Vorteil, das war aber vorher schon klar.
Die FPS packst du mit nen AMD einfach nicht, da liegen mit beide @OC ca. 25% dazwischen, meist auch mehr, mal auch weniger wie bei Assasign creed.

P.S.
Bezogen auf WQHD @Goldeneye007 der AMD macht schon noch genug FPS.😉
Nein....
 
Dann zeig mir die FPS auf nen AMD bei WQHD@Ultra😉
T1 (2).jpg
 
Interessant, der bequiet Netzteil Rechner führt jetzt auch die 3080... Veranschlagt aber mal eben 600W nur für die GPU xD
 
Könntest du bitte auch zuerst einmal abwarten und nicht die ganze Zeit das ganze ins Lächerliche ziehen?

Ich denke wir haben alle verstanden, dass das Overlay unfehlbar sein muss!


Wer schaufelt denn nochmal die Daten der GPU zu? Die GPU selbst?

Mir geht es doch nur darum auch mal das Lesch Prinzip anzuwenden = der andere (Igor) könnte ja auch Recht haben?

Und wenn es nicht so sein sollte, hey auch gut!
Wenn doch oder nur aufgrund seiner guten Mischung an Spielen (alte, neue usw.), könnte es sein das wir eher demnächst nach CPU Leistung gieren werden... 😉
Abwarten? Hat noch nie jemand die getesteten Spiele gespielt und gesehen, wo jeweils das CPU Limit liegt? Die 3080 ist neu, die Spiele nicht. Das CPU Limit des jeweiligen Spiels somit auch bekannt.

Nix Lesch Prinzip hier, denn die Faktenlage steht schon fest: es liegt kein CPU Limit vor, die CPU kann in diesen Spielen deutlich mehr FPS liefern, als die 3080 in 4K erreicht. Punkt, Ende der Geschichte.
 
Abwarten? Hat noch nie jemand die getesteten Spiele gespielt und gesehen, wo jeweils das CPU Limit liegt? Die 3080 ist neu, die Spiele nicht. Das CPU Limit des jeweiligen Spiels somit auch bekannt.

Nix Lesch Prinzip hier, denn die Faktenlage steht schon fest: es liegt kein CPU Limit vor, die CPU kann in diesen Spielen deutlich mehr FPS liefern, als die 3080 in 4K erreicht. Punkt, Ende der Geschichte.
Auch wenn ich es bereuen werde:
Hier geht es weder um deine oder meine Meinung.

Du solltest dich auch mal ein wenig entspannen.
Es ist schon spät und ich verstehe die Aufregung auch überhaupt nicht.

Ich denke nicht, daß du zu entscheiden hast ob eine Diskussion in diesen Bezug zu Ende ist oder nicht.

Lass doch einfach mal ein paar Tage vergehen.
Ich bin mir sicher das entweder Igor dazu eine Fehlmessung meldet oder ggfls. meldet einfach zu einer falschen These gekommen zu sein bzw. sich die Redaktionen dazu eh austauschen werden.

Es könnte aber auch anders kommen, denn die höhere CPU Last / Package Power unter 4K mit der FPS Anzahl der GPU kann jeder vernünftig denkende Mensch nicht einfach Beiseite schieben.

Vor allem da in diversen Tests nur als Beispiel der Flight Simulator ähnliche Ergebnisse liefert in Bezug das die 3080 da auch nix raus reißen kann.

Ich selbst habe von Igors These nichts und wollte nur darauf aufmerksam machen für die Gemeinschaft, dass er eventuell da etwas auf der Spur sein könnte.

Und ganz ehrlich, deine Art wie du deine Meinung transportierst / deinem persönlichen Befinden nachgehst, schreckt mich eher ab mit dir in einen weiteren sachlichen Dialog gehen zu wollen.

Lass doch einfach mal die Profis (damit meine ich die Redaktionen!) sich untereinander dazu austauschen.

Ich für meinen Teil, werde einfach mal abwarten und dich einfach weiter wüten lassen, ohne das böse oder persönlich zu meinen.
 
Zuletzt bearbeitet:
Ein Gamechanger. Zum ersten Mal sehe ich auf 1440p in nicht wenigen Spielen Spitzen-CPUs limitieren, auf 1080 sogar regelmäßig. Wird Zeit, dass im CPU-Markt endlich was nach vorne geht.

Nicht nachvollziehbar ist für mich, dass manche von der Leistungssteigerung gegenüber der 2080Ti "enttäuscht" sind. Wir sprechen hier von 699 € vs. 1200 €. Sowas gabs zuletzt von der 8800 GTX zur GTX 280. Andererseits sieht man eben auch, dass eine 2080Ti eben nicht das Altmetall ist, zu der sie im Vorfeld schon gemacht wurde, die war eben nur viel zu teuer.
 
Das sind zufällig alle neuen Spiele?
 
Das sind zufällig alle neuen Spiele?
Nein eher ältere, aber ein bottle Neck hat man doch immer entweder Graka oder halt CPU, je nachdem was stärker ist, sonst hättest du ja unendlich FPS.
In den meisten Fällen schaffen aktuelle CPU´s über 100FPS zu liefern, ausnahmen wie Anno etc. hat man immer mal, es gibt in Games auch vereinzelt Spielsequenzen
die sehr CPU lastig sind und in diesen Momenten ist halt mal die CPU der limitierende Faktor.
Umso weniger Kerne effektiv genutzt werden, umso übler ist es meistens, Starcraft 2 Funmap bestes Beispiel, das kann z.B. jeden!!! Rechner unter 10FPS drücken,
braucht bloß die richtige Funmap.😁

Bei neuere Games sollten eigtl. mehr Kerne genutzt werden, was sich in höheren CPU FPS niederschlagen sollte.
 
wollte von 3840x1600, 38" mit 75hz auf 144hz wechseln aber offenbar ist die 3080 dafür nicht stark genug ohne settings runter setzen zu müssen.
anderseits fühlen sich 75hz auch nicht schlecht an und die karte ist schnell genug für maximal beste settings, wohl auch in MFS2020
mmmm
 
Interessant, der bequiet Netzteil Rechner führt jetzt auch die 3080... Veranschlagt aber mal eben 600W nur für die GPU xD

Das ist echt der Hammer. Vielleicht übertrieben. Igor von IgorsLab hat als einer der wenigen YouTuber sehr intensiv den Strombedarf der RTX 3080 getestet.
Wieviel Watt braucht die GeForce RTX 3080 nun wirklich? Die ultimative Netzteilempfehlung!

Er meint das man bei einem hochwertigen Netzteil ab 650W auf der sicheren Seite ist.
Allerdings gilt das vermutlich nur für die FE und ohne großartiges Übertakten. Bei Custom Modellen kann ein stärkeres Netzteil vermutlich nicht schaden.

Was Allerdings klar ist, die Zeiten wo mein sein System Jahre nutzen kann, sind nun vorbei.

Die RTX 3080 bottlenecked zum Teil selbst bei Monster CPUs wie ein 10900-K oder 3950x.
 
War klar das es anders ausfällt als von Nvidia angekündigt wurde.

Da die m.2 sich auf die Werte auswirken wäre es interessant zu wissen wie Unterschiede sind.
Gen3, Gen4 5000mb, Gen4 7000mb und
GGP-ASACNE6800TTTDA.
 
asus will einfach keine kaputten grakas haben weil user sich im mediamarkt ein 40 euro netzteil kaufen^^

wo bei einer 2080/ti vorher ein 750w empfohlen würde haut man jetzt einfach was drauf^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh