NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Habe aber das SF600. Auch ein sehr gutes Teil, aber eben "nur" 600W. Aber wird schon schief gehen :d Bin auch einfach zu geil auf die 3080, muss ich ehrlich zugeben, auch wenn mich die Leistungsaufnahme udn vor allem die Leistungsspitzen etwas abschrecken.
Also ich glaube das SF600 reicht auch!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Etwas Hintergrundinformation: Den PCIe 3.0 vs 4.0 Vergleich haben wir mit einem Ryzen 5 3600 und X570 gemacht. Die GeForce RTX 3080 Founders Edition lief da zusammen mit einem 500-W-Netzteil. Es muss also nicht immer ein 1 kW NT sein ;)

Ich bin sogar am rechnen mit 3700X und B550 ITX... Habe nen sf450 Platinum : fresse: - um die Karte im A4 betreiben zu können muss ich aber eh das Netzteil outsourcen.

Naja, Mal noch die 3070 und ggf AMD Release abwarten und dann entscheiden. :wink:

Lieben Dank für den Test, sehr ausführlich und informativ.

LG
Marti
 
Mhhh, meinst du? Ich bin mir da unsicher :)

Jo. 320 Watt sind natürlich ne Hausnummer und daß das nicht unter "silent" fallen würde, war klar. Aber der FE-Kühler scheint das durchaus gut hinzukriegen. Möglich, daß die Boardpartner mit ihren 3- oder 4-Slot-Designs noch mal ein paar dB leiser oder ein paar Grad kühler sind, mir persönlich reicht das aber so. Weshalb meinst du, daß du da unsicher bist?
 
Wundert dich das jetzt? Wer braucht schon mehr als 300 FPS in CS:GO.
Deshalb ebenfalls das Fazit von Jay (sinngemäß): Arschlecken RTX3000 bei FHD/60Hz: Gönnt euch nen ordentlichen Monitor, ihr Deppen!

Ne, ich verstehe das absolut und sehe es auch als den richtigen Weg an.
Wofür neue GPUs entwickeln und den Fokus auf Sachen legen, die von alten GPUs eh schon perfekt bedient werden?
Der Fokus auf die kommenden Aufgaben setzen, ist ohne Frage sinnvoller. Macht sich in Benchmarks aber nicht so gut.

War schon happy, dass einige Reviews die 1080p Auflösung komplett ausgelassen haben und nur 1440p und 4k gebencht haben.
Für 1080p gibt es nun wirklich schon jahrelang die 300fps GPUs. Auch 1440p ist so langsam am Limit des Nötigen angekommen. Spätestens mit Hopper wird man für 300-400 Euro 1440p@144hz spielen können, ohne die Regler zu bemühen.
 
  • Haha
Reaktionen: THK
Deutschen verkacken gerade auch alles was mit Stromerzeugung zu tun hat und daher auch die hohen Preise, da ist man quasi gezwungen sich nen Kopf zu machen
Nun die hohen Preise sind dem EEG geschuldet, aber ja, der Kohle-Ausstieg könnte etwas schneller vonstattengehen. Dennoch schneller als in anderen Ländern (y)

@Redbull0329
Hast dir die Antwort doch selber gegeben. Du hast subjektive, andere Erwartungen :)
Die meisten sind enttäuscht da das Marketing zu viel versprochen hat, was nicht eingehalten wurde. Die Karten zu viel schlucken und die Preise nur relativ, also vergleichsweise mit Turing günstig sind.
Turing-Preise sind dennoch hoch.
Man erwartet generationsübergreifend immer mehr, aber dies wird wohl nichts mehr.
 
Habe aber das SF600. Auch ein sehr gutes Teil, aber eben "nur" 600W. Aber wird schon schief gehen :d Bin auch einfach zu geil auf die 3080, muss ich ehrlich zugeben, auch wenn mich die Leistungsaufnahme udn vor allem die Leistungsspitzen etwas abschrecken.
100W CPU
50W SSDs, Mobo und Quatsch
320W 3080
100W Reserve für Spitzen.

Das SF600 ist real mit 600W auf 12V angegeben. Das passt, könnte aber NT-seitig lauter werden.
Real wirst du dich eher mit Untervolting als OC beschäftigen müssen, ist aber bei High-Performance ITX nicht unbedingt schlecht ;)
 
Nun die hohen Preise sind dem EEG geschuldet, aber ja, der Kohle-Ausstieg könnte etwas schneller vonstattengehen. Dennoch schneller als in anderen Ländern (y)

Und woher willst du deinen Strom beziehen? Für teures Geld ausm Ausland als Atom- und Kohlestrom? Oder vielleicht teures Fracking Gas aus Amiland? Das ist so deppert. Ja bitte umsteigen auf erneuerbare Energien, aber dann doch mit Verstand und nicht so dämliche moralgesteuerte Aktionen der Politik wie Kohleausstieg gleichzeitig mit Atomausstieg.
 
@Redbull0329
Hast dir die Antwort doch selber gegeben. Du hast subjektive, andere Erwartungen :)
Die meisten sind enttäuscht da das Marketing zu viel versprochen hat, was nicht eingehalten wurde. Die Karten zu viel schlucken und die Preise nur relativ, also vergleichsweise mit Turing günstig sind.
Turing-Preise sind dennoch hoch.
Man erwartet generationsübergreifend immer mehr, aber dies wird wohl nichts mehr.

Ich denke, Erwartungen sind grundsätzlich etwas subjektives :d
Der Stromverbrauch ist vielleicht etwas enttäuschend, aber die Leistung geht voll in Ordnung. Und auch sonst hat Nvidia bei der FE einiges richtig gemacht.

Wann waren Marketing-Claims denn jemals nicht geschönt bzw zurechtgebogen? Daran kann man sich doch nicht orientieren.
Und die Preise... Naja Nvidia hat da ne langfristige Strategie. Seit 2015 geht es stetig bergauf. Bei der Konkurrenz in Rot aber auch.
Ist halt ein Oligopol mit krassen Entwicklungskosten.
 
Jo. 320 Watt sind natürlich ne Hausnummer und daß das nicht unter "silent" fallen würde, war klar. Aber der FE-Kühler scheint das durchaus gut hinzukriegen. Möglich, daß die Boardpartner mit ihren 3- oder 4-Slot-Designs noch mal ein paar dB leiser oder ein paar Grad kühler sind, mir persönlich reicht das aber so. Weshalb meinst du, daß du da unsicher bist?
Weil meine Gigabyte 2070s grad so erträglich ist, und die gilt irgendwie als recht leise. Die 3080 FE scheint lauter zu sein, wobei hier die warme Luft eigentlich besser verteilt wird. Bei den regulären Karten wird sie nur rumgewirbelt und lässt sich kaum ausm Gehäuse kriegen. Eigentlich hatte ich gehofft, die 3080 FE wäre eher noch kühler und höchstens ähnlich laut. Sei scheint aber bei 2000rpm recht laut zu sein?! Und wann muss sie mit 2000+rpm drehen? Schwer einzuschätzen.
Man kann die Karte auch mit niedrigerem Powertarget betreiben, so 80-90%. Da verliert man dann 1-4 FPS oder so aber könnte deutlich angenehmer unterwegs sein?!
 
Zuletzt bearbeitet:
@Tech Enthusiast
Korrekt. Sehe ich auch so.
Alle jetzigen Spiele vor Ablauf 2020 laufen auch unter 4k uhd mehr als gut.

Leider hinkt es aber mit den zukünftigen Technologien laut diesem Test (und anderen) immer noch.
Denn bezüglich der Raytracing/Dlss Geschichte lag auch ich mit meiner Analyse dank dem Marketing von nvidia daneben.

Dachte halt "nur" real ~ 30 % mehr in Rasterausgabe zur rtx 2080 ti, dafür aber mehr als doppelt (oder wenigstens irgendwo bei 50 - 80 %) so viel in RT/DLss 2.
Tja, Pustekuchen. Laut Test sind es meist zwischen 10 - 20 % oder 20 - 30 %. Nur in Wolfenstein 30 - 40 %.
Quake RTX ist mit vollständig Patchtracing ein Optimalfall der real so nicht eintreten wird.

Obwohl die Analyse von nerdtechgasm und co. anderes verspricht,sieht man davon jetzt noch nichts.
Woran liegt es?
 
Das ist halt Deine Meinung. Wer keine überzogenen Erwartungen hat wird auch nicht enttäuscht.
Ich wurde auch nicht enttäuscht. Die Karte ist genau die komische Mischung, die ich nach all den Gerüchten und Ankündigungen erwartet habe.
Finds ganz toll, dass Kritik an neuer HW immer direkt als "Enttäuschung" "zu viel erwartet" etc abgekanzelt wird. Man kann durchwachsene Produkte auch als solche erwarten und dann trotzdem genau diese Kritik äußern.
 
Die 3080 ist eine *schnelle GPU, erreicht durch Brechstange. Für mich zählt das nicht als toll.
Ich sprech der Karte die Leistung nicht ab. Ich finde das Paket rundherum aber nicht besonders gut. Wer natürlich pur auf Leistung schaut, den kümmert das alles nicht.

Sagt mir meine Milchmädchenrechnung pi mal Daumen im Kopf irgendwie auch. Wenn mich nicht alles täuscht, war die 1080 im Verhältnis schneller als die 980TI wies bei der 2080 zur 1080TI ebenso war.. 5%-10% je nachdem welche Statistik man gefälscht hat. 1080 zu 980ti ging aber die Leistungsaufnahme eine Ecke runter.. ebenso bei 1080ti zu 2080.. Preislich meine ich, waren zwischen 980ti -> 1080 und 1080ti zu 2080 auch keine WELTEN dazwischen (ok die 2080 war teuer am Anfang, fiel aber schnell)..

3080 jetzt mit knapp über 25% mehr Leistungsaufnahme als ne 2080TI bei 30% mehr LEistung im Schnitt.. Bei den anderen Generationen waren es eben weniger Verbrauch bei minimal mehr Leistung (TI zu neuer non-TI) bei halbwegs ähnlichem Preis.

Jetzt die 3080 hochzuloben, weil sie preislich attraktiv ist, ist für mich nen Trugschluß. Die 2080TI war einfach immer deutlich zu teuer. Wären sie ihrem Preismodell treu geblieben mit der 2080TI und 2080, hätten wir jetzt einfach nur ne bessere Karte, die im Verhältnis Stromverbrauch zu LEistungsplus zugelegt hat bei ähnlichem Preis der Vorgenerations TI Karte.

edit: Ich will dabei nicht sagen, dass ich die Karte scheisse finde, der Zuwachs ist schon echt nice und würde sich bei mir im Wasserkreislauf bestimmt wohl fühlen (genug Reserven hab ich lange dafür) und in UWQHD Auflösung wären Perforamnce probleme auch erstmal dahin.
 
@Redbull0329
Joar^^
Werde von rx 5700xt upgraden. Der Leistungssprung ist auch für mich mehr als i.O., enttäuscht bin ich aber dennoch.
Die zwei Sachlagen werden als Widerspruch aufgefasst und man denkt sich "kännen doch gar nicht im gleichen Satz stehen!"
Tja, geht doch :sneaky:
 
Ich habe ein 650 W Seasonic Prime Titanium für den Gaming-PC und ein 550 W Platinum (selbe Marke) für den anderen. Vermutlich könnte man selbst eine 3090 an denen betreiben. Warum machen sich die Leuten immer Sorgen um die Stromversorgung? Die 750 W die angegeben wurden gelten nur für die Billignetzteile, die manche verwenden. 5 - 600 W dürfte für 99 % der Nutzer reichen bei Normalbetrieb. LN2 und Leute mit Ti-SLI und 3950X unter Wasser sind natürlich die Ausnahme. Wer ein gutes Markennetzteil mit mindestens Gold-Standard besitzt wird keine Probleme bekommen.

Und ja, 1080p muss man heute nicht mehr testen. Da gibt es kaum noch Unterschiede und es ist das reinste CPU-Limit. Diese teuren fetten Karten sind für 1440p und 2160p gedacht. Das sieht man auch wenn man die Balken vergleicht, in 2160p gibt es den meisten Zuwachs.
 
Dachte halt "nur" real ~ 30 % mehr in Rasterausgabe zur rtx 2080 ti, dafür aber mehr als doppelt (oder wenigstens irgendwo bei 50 - 80 %) so viel in RT/DLss 2.
Tja, Pustekuchen. Laut Test sind es meist zwischen 10 - 20 % oder 20 - 30 %. Nur in Wolfenstein 30 - 40 %.

Ich habe dafür keine Antwort,... aber wieso bist Du davon ausgegangen von 2080ti zur 3080? Wurde das irgendwo behauptet von NVidia? Ich habe da nix mitbekommen in die Richtung.
Von 2080 auf 3080 wurde von "bis zu" 100% gesprochen bei RT und es sind real 60-90% in diesem Review, 50-110% in anderen Reviews.

Das deckt sich nicht nur mit meiner Erwartung, sondern übertrifft sie deutlich.
Ich dachte, dass man irgendwo kurz die 100% sieht und sonst eher 50-60% kommen. Nun sind es aber ganz real 60-90% und mehr (je nach Review / Testsystem).

Nicht falsch verstehen:
Mehr würde mich auch glücklicher machen, aber wir reden hier von einem Sprung, der sicher nicht enttäuschend ist, oder? Klar, gegen die 2080ti ist das weniger, aber die 3080ti kommt sicher irgendwann. ;-)
 
Aja, sehr gut. Dann ist das eine gute Option, das Power-Limit etwas runterzusetzen. Dann würd ich sagen besorgen wir uns morgen mal die 3080?!
 
Ich habe gerade noch ein paar Tests zum Undervolting oder Under-Power-Limiting gemacht: https://www.hardwareluxx.de/index.p...x-3080-founders-edition-im-test.html?start=26

Genial, danke!
Wäre es noch möglich auch die 2080 TDP zu ergänzen und dann die 2080 FPS gegen die 3080 mit selbem Powertarget zu nehmen?
Auch bei den Temperaturen und Lautstärke?

Das wäre ein hammer 1:1 Vergleich.

Jetzt schon zu sehen: Auf 280 Watt reduzieren kostet wohl keine Leistung im spürbaren Rahmen. Nice.
 
Ich habe gerade noch ein paar Tests zum Undervolting oder Under-Power-Limiting gemacht: https://www.hardwareluxx.de/index.p...x-3080-founders-edition-im-test.html?start=26

Danke für den Test :-) konntest du eventuell feststellen, dass die Spulen weniger fiepen, wenn die Leistung runtergedreht wird? Ich kenn das Spulenfiepen auch von meinem alten Plasmafernseher und da hing es direkt mit der Leistungsaufnahme zusammen. Viel weiß im Bild fraß viel Strom und es surrte.
 
Hmm.
Mit dem viel dickeren 3090 Kühler und dem Zero-Fan Modus bis 56 Grad,... könnte es da möglich sein die 3090 auf Passiv zu "Under-Power-Limiten"? ;-)
Die 3080 hat ja 7 Grad verloren bei -70 Watt und liegt dann bei 69 Grad. Es fehlen also nochmal 13 Grad zum passiven Modus. Das wären dann bei dem Kühler (Achtung, Milchmädchenrechnung, nicht schlagen dafür!) nochmal -125 Watt ca. Der BIOS gibt das her,... die Frage ist: Was bleibt dann an Leistung übrig?

Bei der 3090 ist der Kühlkörper natürlich viel größer, was evtl. weniger Reduzierung benötigt für diesen Effekt.
Das werde ich sicher ausprobieren!
 
Ich warte da mal gediegen auf die Ti/Super Versionen und auf die AMD Antwort. Dann wird kaufen interessant :)
 
Danke für den Test :-) konntest du eventuell feststellen, dass die Spulen weniger fiepen, wenn die Leistung runtergedreht wird? Ich kenn das Spulenfiepen auch von meinem alten Plasmafernseher und da hing es direkt mit der Leistungsaufnahme zusammen. Viel weiß im Bild fraß viel Strom und es surrte.

Zumindest beim Start von DOOM (im Menü) machte sie noch immer den Lärm.
 
Danke für den Test :-) konntest du eventuell feststellen, dass die Spulen weniger fiepen, wenn die Leistung runtergedreht wird?

Oh ja! das wäre auch ne sehr interessante Information.
Spulenfiepen nervt mich tierisch und ich hab das bei der 2080ti schon mit dem Powertarget fixen können. Wenn das bei Ampere auch so läuft, dann kann ich beruht bestellen.
Beitrag automatisch zusammengeführt:

Zumindest beim Start von DOOM (im Menü) machte sie noch immer den Lärm.

Crap. :-(
 
wieso findet man die FE noch nirgendwo zum angucken in den onlineshops? es gibt immer nur die custom modelle.

Macht es einen unterschied, ob ich die FE von MSI, Asus oder sonstwem kaufe? bezüglich garantie, support, etc etc etc.
 
Die hier getestete FE=Founders Edition gibt's nur im eigenen Shop von Nvidia.
 
3.840 x 2.560 als Auflösung? Was ist das für ein Monitor?

EDIT: Fehlerteufel :)

Danke für den Hinweis! ;)

wieso findet man die FE noch nirgendwo zum angucken in den onlineshops? es gibt immer nur die custom modelle.

Macht es einen unterschied, ob ich die FE von MSI, Asus oder sonstwem kaufe? bezüglich garantie, support, etc etc etc.

Die Founders Edition wird nur von NVIDIA verkauft werden. Der Startschuss fällt morgen um 15:00 Uhr (bei der Uhrzeit bin ich mir nicht sicher).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh