NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Doch, das müsste auch im Artike stehen. Ich schaue gleich noch einmal. Hier unser Sample bei High-FPS im Video:
Danke dir!
Unter "Lautstärke" und im Fazit habe ich es jedenfalls nicht gelesen.
Wenn das (wie du sagst) nur bei High-FPS auftritt, könnte ich noch damit leben. Sollte es allerdings schon bei 50-70FPS losgehen, wäre das übel...:eek:
Bin gespannt, wie sich da die Custom-Version morgen schlägt! :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Macht die 3080 Sinn in Verbindung mit VR ausgehend von einer 2080TI?
Am TV habe ich mehr als genug fps (in 1080p) aber in VR ruckelts hat wenns hübsch ist oder sieht bescheiden aus...
 
für ein paar Stunden, vor ein paar Tagen....

Siehste auch die Screenshots von den Amazon-Bestellbestätigungen
 
keiner braucht HDMI 2.1....anständiger Monitor und DP 1.4 und gut ist ^^

Da schon 4k mit 144hz bei 4:4:4 chroma nicht möglich ist bei DP 1.4 (spreche jetzt nicht von DSC oder 2xDP gewurstel) wird für einige der HDMI 2.1 eingang sicher sehr wichtig für die Zukunft. (oder natürlich jetzt schon für TV's) Überlege auch auf Custom designs zu gehen nur wegen mehrerer HDMI 2.1 anschlüsse. Die neuen karten haben auch die vollen 48gb laut Nvidia.
 
Meine Glaskugel sagt mir dass nach Oktober vielleicht anfang 21 eine ti oder super vorgestellt wird und alle 2080 ti besitzer welche sich die 3080 gekauft haben nicht so glücklich darüber sein werden 😂


deine Glaskugel ist kackegal, weil 2080ti Nutzer eine 3090 kaufen und über eine verm. 3080ti lachen
 
Sehr schönes Review.
Keine großen Überraschungen, was auch positiv ist für mich. :-)

Die stark schwankenden Ergebnisse aufgrund der drastisch anderen Architektur werden aber die Fanboywars echt befeuern.
Die einen greifen sich die Games mit +100% Leistung und sagen: "Schau! Ein Monster!", die anderen greifen sich die Games mit +20% Leistung und sagen "Schau! Ein Fail!".
Sieht man ja hier schon auf den ersten vier Seiten.

@Don
Ich fände es gut, wenn Ihr in diese Reviews ein Average aus allen Gametests einbaut und evtl. auch performance / Watt und Performance / Preis.
Das habe ich bei HardwareUnboxed gesehen und finde es EXTREM hilfreich für eine solide Einschätzung. Das negiert evtl. auch die starken Fanboybrillen beider Lager.
Hier ein paar Screenshots als Referenz:

AverageGains.png


Durchschnitt berechnet in 1440p und in 4k.
So sieht man auch schön, dass die neue Architektur vor allem in 4k gut läuft. Persönlich ist mir das eh wichtiger, weil 1080p und 1440p hat man ja nun schon seit Jahren GPUs, die ausreichen. 4K ist das Ding, wo neue GPUs nötig sind.

Cost-Frame-4k.png


Preis pro Frame ist auch so eine Sache, die ich für recht wichtig für einen fairen Vergleich halte.
Die 3080 schlägt hier sogar die 5700XT, die eine EXTREM gute Karte ist für den Preis!

Perf-Watt.png


Performance / Watt haben sie (wenn ich es nicht übersehen habe) leider nicht als Durchschnitt gemacht,... das wäre ein Mehrwert für HardwareLuxx @Don !
Hier sieht man, dass Ampere effizienter ist, auch wenn es 320 Watt schluckt.
Hierzu ein Hinweis, dass Effizienz keine Gerade, sondern eine Kurve ist, wäre sicher auch gut.
Ein 2080TI Besitzer wäre sicher happy, wenn die GPU bis 320 Watt so skalieren würde,...


Alles in Allem aber ein guter und umfangreicher Test.
Nur im Fazit hätte ich gerne so Zusammenfassungen wie hier vorgestellt.
 
Es wird dringend Zeit für neue CPU's
Das auf jeden Fall, CPU Limit knallt teilweise hart rein. Wir brauchen unbedingt viel mehr Leistung pro Kern! Nur leider passiert da nicht so richtig was.... mal sehen was Rocket Lake kann, aber an einen richtigen Leistungssprung glaube ich da auch nicht.

Und AMD wird nächsten Monat von üblichen Verdächtigen wieder dafür gefeiert werden, dass sie zwar eigentlich nur zu der Intel Gaming Performance von vor X Jahren aufschließen, das Ganze aber ein bisschen billiger anbieten :rolleyes:

Hat er das? Die Anzahl User, die ihr Bios umflashen, dürfte verschwindend gering sein.
Ging doch im 2080 Ti Thread monatelang um nichts anderes.
 
Öh, eher das Gegenteil? Von der verdoppelten Shaderleistung bleiben noch so ca 60-70% an Performance in Spielen übrig. Skalierung wird unterhalb 4K auch immer schlechter. Wo 3080 vs 2080Ti in 4K noch +30% ist, sinds in 1440p noch +20% und 1080p noch weniger.
Tatsache dachte die Veropplung war für die 3090, danke. 2k oder 4k sollte man ja schon spielen mit so einer GPU^^
Dann schaut es aber doch nicht mehr so gut aus vor allem bei dem + an Verbrauch.
Bin gepsannt ob sich da noch viel bei den Treibern tut. Da muss es AMD diesmal eben besser machen :d
 
Und AMD wird nächsten Monat von üblichen Verdächtigen wieder dafür gefeiert werden, dass sie zwar eigentlich nur zu der Intel Gaming Performance von vor X Jahren aufschließen, das Ganze aber ein bisschen billiger anbieten :rolleyes:
ja, da wäre es echt mal nice - wenn die es mit Zen3 schaffen die 14nm CPUs hinter sich zu lassen.
 
Für die 10GB ist zu wenig Fraktion

Leider ist das geschriebene Review der 3080 von GN noch nicht online, aber auch Igors Review zeigt deutlich dass die 3080 sicher keine Enttäuschung ist.
 
Auch wenns die meisten sicher nicht tangiert, mich hätte noch ein Test mit verschiedenen CPU-Settings interessiert, zB: 6Core/6Threads, 6C/12T, 8C/8T, 8C/16T, usw. -> das Ergebnis wäre für eine Kaufentscheidung bzgl. neuem Gesamtsystem vs nur Graka schön.
 
Ein 750 Watt Netzteil wird benötigt :sneaky: ein weiteres Problem die CPU AMD INTEL sind zu lahm für die Karte limitiert LUL.


 
Ganz nett das Midleware Teil. Freue mich schon auf die 3090 Tests nächste Woche.
Und hoffe das ich auch gleich eine bekomme.
 
Richtig, und die Anzahl User dort ist verschwindend gering gemessen am Markt.
Das ist doch klar, aber die Luxx Nische ist genau die relevante Käuferschicht für diese Karten.
 
Das ist doch klar, aber die Luxx Nische ist genau die relevante Käuferschicht für diese Karten.
Na dann lur mal auf reddit in den PC subs oder in größeren Foren mit weniger versierten Nutzern. Da sind auch reihenweise 2080Ti am Start, sicher mehr als hier im Luxx. Aber die Ahnung, wie man die Karten richtig tweakt, flasht, umbaut etc fehlt.

Es gibt mehr Leute mit Geld als mit Ahnung ;)
 
Jedenfalls wird man jetzt sehen müssen, ob die Customs es besser können, hinsichtlich Abwärme, Lautstärke und vor allem der Übertaktbarkeit.
 
@Don Verstehe eine sache im Test nicht,

den 2 GHZ Test, Ampere vs Turing, da muss doch was schief gelaufen sein.


Wieso ist die RTX 2080 ti mit 2 GHZ so viel Langsamer als auf Stock, lief sie vielleicht instabil ? Sonst kann ich mir nicht den heftigen Performance Verlust erklären
 
Zuletzt bearbeitet:
Na dann lur mal auf reddit in den PC subs oder in größeren Foren mit weniger versierten Nutzern. Da sind auch reihenweise 2080Ti am Start, sicher mehr als hier im Luxx. Aber die Ahnung, wie man die Karten richtig tweakt, flasht, umbaut etc fehlt.
Mag sein, dass es auch Leute mit teuren Karten aber wenig Ahnung gibt. Aber ich verstehe aber immer noch nicht, was jetzt eigentlich dein Argument ist. Gerade aus der Sicht der Leute, die du beschreibst, ist es doch super, dass Nvidia die Karten jetzt von Haus aus entfesselt und man nicht erst modden muss, um seine 330W+ Boardpower zu bekommen.
 
Jedenfalls wird man jetzt sehen müssen, ob die Customs es besser können, hinsichtlich Abwärme, Lautstärke und vor allem der Übertaktbarkeit.

Lautstärke und kühlung mit Sicherheit. Das war ja schon immer so.
 
@Don : Was mich leider bei all den Test´s stört ist das niemand die Karte in bezug auf VR Leistung getestet hat.

Mich hätte durchaus interessiert was die Karte bei einer hoch Auflösenden VR Brille leistet.

Ansonsten guter Test :)
 
Hä?
Pascal -> Ampere ist effektiv als 16nm -> 10nm anzusehen (und Turing war kein echter Shrink). Dafür ist das doch völlig im erwartbaren Bereich.
Ich fand Turing schon enttäuschend was den Fortschritt in Sachen Effizienz anging (+14%), habe mir von Ampere (+14-20%) deutlich mehr erhofft. Vermutlich muss ich also noch mal 4 Jahre warten bis es nennenswert gegenüber Pascal voran geht :hmm:
 
Der Leistungszuwachs von Turing zu Ampere ist definitiv gegeben, insbesondere wenn man auf höheren Auflösungen mit hohen Details spielen möchte. Ich persönlich werde wohl aber dennoch noch ein wenig bei meiner GTX 1080ti bleiben, da ich keine Videospiele spiele, bei denen ich auf WQHD hohe oder sehr hohe Details benötige. Ganz im Gegenteil, wenn ich mal Battlefield anwerfe, möchte ich eben hauptsächlich hohe fps erreichen und durch geringe Details habe ich sogar noch einen Vorteil im Spiel. Wer aber wie gesagt bei hohen Auflösungen (ab WQHD) mit hohen Details spielen möchte, der wird hier auf jeden Fall gut bedient.

Das auf jeden Fall, CPU Limit knallt teilweise hart rein. Wir brauchen unbedingt viel mehr Leistung pro Kern! Nur leider passiert da nicht so richtig was.... mal sehen was Rocket Lake kann, aber an einen richtigen Leistungssprung glaube ich da auch nicht.

Und AMD wird nächsten Monat von üblichen Verdächtigen wieder dafür gefeiert werden, dass sie zwar eigentlich nur zu der Intel Gaming Performance von vor X Jahren aufschließen, das Ganze aber ein bisschen billiger anbieten :rolleyes:

Da hast du sicherlich Recht, mittlerweile sind GPUs leistungstechnisch wirklich an einem Punkt angekommen, an dem die CPU in den meisten Fällen das Limit darstellt. Daher werden Spieler, die auf FHD oder WQHD unterwegs sind die Leistungssprünge zukünftiger GPU-Generationen zunehmend weniger zu spüren bekommen. Wenn die CPU am Limit arbeitet, bringt dir eben auch die dickste GPU am Ende nichts mehr.

Wie du allerdings auch schon angesprochen hast, so denke ich ebenfalls nicht, dass wir in nächster Zeit riesige Leistungssprünge in dieser Hinsicht zu erwarten haben. Klar, bis Zen 3 dauert es nicht mehr lange, aber viel mehr Spiele-Leistung als bei Intel (sofern diese überhaupt erreicht wird), so denke ich, wird am Ende des Tages nicht herauskommen.
 
Im Test ist unter Temperatur Last eine Radeon VII und Vega64 mit 50 Grad angegeben, ist das so richtig oder lese ich das falsch??
 
Lautstärke und kühlung mit Sicherheit. Das war ja schon immer so.

Bisher gab es aber noch keine gut gemachte FE Kühllösung.
Das ist dieses Mal anders. Wird also spannend. Bin echt heiß (duh!) auf die Vergleiche!
 
Verstehe eine sache im Test nicht,

den 2 GHZ Test Ampere vs Turing da muss doch was schief gelaufen sein.


Wieso ist die RTX 2080 ti mit 2 GHZ so viel Langsamer als auf Stock, lief sie vielleicht instabil ? Sonst kann ich mir nicht den heftigen Performance Verlust nicht erklären

Auf die Erklärung warte ich auch...sieht so erst Mal nach Fehler aus.
 
Mag sein, dass es auch Leute mit teuren Karten aber wenig Ahnung gibt. Aber ich verstehe aber immer noch nicht, was jetzt eigentlich dein Argument ist. Gerade aus der Sicht der Leute, die du beschreibst, ist es doch super, dass Nvidia die Karten jetzt von Haus aus entfesselt und man nicht erst modden muss, um seine 330W+ Boardpower zu bekommen.
"Entfesselt"...nur ist quasi kein OC Headroom da. Mit anderen Worten nennt man das "Kotzgrenze".

Bei Vega haben wir uns da zuletzt herzlich amüsiert, hier solls plötzlich geil sein? Nö.
 
Eigentlich wollte ich mir eine 3080 holen, habe an den RAM nie gedacht, sehe es inzwischen kritisch: Wenn ich Plane die Karte 4 Jahre zu nutzen, dann könnten 10GB schon etwas eng sein. Wenn man betrachtet, dass aktuelle Spiele jetzt schon 8GB fressen (Control) und die neuen Konsolen 10GB haben werden.

Für 4 Jahre würde ich nicht kaufen. Entweder noch ausharren auf die 20GB Version oder in den sauren Apfel beißen und für Jensen die 3090 kaufen..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh