NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Ehrlich gesagt bin ich massiv genervt. Ich wollte eigentlich versuchen morgen eine zu kaufen. Aber Computerbase redet von spulenrasseln, hier steht was von Spulenfiepen und Gamestar schreibt das auch. Scheint also universal zu sein. Im ernst? bei ner 700€ Karte. Ich bin immer wieder schockiert was 2020 alles so durch die Qualitätskontrolle fliegt. Spulenfiepen und rascheln muss nämlich nicht sein, wenn man da ordentlichen kram einbaut. Was kauf ich denn jetzt? Hab keine Grafikkarte :unsure:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Entfesselt"...nur ist quasi kein OC Headroom da. Mit anderen Worten nennt man das "Kotzgrenze".

Bei Vega haben wir uns da zuletzt herzlich amüsiert, hier solls plötzlich geil sein? Nö.
Und nochmal: Was genau ist jetzt das Problem?

Bei früheren FEs konnte die Karte nicht die maximale Leistung aus dem Chip rausholen, da musste man erst BIOS flashen und die Kühlung verbessern und um dauerhaft auf 2 GHz zu kommen. Das schafft die Ampere jetzt offensichtlich schon @Stock, zumindest fast. Ist doch ne grundsätzlich mal gute Sache, hilft Leuten die keine Ahnung von Modding haben und dem Nerd spart es "Arbeit".

Bei Vega haben wir uns amüsiert, weil Vega absolut peinliche Spieleleistung hatte. Ampere ist Leistungskönig in allen Disziplinen. Keine Ahnung was der Vergleich jetzt soll.

Ich fand Turing schon enttäuschend was den Fortschritt in Sachen Effizienz anging (+14%), habe mir von Ampere (+14-20%) deutlich mehr erhofft. Vermutlich muss ich also noch mal 4 Jahre warten bis es nennenswert gegenüber Pascal voran geht :hmm:
Wenn dir Effizienz wichtiger ist als Leistung, dann ist das vielleicht so, ja.
 
Zuletzt bearbeitet:
Icvh will jetzt hier nicht laufend andere Reviews verlinken, daher nur so in den Raum geworfen:

Man kann Ampere wohl auf 220 Watt begrenzen und verliert nur 10-20% Leistung.
Wer also auf maximale Effizienz steht, hat durchaus den Regler dafür. 100 Watt weniger und nur 10-20% Verlust? Damit ist sie weiterhin schneller als ne 2080ti, bei geringerem Verbrauch und halben Preis.

Evtl. geht auch noch weniger als 220 Watt. Bios gibt 100 Watt als Minimum aus.
Dazu habe ich aber leider noch keine Tests gesehen. Kommen aber sicher die Tage irgendwann.
 
Und nochmal: Was genau ist jetzt das Problem?

Bei früheren FEs konnte die Karte nicht die maximale Leistung aus dem Chip rausholen, da musste man erst BIOS flashen und die Kühlung verbessern und um dauerhaft auf 2 GHz zu kommen. Das schafft die Ampere jetzt offensichtlich schon @Stock, zumindest fast. Ist doch ne grundsätzlich mal gute Sache, hilft Leuten die keine Ahnung von Modding haben und dem Nerd spart es "Arbeit".
Heiß, stromhungrig, teuer.

Das sollte genug Problem sein. Ich verstehs schon, du hast Halbmast beim Gedanken an Stromschleudern wie Fermi und jetzt Ampere. Denken halt nicht alle so. Meine 1080Ti kommt auch mit 280W auf 5% ans Maximum ran, da brauchts kein fettes "Entfesseln".
 
Ich sehe das ähnlich. 50W Mehrverbrauch gegen <5% Leistung ist ein schlechter Tausch. Da hätte man die Karte lieber mit 270W bringen sollen und zweitem bios, das dann 320W freigibt. Dann wären alle glücklich.

die Leistung ist gut, keine Frage. Der Preis ist auch ok, nur die Effizienz ist blöd. Schade.

bleibt die Frage ob die kleinen Karten effizienter sind, da kein gddr6x zum Einsatz kommt.
 
Ich sehe das ähnlich. 50W Mehrverbrauch gegen <5% Leistung ist ein schlechter Tausch. Da hätte man die Karte lieber mit 270W bringen sollen und zweitem bios, das dann 320W freigibt. Dann wären alle glücklich.

die Leistung ist gut, keine Frage. Der Preis ist auch top, nur die Effizienz ist blöd. Schade.
Dual bios von Nvidia, auf einer 800€ Karte? Wo sind wir denn hier? Solch spezielle Features gibts nur auf exklusiven Karten wie AMDs Mittelklasse.
 
Gleiche Situation hier. Aber:
Zum einen wurde hier ja bereits gesagt, dass das Problem erst bei >300 fps auftritt. Viele Spiele erlauben es dir ein FPS-Limit zu setzen.
Zockst du mit Headset?

Leider ohne Headset. Computerbase schreibt, dass das Fiepen erst bei hohen Frames auftaucht, dass es aber auch in niedrigen permanent raschelt. Bin da sehr empflindlich leider und find auch echt für 700€ Schwach!!!
 
Ja mei, dann halt die Custom Karten mit 320W oder ne OC Version. Gibt ja tausend Möglichkeiten... :d

@Tech Enthusiast
Denke 270w Limit langt schon, kostet nur 5% Leistung und gut ist. Das wäre wohl mein Weg, hätte ich vor eine zu kaufen... ich warte mal auf amd, dann sehen wir weiter.
 
Ich sehe das ähnlich. 50W Mehrverbrauch gegen <5% Leistung ist ein schlechter Tausch. Da hätte man die Karte lieber mit 270W bringen sollen und zweitem bios, das dann 320W freigibt. Dann wären alle glücklich.

Das bezweifle ich.
Die Leute meckern bei OC Potential, weil so viel Leistung brach liegt.
Sie meckern bei zu geringem Powertarget, weil sie mit Wasser mehr kühlen könnten.
Sie meckern bei hohem Powertarget, weil das so schlimm klingt.

Dualbios wäre natürlich ne gute Sache, die ich sofort begrüßen würde, aber meckern werden die Leute immer, egal wie die GPUs ausgeliefert werden. :-)

1200 * 0.5 = 800? :d

Naja, kommt aufs Modell an und seit wann nehmen wir hier solche Angaben auf die Nachkommastelle genau?
Wird doch alles pauschalisiert, jeweils ins Extrem fürs eigene Argument. Bist doch da selber keine Nonne. ;-)
 
Als Erstes muss ich mal betonen, wie bescheuert es ist die Tests der Karten so zu teilen. Was soll dieser Schwachsinn? Beim Verkauf der Karten könnte man noch argumentieren, dass es aufgrund von Produktionskapazitäten und/oder aus logistischen Gründen sinnvoller ist. Aber die User teilweise bis Oktober für die 3070 hinzuhalten ist absoluter Unfug. Die Verschiebung von Montag auf heute mit dem NDA Fall genauso, Covid ist seit März bekannt und hier kann man entsprechend mit einem früheren Versand entgegen wirken.

Weiterhin zeigen die realen Benchmarks endlich was die Karte(n) wirklich kann/können. Das Ergebnis ist tatsächlich etwas ernüchernd, da auch ich teilweise auf noch einiges mehr an Leistung erwartet hatte. Ich meine ein Shrink von 14 auf 8 nm ist schon Mal eine Hausnummer, bei der man auch einen ordentlichen Performanceschub erwarten darf. Leider geht dieser hier zum Großteil auf Kosten des Verbrauchs, es sieht teilweise sogar nur wie eine RTX 2080 TI aus, die deutlich mehr Saft aus der Dose ziehen darf als eine reelle Weiterentwicklung.

Der Vergleich mit der 2080 oder 2080S ist auch quatsch, jeder Vergleich muss mit der 2080 TI erfolgen und hier sind leider nur die 4K Zahlen vernünftig gewachsen, bei 1440p ist die Mehrleistung teilweise unter den Erwartungen zurückgeblieben und bei 1080p (CPU Limit hin oder her) tuts einem fast schon Leid, an den ganzen übertriebenen Hype, wenn auch nur teilweise, geglaubt zu haben. Für den Preis geht die Leistung in Ordnung, ich sehe das Ganze aber eher eine Rückkehr zur Normalität anstatt den heiligen Gral wie einige meinen, da die 2000er Serie einfach nur lächerlich überteuert war. Und wer sich zuletzt geärgert hat, 1200+ EUR für seine 2080 TI ausgegeben zu haben, muss sich auch eine Mitschuld anrechnen, da kein Produkt nach 2.5 Jahren noch seinen Einführungspreis wert ist. Vorallem nicht, wenn der Nachfolger in absehbarer Zeit auf den Markt kommt.
 
In Anbetracht dessen welcher Hype im Voraus gemacht wurde und von welchen Leistungsdaten gesprochen wurde finde ich die Testergebnisse sehr enttäuschend
 
Ehrlich gesagt bin ich massiv genervt. Ich wollte eigentlich versuchen morgen eine zu kaufen. Aber Computerbase redet von spulenrasseln, hier steht was von Spulenfiepen und Gamestar schreibt das auch. Scheint also universal zu sein. Im ernst? bei ner 700€ Karte. Ich bin immer wieder schockiert was 2020 alles so durch die Qualitätskontrolle fliegt. Spulenfiepen und rascheln muss nämlich nicht sein, wenn man da ordentlichen kram einbaut. Was kauf ich denn jetzt? Hab keine Grafikkarte :unsure:
Die Spulen auf den FEs bzw. die Nvidia verbaut rasseln und fiepen schon immer wie Hölle, daran hat sich wohl auch diesmal nichts geändert, mir graut es auch schon. Bei 320+ Watt kann man davon ausgehen, dass die Dinger mit Wakü heftig rauszuhören sind. Selbst auf der 3090er für 1500,- werden die gleichen Mistspulen verbaut, die wird noch mehr radau machen, weil noch mehr Watt und zwei drei Spulen mehr. Nervt mich auch, weiß auch nicht was ich machen soll, wollte diesmal eigentlich ne FE. Für Leute unter Luft zwar nicht ganz so schlimm, für die Wakü Fraktion aber richtig ätzend wieder.
 
Sehe ich das richtig, RT-Performance identisch zur 2080 Ti in BFV 4K?a Was mich auch wundert beim 2 GHz Test, warum macht die 2080 Ti da nur noch 63 FPS (statt 75 wie im BF V Test) aber die 3080 100 FPS?

Sieht aus als wäre man mit einer 2080 Ti bestens bedient. Schneller ist sie, aber nur ~ 20 %. Ebenfalls schade: Bei BFV gehen die FPS wohl immer noch auf 33 % zurück wenn man RT einschaltet. 33 vs 24 FPS bei der 2080 Ti - Keins spielbar. Ist ja auch nicht so als würde das Spiel ohne RT schon super aussehen. Ohne RT wäre es mit der 3080 immerhin schon fast über 100 FPS spielbar in 4K!

Die Benchwerte scheinen eh nicht zu stimmen. Ich hatte ohne Raytracing in Control und 4K @ 2 GHz mit der 2080 TI keine 35 FPS, das hatte ich mit Raytracing. Also ob im 2 GHz/ 2GHz Vergleich die 3080 plötzlich um angeblich 80% schneller sein soll und morgen kommt der Weihnachtsmann.
 
Der Vergleich mit der 2080 oder 2080S ist auch quatsch, jeder Vergleich muss mit der 2080 TI erfolgen und hier sind leider nur die 4K Zahlen vernünftig gewachsen, bei 1440p ist die Mehrleistung teilweise unter den Erwartungen zurückgeblieben und bei 1080p (CPU Limit hin oder her) tuts einem fast schon Leid, an den ganzen übertriebenen Hype, wenn auch nur teilweise, geglaubt zu haben. Für den Preis geht die Leistung in Ordnung, ich sehe das Ganze aber eher eine Rückkehr zur Normalität anstatt den heiligen Gral wie einige meinen, da die 2000er Serie einfach nur lächerlich überteuert war. Und wer sich zuletzt geärgert hat, 1200+ EUR für seine 2080 TI ausgegeben zu haben, muss sich auch eine Mitschuld anrechnen, da kein Produkt nach 2.5 Jahren noch seinen Einführungspreis wert ist. Vorallem nicht, wenn der Nachfolger in absehbarer Zeit auf den Markt kommt.

Man muss mit dem Vergleichen, was in der Realität passiert. Die wenigsten Käufer einer GeForce RTX 2080 Ti werden jetzt zur GeForce RTX 3080. Wir hier im Luxx-Forum bewegen uns auch in einer Blase, die nicht dem entspricht, was außerhalb vorgeht. Hier haben wir Käufer die von einer GeForce-GTX-10-Serie oder sogar GTX-900-Serie kommen und für die ist die GeForce-RTX-30-Serie ein großer Sprung.

Wir können uns darüber unterhalten, ob die höhere TDP und das Leistungsplus sich wieder ausgleichen in gewissem Maße, aber man muss auch die Kirche im Dorf lassen was so mach anderer Vergleich betrifft.
 
Die Leistung ist toll, allerdings erkauft mit einer abartigen Leistungsaufnahme. Warum die Brechstange angesetzt wurde, darüber lässt sich nur spekulieren.
Jensen hat auch viel zu viel versprochen (war aber abzusehen) und gerade die Raytracing Leistung hat mich etwas enttäuscht, da hab ich mehr erwartet.
Naja immerhin besser als Turing und die xx80 hat endlich wieder den 102er Chip ;)

Jetzt ist AMD dran und danach wird entschieden was gekauft wird.
 
Zuletzt bearbeitet:
@Don
Jaja, wer spielt schon in 4K mit Ultra Settings und hat jetzt eine 2080ti? Zielgruppe ist schon klein, mag sein.
 
@Don Verstehe eine sache im Test nicht,

den 2 GHZ Test, Ampere vs Turing, da muss doch was schief gelaufen sein.


Wieso ist die RTX 2080 ti mit 2 GHZ so viel Langsamer als auf Stock, lief sie vielleicht instabil ? Sonst kann ich mir nicht den heftigen Performance Verlust erklären

Siehe mein Post, da ist was gewaltig schief gelaufen. 30 - 35 FPS hatte ich mit einer 2,1 GHz 2080 TI bei Control in 4K mit Rytracing und nicht ohne. Ohne konnte man das fast in 60 fps zocken
 
Man kann Ampere wohl auf 220 Watt begrenzen und verliert nur 10-20% Leistung.
Wer also auf maximale Effizienz steht, hat durchaus den Regler dafür.
Klar geht das.... wenn man bereit ist für eine Leistung zu bezahlen, die man am Ende dann drosseln muss. Bin ich nicht so scharf drauf...
Zumal man das dann auch mit Turing @ geringerem PT vergleichen müsste was den Effekt wieder (größtenteils) verpuffen lässt.

Ich sehe das ähnlich. 50W Mehrverbrauch gegen <5% Leistung ist ein schlechter Tausch. Da hätte man die Karte lieber mit 270W bringen sollen und zweitem bios, das dann 320W freigibt. Dann wären alle glücklich.
Die Sache ist halt... Ampere ist ~15% effizienter als Turing? D.h. im Serientrim wäre Ampere dann 15% vor Turing/Ti. Das würde (irgendwo zurecht) in der Presse zerrissen werden. Egal wie man es nun dreht oder wendet (270W oder 320W), die allgemeine Effizienz ist in meinen Augen enttäuschend.

Es scheitert also m.E.n. weniger an der Einstellung des Chips (PT usw.) sondern am Chip selbst, mehr ist halt seitens Nvidia nicht drin gewesen 🤷‍♂️

Mal schauen ob AMD über die nun sehr tief gesteckte Messlatte drüber springen kann :unsure:

Die Leute meckern bei OC Potential, weil so viel Leistung brach liegt.
Als wenn dort wirklich mal jemand gemeckert hätte, alle Leute lieben OC :love:
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
AMD enttäuscht mich nicht, ich mein macht was daraus dass ich zum erstmal RED wähle.
 
Leider ohne Headset. Computerbase schreibt, dass das Fiepen erst bei hohen Frames auftaucht, dass es aber auch in niedrigen permanent raschelt. Bin da sehr empflindlich leider und find auch echt für 700€ Schwach!!!
spulenfiepen gibts schon seit der gtx 600 serie. meine 2080s raschelt auch bei max load und fps über 100 aber es ist mega dumpf und leise. keine hochtonfiepen
Beitrag automatisch zusammengeführt:

Als Erstes muss ich mal betonen, wie bescheuert es ist die Tests der Karten so zu teilen.
die 3080 ist der nachfolger der 2080

Es war von vornherein klar dass die TI besitzer mit der 3080 kein mega upgrade erhalten werden. das war schon immer so gewesen.
 
hab mal bei alternate angefragt wie es mit der verfügbarkeit ausschaut und wie es mit abholung aussieht. Fahr ca. 1 stunde hin :fresse:
 
noch keine antwort bekommen. das war heutge mittag. die haben sicher viel zu tun :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh