NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Weiterhin zeigen die realen Benchmarks endlich was die Karte(n) wirklich kann/können. Das Ergebnis ist tatsächlich etwas ernüchernd, da auch ich teilweise auf noch einiges mehr an Leistung erwartet hatte. Ich meine ein Shrink von 14 auf 8 nm ist schon Mal eine Hausnummer, bei der man auch einen ordentlichen Performanceschub erwarten darf. Leider geht dieser hier zum Großteil auf Kosten des Verbrauchs, es sieht teilweise sogar nur wie eine RTX 2080 TI aus, die deutlich mehr Saft aus der Dose ziehen darf als eine reelle Weiterentwicklung.

Es ist halt kein Shrink von 14 auf 8.
Der Prozess bei Samsung heißt nur 8nm, ist aber ein optimierter 10nm.

Wäre das Ding (wie vermutlich mal geplant) in 7nm TMSC gebaut worden, wäre es auch nicht so heiß und hungrig. Ist halt die zweibeste Wahl gewesen, was die Fertigung angeht (bzw. hatte Nvidia keine Wahl, da sie zu spät dran waren).
Dafür ist das Ergebnis gar nicht mal so schlecht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ehrlich gesagt bin ich massiv genervt. Ich wollte eigentlich versuchen morgen eine zu kaufen. Aber Computerbase redet von spulenrasseln, hier steht was von Spulenfiepen und Gamestar schreibt das auch. Scheint also universal zu sein. Im ernst? bei ner 700€ Karte. Ich bin immer wieder schockiert was 2020 alles so durch die Qualitätskontrolle fliegt. Spulenfiepen und rascheln muss nämlich nicht sein, wenn man da ordentlichen kram einbaut. Was kauf ich denn jetzt? Hab keine Grafikkarte :unsure:

Das ist jetzt leider wirklich nichts Neues. Das hatte ich bei meiner 970 SC von EVGA, die ich direkt beim Release gekauft hatte und bei den 1000er Karten gabs da auch massiv Beschwerden drüber bei den Karten direkt nach Release.

Du kannst doch sicher ein paar Wochen warten, da wir sowieso schon ewig und 3 Tage auf die neue Generation gewartet haben? Und ich fürchte, selbst wenn du jetzt zuschlagen wollen würdest, sind die Bestände morgen 10 mins nach Release sowieso aufgekauft. :-/
 
Da hast du sicherlich Recht, mittlerweile sind GPUs leistungstechnisch wirklich an einem Punkt angekommen, an dem die CPU in den meisten Fällen das Limit darstellt. Daher werden Spieler, die auf FHD oder WQHD unterwegs sind die Leistungssprünge zukünftiger GPU-Generationen zunehmend weniger zu spüren bekommen. Wenn die CPU am Limit arbeitet, bringt dir eben auch die dickste GPU am Ende nichts mehr.
Ach deshalb ist Nvidia so scharf auf Raytracing, damit man weiterhin GPUs verkaufen kann :fresse2:
Spass beiseite, da müssen auch endlich mal die Engineentwickler ran, denn oft genug ist da deutlich mehr drin.
 
Finde die Mehrleistung gegenüber der 2080ti (die ja eine Klasse drüber spielt) jetzt nicht so schlecht für den Preis.
Die Leistungsaufnahme zeigt halt dass man das mit dem Holzhammer erkauft hat.

Insgesamt keine Überraschung gegenüber dem was schon bekannt war.

Für mich kein Kaufgrund, den müsste wenn dann die 3090 liefern. Aber auch da kann ich vermutlich zumindest einige Monate widerstehen weil die 2080ti für meine Zwecke noch eine Zeit lang reichen sollte.
Jetzt ist eh erstmal ein CPU Upgrade fällig wenn Zen 3 kommt.
 
Irgendwo hieß es aber doch, man wäre auf den Ansturm grob vorbereitet?! Ich hoffe schon, dass ich morgen eine abbekommen werde :)
 
Das ist jetzt leider wirklich nichts Neues. Das hatte ich bei meiner 970 SC von EVGA, die ich direkt beim Release gekauft hatte und bei den 1000er Karten gabs da auch massiv Beschwerden drüber bei den Karten direkt nach Release.

Du kannst doch sicher ein paar Wochen warten, da wir sowieso schon ewig und 3 Tage auf die neue Generation gewartet haben? Und ich fürchte, selbst wenn du jetzt zuschlagen wollen würdest, sind die Bestände morgen 10 mins nach Release sowieso aufgekauft. :-/

Warten is schlecht...hab ne nigel nagel neuen PC hier, es fehlt nur ne Graka.
 
@Supermax2003 Ich würde sagen nach den reviews sind eher Leute vom Hypetrain abgesprungen als aufgesprungen, denke die Chancen stehen gut eine abzugreifen.
Ich bin auch hart am überlegen, aber mache es morgen einfach davon abhängig ob ich eine bekomme oder nicht und fertig aus.
 
In Anbetracht dessen welcher Hype im Voraus gemacht wurde und von welchen Leistungsdaten gesprochen wurde finde ich die Testergebnisse sehr enttäuschend

Auf Hype und Werbeversprechungen sollte man sich allgemein nicht verlassen. ;)
Die Karte ist nicht Schlecht, allerdings weit weg von dem was versprochen wurde und so gerade von der Leistung her (ohne DLSS) in dem Bereich, wo ich sagen könnte ist okay kann man kaufen. Aber ein paar Sachen stören mich dabei zusätzlich noch, so wie die oft genannten "nur 10 GB Ram" @ 4K und der Chip läuft auch noch an der "Kotzgrenze". Ich brauche zwar ebenfalls HDMI 2.1 für meinen C9, aber wer spielt schon am TV? :d

Gut, warten wir mal auf AMD und hoffen das Beste. Obwohl ich eigentlich nicht so lange warten wollte. Und nein, die 3090er ist mir persönlich zu teuer für das was geboten wird.


Gruß

Heinrich
 
  • Danke
Reaktionen: Tzk
Das mit dem Spulenfiepen macht mir etwas Sorgen bei der FE.
Der Kühler scheint beeindruckend zu sein (leiser als 2080ti Customs!), aber was bringt das, wenn die Spulen durchdrehen?

Das macht den sicheren Kauf doch wieder zu einer Überlegung bei mir. Bin da empfindlich bei Spulenfiepen, weil meine System normal extrem leise sind und auch die Umgebung sehr leise ist im Büro.
Headsets habe ich nur für Videocalls auf, also wäre Spulenfiepen der lauteste und nervigste Ton im System / Raum.

Grummel.
Immer ist irgendwas. :-(
 
z.T Spulenfiepen, also jede karte die letzten 8 oder 9 Jahre, die ich hatte oder bei Freunden verbaut habe, hatte den shice, mal mehr, mal weniger. Es gab keine die nichts hatte, egal ob nVidia oder AMD, durch die bank, alle!
 
Es wäre schön wenn das RT mal spielbar wäre. Darum wird wohl auch das DLSS so gepusht. Für mich ist das eher eine Bestätigung dafür dass man inzwischen eingesehen hat dass es keine großen Leistungssprünge mehr gibt. Ein solches Feature wäre bei Budgetkarten wie der 2060 wünschenswert (Sapphire hat ja auch ein Upscalingding in seiner Software) - NVIDIAs Lösung mag besser sein als konventionelles Upscaling, aber für mich ist Upscaling nicht nativ. Und das ist ärgerlich, weil die Karten extrem teuer sind. 4K wird weiterhin nur 60 FPS bedeuten wenn man ordentliche Details will, außer bei gut optimierten Titeln wie BFV - Da darf man dann auch überlegen ob man ohne RT mit 100 FPS oder mit und 32 FPS zocken will (Auf der 3080). Darum kann ich das RT-Argument auch nicht ernst nehmen, bevor ich RT aktiviere wäre es doch besser andere Details wie Umgebungsverdeckung und Shading hochzuziehen.

Zur 3090 muss man nichts sagen, NVIDIA hat halt gemerkt dass Leute auch die 2080 Ti kaufen.

Die FE scheint auch in Sachen Spannungsversorgung besser geworden zu sein. Mittlerweile ist Custom fast nicht mehr nötig.
 
Spulenfiepen ist (laut meiner Erfahreungen) in den meisten Fällen dem NT und nicht der GPU geschuldet. Ist auch einer der Gründe wieso ich keine BQ NTs mehr kaufe / verwende.
Nene, nix netzteil, man hört es direkt von den Spulen der karte kommen und kann es ja mit unterbauen lösen, was aber keine "normaluser" Lösung ist...
 
Spulenfiepen ist (laut meiner Erfahreungen) in den meisten Fällen dem NT und nicht der GPU geschuldet. Ist auch einer der Gründe wieso ich keine BQ NTs mehr kaufe / verwende.

Das dachte ich auch und habe 7 verschiedene High-End Modelle ausprobiert. Einen Unterschied hat das weder bei der GPU meiner Frau, noch bei mir gemacht.
Da will ich mich also keiner falschen Hoffnung hingeben, wenn die Reviewer alle davon reden. Chinaböller nutzen die auch nicht.
 
Liegt doch in der Natur der Deutschen, nie mit etwas zu frieden sein 🤪

Du sagst es ! ganz schlimm wie diese Community ist, aber ob hier oder in anderen Foren oder Facebook lauter Schlauberger die alles besser wissen wie ob Sie die Weisheit mit dem Löffel gefressen hätten. :d
 
Ja, dann löte mal :fresse2:
 
Du sagst es ! ganz schlimm wie diese Community ist, aber ob hier oder in anderen Foren oder Facebook lauter Schlauberger die alles besser wissen wie ob Sie die Weisheit mit dem Löffel gefressen hätten. :d

Manchmal ist es schon deprimierend, all die Negativität zu lesen,... aber was ist die Alternative? Sich komplett aus Hardware Diskussionen zurückziehen? Hab ich probiert ein Jahr lang, da fehlt einfach was. :-(

Das gerade die Deutschen aber an jedem Fitzelchen nur krampfhaft versuchen Negatives zu finden, ist definitiv auffällig. So extrem ist das weder im Italienischen noch französischem noch internationalen Bereich. Die Deutschen scheinen es echt zu hassen mal was Positives zu sagen oder anzuerkennen. Da kann 95 % eines Produktes das geilste seit geschnittenem Brot sein, wenn man bei den anderen 5 % noch irgendwie Kritik anbringen kann, dann wird nur darüber geschrieben.
Beitrag automatisch zusammengeführt:

Spulen Ablöten, Stück 0,5mm WL-Pad drunter legen, wieder anlöten--> Fiepen weg

Urgs.
Ich mache so was eigentlich gerne,... aber bei ner GPU wäre ich wohl zu grobmotorisch dafür.
Aber danke für die Erklärung! Klingt interessant. Evtl. lese ich mich dazu dann doch mal genauer ein.
 

Da der Kühler so teuer ist hat man wohl, neben dem Fertigungsprozess (weshalb man so einen teuren Kühler braucht) auch noch woanders gespart :P
Beitrag automatisch zusammengeführt:

Du sagst es ! ganz schlimm wie diese Community ist, aber ob hier oder in anderen Foren oder Facebook lauter Schlauberger die alles besser wissen wie ob Sie die Weisheit mit dem Löffel gefressen hätten. :d
Nimmt man die Dinge die Jensen versprochen hat und sieht was jetzt eigentlich Tatsache ist, dann darf man schon enttäuscht sein.
Man könnte ja auch mal realistische Werte bei so einer Präsentation bringen, aber dann würden die Produkte nicht mehr so gut aussehen.
 
Zuletzt bearbeitet:
Vielen Dank für den sehr guten Test @Luxxteam!
Jetzt muss ich etwas über "was brauche ich" und "was liefert wohl AMD" knobeln... .
Noch so lange warten aaaaargh :d
 
Sie ist kühler und sogar günstiger als die 2080 zu Release :rolleyes: Aber ich sehe schon, da braucht man nicht weiter diskutieren...
Hitze = Wärmeabgabe. 320W > 220W. Die Temp des Chips ist nur eine Folge davon. Mit Wakü sind beide gleich kalt, trotzdem erzeugt die 3080 nennenswert mehr Hitze.

Und lol, wow, günstiger als die überzogenen Preise der Vorgänger Gen. Bravo.
Teuer bezieht sich hier auch darauf, dass man bei dem Preis eben eigentlich keinen Blödsinn wie Kotzgrenze Konfiguration will.
 
Zuletzt bearbeitet:
Na Mal sehen ob meine Strix 3080 am Freitag/Samstag kommt von Amazon 😬
 
Hitze = Wärmeabgabe. 320W > 220W. Und lol, wow, günstiger als die überzogenen Preise der Vorgänger Gen. Bravo.
Teuer bezieht sich hier auch darauf, dass man bei dem Preis eben eigentlich keinen Blödsinn wie Kotzgrenze Konfiguration will.
Dein Wortlaut war "heiß" und nichts anderes. Du laberst einfach nur rum und drehst es dir wie du willst, um irgendwie Stunk machen zu können :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh