NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Also neues NT müsste ich mir dann auch holen, das macht das Upgrade dann wieder teurer. Bei den Partnerkarten wird die Leistungsaufnahme nochmal höher sein und dann noch die obligatorischen 100 Watt drauf da ist mehr als schnell Ende mit einem 500 Watt NT. Mal sehen was die Tage noch so kommt. :coffee2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don
Nochmal großes Lob an Don und die anderen Redakteure (y)
Der Test hier ist wirklich gut. Gut geschrieben und im Vergleich zu vorherigen Tests, Verbesserungen in vielen Dingen.
Der gesonderte Test zur Wärmeentwicklung des Prozessors/Speichers ist super.
Andere Redakteure haben noch andere Dinge getestet, dafür aber nicht die Dinge die du getestet hast.
Also overall top.


Wo ich immer noch nicht d'accord gehe ist die Meinung zum Grafikkartentest im geschlossenen Gehäuse. :=))) Beitrag #499
Im Gehäuse wird das Gehäuse mitgetestet. Es ist aber ein Grafikkartentest, kein Gehäusetest!
Wer also immer noch wissen möchte wie sich Karte x in Gehäuse y so macht, sollte einfach einen Gehäusetest durchlesen.

Das Fractal Design 7 XL ist zum Glück deutlich besser als das alte Testgehäuse und kein Ofen, dennoch laut euren Test bei der Grafikkarte 10 "C oberhalb wärmer als das beste Gehäuse - oder im offenem Aufbau.
Als Kompromiss zeigst du diesmal die " Gegenüberstellung der Kühlung", was gut ist.
Die ermittelten Werte zu Spielen, Programmen, Temperatur, Lautstärke sind aber dennoch im Gehäuse geschehen; bei nicht 100 % Lüfter RPM.
Also: Bitte nochmal überdenken.
:wink:
 
Problem ist eben dass die 3080 schon ein halber Big Chip ist. Wie damals bei Fermi. NVIDIA hatte wohl keine Wahl, da eine GA104 zu langsam geworden wäre. Die fetten Jahre sind vorbei. Man waren das schöne Zeiten damals mit Maxwell.
 
Dein Wortlaut war "heiß" und nichts anderes. Du laberst einfach nur rum und drehst es dir wie du willst, um irgendwie Stunk machen zu können :fresse:
ja, "heiß". Und was ist heiß? Hitze. Die Chip Temp ist nicht das Problem, sondern was die Abwärme als Konsequenz mit sich bringt. Ist nicht mein Problem, dass dir der Zusammenhang entschwindet. Wer bei "heiß" nur an den Zähler aufm Thermometer denkt, hat in Physik nicht aufgepasst.
 
Nicht schlecht diese Karte, aber ich bleibe wohl erstmal meiner 2080 Ti treu. Zumindest bis ich weis was AMD auf den Markt bringt. Nach jahrelang Nvidia kann ein Wechsel nicht Schaden.
 

Da der Kühler so teuer ist hat man wohl, neben dem Fertigungsprozess (weshalb man so einen teuren Kühler braucht) auch noch woanders gespart :P
Beitrag automatisch zusammengeführt:


Nimmt man die Dinge die Jensen versprochen hat und sieht was jetzt eigentlich Tatsache ist, dann darf man schon enttäuscht sein.
Man könnte ja auch mal realistische Werte bei so einer Präsentation bringen, aber dann würden die Produkte nicht mehr so gut aussehen.

Du bist einer dieser ich mach alles schlecht auch wenn es gut ist Typen. Ganz schwer sich mit dir auf einer normalen Sachlichen Ebene zu Unterhalten. Find die Karte super gut, einzig der Stromverbrauch ist schon etwas hoch ja. Das wird wohl in der 4000er Serie dann behoben.
 
spulenfiepen gibts schon seit der gtx 600 serie. meine 2080s raschelt auch bei max load und fps über 100 aber es ist mega dumpf und leise. keine hochtonfiepen
Man hörts und damit ist die Karte für mich gestorben. Ich geb nicht vierstellige Beträge für eine dicke und subjektiv unhörbare Wakü aus, um dann eine pfeifende Karte einzubauen.
 
jupp deshalb hab ich auch aktuell noch keine custom. man muss ne gute karte erwischen dann gehts
 
Nene, nix netzteil, man hört es direkt von den Spulen der karte kommen und kann es ja mit unterbauen lösen, was aber keine "normaluser" Lösung ist...
Ich hatte Spulenfiepen an meiner Karte, nur von der Karte, und das lag zu 100% am NT. Ich habe das Netzteil dann gegen ein Platinum NT getauscht und siehe da, kein Fiepen mehr von der Karte.
 
Es war von vornherein klar dass die TI besitzer mit der 3080 kein mega upgrade erhalten werden. das war schon immer so gewesen.
Das wurde in der Vorstellung aber leicht anders kommuniziert --> 3080 als "flagship"
Und er hat ja auch nicht nur einmal von etwa doppelter Leistung geblubbert. Doppelte Leistung passt mit den gemessenen Werten halt nicht zusammen.
 
gegenüber der 2080. NICHT der TI
 
Dein Wortlaut war "heiß" und nichts anderes. Du laberst einfach nur rum und drehst es dir wie du willst, um irgendwie Stunk machen zu können :fresse:
Er macht Stunk, du machst Stunk, ich mache Stunk. :poop:
An der Feststellung ändert es doch aber nichts.

Ja, es ist besser als mit Turing.
Nein, es ist dennoch Relativierung, da Turing für das Gebotene einfach nur dämmlich teuer war.
Ampere ist nun "einfach nur" teuer, oder etwas teuer.
50 - 60 % Marge ist 50 - 60 % Marge. Gemessen an der Gesamtkosten für Turing, Pascal, Maxwell etc. müsste die rGesamtkosten für rtx 3080/3090 schlussendlich $ 300 - 400 betragen? Gesamtkosten heißt hier abzüglich aller Herstellungs-/Entwicklungs-/Humankapitalkosten etc.
Nun, der Begriff Marge erklärt es bereits.
Damit hätte Jensen und co.die 3080 für 100 € weniger verkaufen können. Marge wäre halt nur ~ 30 %. Och der Arme ,:heul:

500 - 600 € für rtx 3070 und 700 - 800 € für rtx 3080, $ 1500 für rtx 3090 sind Turing-Preise. Da gibt es nichs zu lachen.
 
Die Karten werden in einigen Ländern/Geschäften schon verkauft. Netzfund:

119706665_3409767605711389_7610570358592380013_n.jpg
 
Nicht schlecht diese Karte, aber ich bleibe wohl erstmal meiner 2080 Ti treu. Zumindest bis ich weis was AMD auf den Markt bringt. Nach jahrelang Nvidia kann ein Wechsel nicht Schaden.

Würde ich auch noch warten an deiner Stelle, was die Konkurrenz raus haut. Du hast ja ne super Karte drin, da kommt es auf paar Wochen auch nicht an 👍
 
Jupp, Turing war nur dämmlich teuer und gerade die Ti, sowie S Modelle haben sich sehr gut verkauft :d
Ich habe die RTX2000er komplett ausgelassen. Einzig die GTX1660 (S & Ti) habe ich da gehabt und getestet / genutzt :p
 
der Youtube Test von Igor ist auch recht interessant, auch wenn ich gestehen muss dass 40 Minuten Igor am Stück für mich schon hart sind, aber seine Mess Möglichkeiten und Vergleiche gleichen das für mich dann auch wieder aus.
Wurde sicher schon verlinkt, aber wenn nicht:


Ich selbst bin eigentlich recht positiv von der Karte überrascht, der Stromverbrauch war ja seit der Präsentation klar, jetzt sind auch die (FPS) Zahlen zu den Watt bekannt und die sind gerade in 4k schon recht ordentlich.
Als 2080ti Besitzer also alles wie gehabt: Warten auf die Benches der 3090 und dann muss ich für mich entscheiden was ich mit den 24gb vram in 1440p/144hz anfangen soll und ob es mir das Upgrade dann wert ist... Für mich wäre dann wohl eine 3080ti mit 12-20gb aber nur paar prozent weniger leistung als die 3090, dafür für 999€ genau das Richtige - jetzt muss mir AMD nur noch den "Weg" dafür frei machen :d
 
Also plus 165Hz finde ich jetzt nicht schlecht dafür dass der Chip @ "Kotzgrenze" unter Luftkühlung läuft. ;)


Bitte noch mal Korrekturlesen und berichtigen, ;)

Ps. Das ist kein Monitor. sondern eine GPU. (Als kleine Hilfe) :d

Ps1. Nicht sauer sein. :p
 
Auch ggü der 2080 hat die 3080 nicht doppelte Leistung. Auf dem Papier ja, und bei ein paar synthetischen Benches. Aber in Spielen kommt davon noch so ca 60-70% an.

1. "Bis zu" - Angaben sind nicht NVidia patentiert. Jeder Kunde sollte das zur Genüge kennen.
2. Manche Games zeigen +100 % und teilweise sogar mehr, nur nicht im Durchschnitt.
3. Selbst wenn es "nur" 60 % sind für 150 Euro weniger MSRP, ist das doch eine verdammt solide Leistung?

Ich verstehe nicht was an 60 % schlecht sein soll, vor allem da diese 60 % die Unterkante zeigen und einige Games deutlich höher liegen.
Du kannst ne 3080 verdammt solide undervolten, wie z.B. Golem.de gezeigt hat, und hast mit 220 Watt immer noch eine dramatische Steigerung zur 2080 und verlierst Anteilig kaum FPS (0,6x Strom wird ca. zu 0,85x Leistung).

Manche scheinen sich zu sehr an den Maximalwerten des Marketings festgebissen zu haben (wider besseres Wissen) und sind jetzt enttäuscht, weil die GPUs "nur" eine sehr hohe Steigerung bieten und keine "unglaubliche" ? Echt verwirrend das zu lesen manchmal. Kommt AMD mit +30 % daher, werden die gefeiert als würden sie über Wasser laufen. Kommt NVidia mit 60-80 % daher, ist das aber total schlecht? Uhm, ja.
 
gegenüber der 2080. NICHT der TI
Ja und realistisch sinds eben nur 66% in UHD, in WQHD, wo die 2080 dann nicht mehr im Speicherlimit hängt dann nur noch 58%.
Ich seh da keine doppelte Leistung.
Und wie gesagt im PR Video wurde die 3080 klar als Successor der 2080 Ti als "flagship" vorgestellt, die 3090 dann als Titan Ersatz.
 
Für diese Grafikkarte braucht ich auch einen 4K Monitor mit über 120hz. Sonst lohnt sich das nicht so sehr. Die Auswahl ist bei den Monitoren auch nicht so gut, oder? Ich bleibe erstmal auf meiner 5700 XT WQHD @144hz :) Ob ich jetzt 110 FPS oder 144 FPS habe merke ich alter Hase sowieso nicht.
 
Ja und realistisch sinds eben nur 66% in UHD, in WQHD, wo die 2080 dann nicht mehr im Speicherlimit hängt dann nur noch 58%.
Ich seh da keine doppelte Leistung.
Und wie gesagt im PR Video wurde die 3080 klar als Successor der 2080 Ti als "flagship" vorgestellt, die 3090 dann als Titan Ersatz.

in der vorstellung der alten gpus sind immer die non ti karten genannt worden und die 3080 auf die 2080
Beitrag automatisch zusammengeführt:

Für diese Grafikkarte braucht ich auch einen 4K Monitor mit über 120hz. Sonst lohnt sich das nicht so sehr. Die Auswahl ist bei den Monitoren auch nicht so gut, oder? Ich bleibe erstmal auf meiner 5700 XT WQHD @144hz :) Ob ich jetzt 110 FPS oder 144 FPS habe merke ich alter Hase sowieso nicht.
Control 1080p @ RTX und die 3080 bricht dir auf unter 144 runter
 
Die Backplate der oben geposteten Karte sieht smexy aus ;)
Gut abgekupfert von der FE.
 
Keine großen Überraschungen. Verbrauch wie erwartet, Performance wie zuvor ebenfalls schon spekuliert, Perf/Watt tatsächlich so schlecht wie befürchtet. Dazu noch leider mal wieder am Speicher gespart und die Karten laufen quasi schon an der Kotzgrenze mit wenig OC-Spielraum.

Lustigerweise ausgerechnet diesmal eine Nvidia-GPU, die nur wegen eines Aspekte relativ interessant ist: Der Preis.
 
Und wie gesagt im PR Video wurde die 3080 klar als Successor der 2080 Ti als "flagship" vorgestellt, die 3090 dann als Titan Ersatz.

Welches PR Video war das? Hast nen Link bitte?
Die Vorstellung von Jenson sagte zur 3080 zwar "Flagship", hat aber keinen Vergleich zur 2080ti gezogen, sondern immer mit der 2080 verglichen.
Und "Flagship" suggeriert ja mitnichten, dass sie das Flagship bleibt und keine 3080ti kommt, so wie es bisher nahezu immer war.

Wir können ja aktuell auch nicht mit einer 1650 vergleichen, weil es kein Vergleichsprodukt bei Ampere gibt bisher. Müssten wir also die 3070 dann mit der 1650 vergleichen, weil sie beide das "Unterende" der Generation darstellen? Das macht natürlich keinen Sinn.

Relevant ist immer nur Preis zu Leistung.
Zahlt man gleich viel, bekommt aber mehr Leistung, ist das Produkt ein Upgrade und besser. Ob das nun 10% sind, 50% oder 100%, ist dabei erst mal egal und bestimmt nur für Upgrader, ob es sich lohnt.
Solange ein Produkt besser für den Preis ist, ist es ein gutes Produkt.
 
Ich verstehe nicht warum ihr bei den Benchmarks die Spiele nie voll aufdreht.
Es ist doch irgendwie total Banane ein Spiel wie BF:V nur auf "Hoch" laufen zu lassen...
 
Ich setzte erneut aus, meine 1080Ti ist und bleibt ausreichend, wie mir scheint. Ich schlage zu wenn die GPU mal 250W zieht und nicht mehr evtl. AMD oder 3070.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh