NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. "Bis zu" - Angaben sind nicht NVidia patentiert. Jeder Kunde sollte das zur Genüge kennen.
2. Manche Games zeigen +100 % und teilweise sogar mehr, nur nicht im Durchschnitt.
3. Selbst wenn es "nur" 60 % sind für 150 Euro weniger MSRP, ist das doch eine verdammt solide Leistung?

Ich verstehe nicht was an 60 % schlecht sein soll, vor allem da diese 60 % die Unterkante zeigen und einige Games deutlich höher liegen.
Du kannst ne 3080 verdammt solide undervolten, wie z.B. Golem.de gezeigt hat, und hast mit 220 Watt immer noch eine dramatische Steigerung zur 2080 und verlierst Anteilig kaum FPS (0,6x Strom wird ca. zu 0,85x Leistung).
Es hat einfach nen faden Beigeschmack, wenn mal wieder nur geschönte Benchmarks präsentiert wurden, großmundig (bis zu) doppelte Leistung versprochen wird, davon meistens dann aber nur 70% ankommen (in 4K, je geringer die Auflösung, desto geringer der Vorsprung), und das mit 100W mehr Leistungsaufnahme erkauft ist.

Mir war vollends bewusst, dass Marketing da Blödsinn erzählt. Das machts aber nicht besser.

Die MSRP kannste in die Tonne treten, effektiv kosten sie gleich viel.
 
Ich verstehe nicht warum ihr bei den Benchmarks die Spiele nie voll aufdreht.
Es ist doch irgendwie total Banane ein Spiel wie BF:V nur auf "Hoch" laufen zu lassen...
Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.
 
Perf/Watt tatsächlich so schlecht wie befürchtet.

Was?
Perf-Watt.png


Ja, das ist best case mit Doom, aber welten schlechter sind andere Spiele auch nicht (dazu leider keine Grafik gefunden).
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
 
in der vorstellung der alten gpus sind immer die non ti karten genannt worden und die 3080 auf die 2080
Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.
Beitrag automatisch zusammengeführt:

Wir können ja aktuell auch nicht mit einer 1650 vergleichen, weil es kein Vergleichsprodukt bei Ampere gibt bisher. Müssten wir also die 3070 dann mit der 1650 vergleichen, weil sie beide das "Unterende" der Generation darstellen? Das macht natürlich keinen Sinn.
Wie kommst du auf die krumme Logik? Dass die 3070 mitnichten low end ist, wissen wir doch alle.
 
Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.
Aktuell ist es ja das Flagship, wenn die 3090 ein Titanersatz sein soll. Nächstes jahr wirds denke ich eh die 3080Ti geben als neues Flagship. Die Hersteller brauchen doch noch Karten um die nächsten Jahre strecken zu können. Wer weiß wann die neue generation auf den Markt kommt, wenn die jetzt schon alles aus der GPU rausquetschen. In die gleiche Strategie passt auch die verkümmerte Vram Erhöhung bei der 3080, so hat man zur Streckung der nächsten Jahre noch was am Start.
 
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
+10-20% Effizienz trotz Node Shrink ist halt einfach nichts besonderes. AMD wird in der Luft zerrissen, wenn sie solche Verbesserungen bringen, hier wird gefeiert.

Besonders witzig wirds, weil Nvidia noch stolz von "1.9x Perf/W" gelabert hat. Ja Pustekuchen. Sie hätten die PR Zahlen auch einfach würfeln können.
 
Aktuell ist es ja das Flagship, wenn die 3090 ein Titanersatz sein soll.
Ist sie halt nicht, auch wenn Jensen einem das gern erzählen möchte, damit die 1500€ nicht gar so lachhaft teuer wirken. Da wird der Kunde schön an ein neues höheres Preisgefüge gewöhnt, damit dann ein beschnittener Chip für 800€ als guter Deal bezeichnet wird. Hat man zwar früher das wirkliche Flaggschiff für bekommen, aber das vergisst man ja schnell.

In nem halben Jahr steht ne 3000€ Titan Ampere an der Tür und dann will man von "3090 Titanersatz" noch nie was gehört haben.

Die gute alte Zeit, als eine 950€ Titan als unerhört teuer galt und man davon ausging, dass die eh fast niemand kauft. Lol.
 
Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.
Beitrag automatisch zusammengeführt:


Wie kommst du auf die krumme Logik? Dass die 3070 mitnichten low end ist, wissen wir doch alle.

Du vergleichst doch jetzt Flagship mit Flagship. Folgerichtig müsste man "lowest gegen lowest" vergleichen genauso. Also 1650 gegen 3070.
Mir ist schon klar, dass das deppert wäre, aber warum ist das anders als die von Dir gezogenen "highest vs highest" Vergleiche? Bei beiden Varianten kommen noch andere Karten nach in einigen Monaten. Die sind dann die richtigen Vergleiche. Aktuell gibt es weder für die 1650 noch für die 2080ti einen fairen und sinnvollen Vergleichspartner bei Ampere.

Davon abgesehen:
Was haben diese Unkenrufe eigentlich für einen Sinn?

Dir gefällt das Marketing nicht. Ok. Kann ich akzeptieren. Wenn man das Marketing zu ernst nimmt, ist man danach immer enttäuscht.
Aber wir sind hier im Topic des REVIEWS.
Da sind harte Fakten und Zahlen, schwarz auf weiß. Man sieht die dramatischen Steigerungen. Ja, Marketing kann man als "sie haben mehr versprochen!" ansehen. Geschenkt. Relevant für einen Kunden ist doch die Leistung die dann gekauft wird.

Willst Du argumentieren, dass die 3080 keine beeindruckende GPU ist, weil sie NUR 60 % liefert und keine 80 %?
Mir ist der Sinn dieser Unkenrufe echt nicht ganz klar, daher argumentiere ich hier evtl. in die falsche Richtung aufgrund fehlendem Verständnis. Klär mich gerne auf.
 
Du vergleichst doch jetzt Flagship mit Flagship. Folgerichtig müsste man "lowest gegen lowest" vergleichen genauso. Also 1650 gegen 3070.
Mir ist schon klar, dass das deppert wäre, aber warum ist das anders als die von Dir gezogenen "highest vs highest" Vergleiche? Bei beiden Varianten kommen noch andere Karten nach in einigen Monaten. Die sind dann die richtigen Vergleiche. Aktuell gibt es weder für die 1650 noch für die 2080ti einen fairen und sinnvollen Vergleichspartner bei Ampere.
Schritt 1: die 3070 ist nicht lowest. Der Rest entfällt damit eh.

Und komm..."dramatische Steigerungen". Ja, die Performance steigt ca wie Pascal vs Maxwell. Nur bleibt die Effizienz dabei auf der Strecke, VRAM stagniert, Preis ist so lala und die krasse Steigerung hat man auch nur in 4K, darunter nimmt der Vorsprung ab.

Du sagst ich bin hier zu negativ, ich sage du feierst das ding in unverdiente Höhen.
 
Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.
ich stelle EGAL ob die karte das locker packt oder nicht immer nur das ein was es mir persönlich wert ist.

alles andere wird abgeschaltet > karte muss weniger leisten > kühler > leiser

und das wird auch weiterhin passieren den 3440x1440@120 schwer genug
Beitrag automatisch zusammengeführt:

Was?


Ja, das ist best case mit Doom, aber welten schlechter sind andere Spiele auch nicht (dazu leider keine Grafik gefunden).
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
vor allem da es aktuell keine konkurrenz gibt. da kann man schwer sagen dass die Perf/watt verhältnis mies wäre. dazu bräuchte man in der regel ein vergleichsprodukt. nur das gibt es nicht^^
 
Schritt 1: die 3070 ist nicht lowest. Der Rest entfällt damit eh.

Und die 3080 ist nicht highest, also entfällt das ganze Argument?
Scheint so, als würdest Du nur stänkern wollen, ohne ein eigentliches Diskussionsziel? :-(
 
Was?
[...]aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
Sie ist absolut betrachtet nicht schlecht, denn sie liefert die beste Effizienz die wir bisher haben. Jedoch ist sie kaum besser als Turing, die meisten Leute haben auf erheblich mehr gehofft. Auch nvidia hat werbewirksam von (bis zu) 90% gesprochen, dann sind die gelieferten 10-15% halt schon irgendwie ernüchternd.

Also auf Hopper warten :d
 
Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.
Hoch ist doch meist nur eine Stufe unter sehr hoch oder Ultra.
Dons Argument hat schon was. Auf sehr hoch/ultra schlägt sich eine rtx 3060 vs 3080 z.B. in 1440p dann relativ schlechter, weil die Einstellungen unnötig hohe Effekte anschaltet die kaum sichtbaren Mehrwert bieten, die gpu aber stark belasten.
So ist es bis jetzt der Fall gewesen.
 
Ist sie halt nicht, auch wenn Jensen einem das gern erzählen möchte, damit die 1500€ nicht gar so lachhaft teuer wirken. Da wird der Kunde schön an ein neues höheres Preisgefüge gewöhnt, damit dann ein beschnittener Chip für 800€ als guter Deal bezeichnet wird. Hat man zwar früher das wirkliche Flaggschiff für bekommen, aber das vergisst man ja schnell.

In nem halben Jahr steht ne 3000€ Titan Ampere an der Tür und dann will man von "3090 Titanersatz" noch nie was gehört haben.

Die gute alte Zeit, als eine 950€ Titan als unerhört teuer galt und man davon ausging, dass die eh fast niemand kauft. Lol.
Naja, was nächstes Jahr ist, ist Zukunft und wissen wir nicht. Man muss sich am Jetzt orientieren und da ist die 3090 nun mal die Titan. Sicherlich kann ich jetzt spekulieren was nächstes Jahr passiert. Ich kann nur andere Firmen und Produkten vergleichen und da wird immer gestreckt, verfügbare Technik Jahre später oder sehr langsam auf den Markt gebracht um möglichst viel Geld damit zu verdienen. Es gibt niemanden der sagt, die 10GB sind OK, jeder sagt 12 hätten mind. drinnen sein müssen. Man kann das jetzt akzeptieren oder nicht. Ich finde das auch nicht ok, weil da kann man mitm Stock dran fühlen, dass es so ne marketingtechnische Streck-Aktion ist. Ich werde trotz der 10GB zugreifen, weil ich mir wegen der 3000er Serie "nur" eine 2070s zugelegt habe anstatt der 2080Ti. Aber wer glaubt, mit seiner neu gekauften Karte lange "das Beste" zu besitzen, sollte mittlerweile gelernt haben, dass heutzutage sowas nur ein Jahr Bestand hat.
 
Hmmm ... Leistung gut, Kühlung gut und Optik war sowieso gut ... aber wieso 330W und dann teils wohl sogar noch mit starken Spitzen. Ich armer ITX Besitzer habe es mit meinem SFX Netzteil echt nicht leicht ^^ Problem ist, dass ich schon 600W habe und viel mehr geht im SFX Bereich schon gar nicht mehr. Klar, dass die 320W TDP hat, das wusste man vorher, aber das die teils Leistungsspitzen von 500W haben soll? Das ist heftig.
 
Hoch ist doch meist nur eine Stufe unter sehr hoch oder Ultra.
Dons Argument hat schon was. Auf sehr hoch/ultra schlägt sich eine rtx 3060 vs 3080 z.B. in 1440p dann relativ schlechter, weil die Einstellungen unnötig hohe Effekte anschaltet die kaum sichtbaren Mehrwert bieten, die gpu aber stark belasten.
So ist es bis jetzt der Fall gewesen.
Na sicherlich knallt Ultra rein und bremst aus, aber lies mal hier im Forum quer wie viele ne 2080Ti haben, weil sie einfach alles auf volle Pulle stellen wollen ohne sich Gedanken machen zu müssen, dass es irgendwelche Probleme gibt. Hoch ist halt so ein Zwischending und wenn man schaut, dann haben die meisten Gamer Mid-Range Karte und schrauben bei hohen Auflösungen die Grafik runter. Selbst 1080p ist meine ich noch am meisten verbreitet.
Daher sage ich, bei diesen Benches sollte man immer das Ulta-Setting mit reinnehmen und zeigen was die Karte im jeweiligen Spiel im Maximum kann.
 
Warum bleibst du nicht einfach bei der 280ti so richtig lohnt doch die 3080 von dort gar nicht?
Weil es alle von High End machen, wie sieht das fürs Eggo aus, nen altes Flagschiff zu haben :rofl:
 
Warum bleibst du nicht einfach bei der 280ti so richtig lohnt doch die 3080 von dort gar nicht?

Weil ich Depp die gekauft hatte und dachte, dass da, trotz der 2,2 Slot, das Gehäuse noch zu geht ... tut es aber nicht :fresse: Die 2080 Ti meiner Freundin war generell 3 Slot. Nun könnte ich mir eine 3. 2080 Ti mit Dual-Slot kaufen oder eben, weil ich die 3080 so mega sexy finde, eine 3080. Das die Karte über 300W verbraucht war mir natürlich klar, aber diese Spitzen machen mir etwas sorgen. Hätte nicht gedacht, dass ein 600W NT da nicht reichen könnte
 
Warum muss dein Gehäuse denn maximal klein sein mit der fettesten Karte drin? Hol dir doch ein Gehäuse für normale Menschen, und keins für Schlümpfe :ROFLMAO:

Das soll hier nicht das Thema sein. Aber ist eine xx80er non Ti/Super Karte von Nvidia denn die fetteste Karte? Ja, Mittelfeld ist das vllt nicht mehr ganz, aber da ist definitiv noch Luft nach oben. Und so eine sexy Dual-Slot-GPU wäre schon sehr nice. Bin gerade echt am überlegen. Aber ich werde dafür sicher nicht den gesamten PC wechseln, finde das ITX Case einfach nur geil ^^
 
Und du willst die 3080 nur loben, egal was andere denken.

Die 3080 ist ne tolle GPU, was nicht von mir kommt, sondern hier im Review mit harten zahlen belegt wurde.
Aber habs verstanden und werde aufhören Dich in Deinem Kreuzzug auszubremsen. ;-)
 
@Powl

Wenn man nicht so stumpf dem übertriebenen Marketing-Sprech aufgesessen wäre müsste man jetzt nicht :heul: en
Du denkst ich bin dem aufgesessen? Dann hast du wohl keinen meiner Beiträge im Thread dazu gelesen.

Die Karte ist auch unabhängig jeden Marketings kein rundes Paket. Das PR Geblubber setzt nur nochmal ne kleine krumme Krone drauf.
 
Was?
Anhang anzeigen 531168

Ja, das ist best case mit Doom, aber welten schlechter sind andere Spiele auch nicht (dazu leider keine Grafik gefunden).
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh