Dennoch ist die Karte ziemlich effizient, weil sie eben auch einfach viele FPS liefert.
Ich kann nur das wiedergeben was ich bei Igors Lab zu der Karte gesehen habe.
Außerdem, wenn du schon die Benches von hier ansprichst, dann solltest du festgestellt haben, dass deine 22,55% nur in Anno 1800 zustande kommen und in allen anderen Benches sehe ich da mindestens 30% mehr FPS in UHD.
In FullHD ist bei der 3080 fast immer ein CPU Limit vorhanden. Sieht man vor allem mal richtig gut beim Flight Simulator.
FullHD und WQHD nahezu gleich was 2080ti und 3080 angeht. In UHD dann 30% mehr FPS bei der 3080.
Du hast also mit deiner Aussage völligen Quatsch erzählt weil du scheinbar nur einen Benchmark angeschaut hast.
Ich bin bei Leibe kein NVidia Fanboy und habe immer wieder mal das Lager gewechselt. Aktuell mit Ryzen CPU und GTX 1080 unterwegs. Davor war eine R9 290X verbaut.
Aber Man kann einfach nicht von der Hand weisen, dass die 3080 eine ziemlich gute und effiziente Karte ist, wenn man Stromverbrauch und FPS anschaut.
Edit: Ich warte selbst sehnsüchtig auf das was AMD vorstellt, wirklich. Nichts ist schlimmer als nur ein Hersteller der High End GPUs auf dem Markt hat und ich würde auch gerne meine 1080 bald tauschen.
Aber man muss eben nicht irgendwelche Falschaussagen hier raus hauen.
ich habe nicht von fps gerdet und bezweifle auch gar nicht das die fps besser sind, gerade in uhd.
mir ging es um deine behauptung, daß die ampere karten ja so effizient seien.
ich habe auch genannt, daß ich als beispiel nur anno genommen habe, gerade weil es fordernder ist, als z.b. doom eternal.
Vor allem rechnet er dann auch noch falsch. Ich habe mich schon gewundert wie er auf diese komischen Werte kommt mit
Shadow of the Tomb Raider
2080Ti UHD: 4,29 Watt/FPS
3080 UHD: 4,18 Watt/FPS
Flight Simulator
2080Ti UHD: 4,85 Watt/FPS
3080 UHD: 4,76 Watt/FPS
F1 2020
2080Ti UHD: 2,73Watt/FPS
3080 UHD: 2,52 Watt/FPS
Geht dann halt so weiter....
Auf einmal ist es da dann ja doch nicht mehr so ineffizient. Oh wunder!!!
Mehr FPS bei gleicher Watt/FPS Verhältnis.
Anno ist das einzige Beispiel in dem es umgekehrt ist...
Muss peinlich sein wenn man auf einmal so bloß gestellt wird.
Wahrscheinlich kommt dazu dann auch kein Kommentar mehr.
Gut hier soll es eher um AMD gehen.
Schade, dass RDNA2 erst Ende Oktober vorgestellt wird. Auf de Ryzen 4000 bin ich jedoch auch extrem gespannt.
Mal sehen ob ich dann nochmal günstig vom 1600x auf einen 3600x oder 3700x upgraden werde.
Komplett neu kaufen wollte ich eigentlich nicht, aber eine neue GPU braucht eben auch eine stärkere CPU.
ich frage mich was du dich wunderst?
die werte sind korrekt und nicht komisch.
effizient ist für mich die karte, die weniger watt braucht um ein fps zu erzeugen. glattes beispiel: 100watt für 30fps ist effizienter als 150watt für 30fps.
wie habe ich es berechnet? ich habe die von nvidia selbst vorgestellten wattzahlen der gpus benutzt, also 320w für die 3080 und 250w für eine 2080ti.
dann nimmst du wattzahl geteilt durch die max fps und erhälst wieviel watt pro fps benötigt werden.
wie ich sehe hast du es bei drei weiteren spielen auch so versucht.
in uhd ist hier tatsächlich die effizienz etwas besser, bei fullhd aber nicht mehr.
und nimmt man die oc version der 3080 mit 340w/350w ist die 3080 OC ineffizienter als eine 2080ti.
Shadow of the Tomb Raider
2080Ti UHD: 4,29 Watt/FPS
3080 UHD: 4,18 Watt/FPS
3080 OC UHD: 4,49 watt/fps
und der kleine effizienzvorteil in uhd entspricht bei weitem nicht dem faktor von 1,9 den nvidia beworben hat.
ein vergleich bei 250W sieht dagegen anders aus, hinkt dann aber doch als vergleich:
Doom Eternal:
2080Ti UHD: 2,06 Watt/FPS
3080@250W UHD: 1,60 Watt/FPS
bei gleicher leistung (jeweils 250W) ist eine 2080ti nur 77,67% so effizient wie die 3080, bzw ist eine 3080 ~ 29% effizienter als eine 2080ti.
hier hat nvidia aber leistung mit deutlich mehr energieverbrauch erkauft. bei 250w ist der fps vorteil nicht mehr allzugroß.
vielleicht läge dann sogar eine übertaktete 2080ti auf 3080@250W niveau.