NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

es gibt schon das ein oder andere game welches cpu technisch mies performat > fs20, cities skylines, gta v etc...

daraus kann man aber nicht allgemein herleiten das die karte von den cpus aktuell in 4k limitiert wird.

in der regel ist die karte weiterhin zu langsam für 1440p 144 fps min (und mit rtx sowieso)
 
  • Danke
Reaktionen: THK
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also Freunde:
Nachdem ich auch mal ein wenig "fremdgelesen habe"...
[...]
- Die Karte wird in allen Auflösungen von jeder CPU ausgebremst (selbst in 4 K)!
[...]
- Das OC kann man eigentlich vergessen, da solange die Board Power nicht erhöht werden kann (max waren wohl 10 Watt mehr) und da kein Wakü Kühler drauf geschnallt wird, selbst der sehr gute FE Kühler nicht mehr ausreicht. Auch die Spannung bleibt max. bei 1,2, es sei denn Nvidia erlaubt demnächst (Kingpin etc.) es.
1. Nein, wird sie nicht. Auch die 3080 ist in 4K meistens im GPU Limit. Dafür gibts von genug Kanälen jetzt auch Spielaufnahmen mit Overlay.
2. Nein, PT geht bis 370W (+50W), hilft für OC aber nichts, weil der Chip einfach schon an der Kotzgrenze getaktet ist. Sieht man ja auch an den Underlimit Tests. Von 250 auf 280 Watt kommen 5% Leistung dazu, von 280 auf 320W nochmal 3% Leistung. Von 320 auf 370W...kommen dann halt nochmal 2-3% dazu. Den Saft ists nicht wert und skaliert oberhalb von ca 300W einfach nicht anständig, weil schon am Limit.

Nachdem ich auch mal ein wenig "fremdgelesen habe"...
Meintest du vielleicht eher verlesen?
 
Jetzt wäre noch interessant inwiefern der unterschied zwischen CPU + 3080 und 3090 ist.
Also z.b 8700k+3080.
 
es gibt schon das ein oder andere game welches cpu technisch mies performat > fs20, cities skylines, gta v etc...

daraus kann man aber nicht allgemein herleiten das die karte von den cpus aktuell in 4k limitiert wird.

in der regel ist die karte weiterhin zu langsam für 1440p 144 fps min (und mit rtx sowieso)
Hast du deine Karte schon bekommen oder warum redest du gegen Redaktionsergebnisse oder bzw. unabhängige Tester, die sich alle eine heiden Arbeit mit den Reviews machen?

Falls ja, kannst du uns gerne mit deinen Ergebnissen beglücken!

Entschuldige, glaube mein Ton war jetzt auch nicht so dolle...!
 
...da machte die RTX2080 gegenüber 1080Ti eine schlechtere Figur.

Das stimmt so leider nicht ganz und nach aktuellem Stand erst Recht nicht mehr!


 
Nicht ich persönlich, aber jemand den ich bisher bedingungslos vertrauen kann (der Mann bleibt einfach immer objektiv!), da der Herr trotzt seiner manchmal (unfreiwillig) komischen Formulierungen erheblich mehr Know-how besitzt, wirklich gute Messinstrumente besitzt und vor allem damit umgehen kann:

Ich werde mir auch noch seine Website reinziehen müssen (aber nicht mehr heute), da dort noch viel mehr zu finden sein wird.

Natürlich habe ich selbst auch auf 5 weitere Redaktionen quer gelesen und werde die Anzahl natürlich noch erhöhen, da natürlich jede neue Generation sehr interessant ist!
Blöd nur, dass diese Spiele nicht im CPU Limit sind. Sieht man allein daran, dass die 3080 in 4K in all den Spielen in Igors Review weniger fps macht als in WQHD -> GPU Limit. Wäre es ein CPU Limit, wären die fps in WQHD und 4K identisch.
 
danke


dann soll er doch mal ein video bringen wo ich in 4k eine nicht ausgelastete gpu sehe und zwar mit den selben settings wie er die anderne karten gebencht hat.

"der chip, wird fast immer, in allen fällen ausgebremst von der cpu"

naja....
 
es fühlt sich seltsam an mit 3900x möglicherweise ins CPU-limit zu rennen. für mich wäre es eine primiere, bin ja aber erst seit den 90er dabei xD
 
Blöd nur, dass diese Spiele nicht im CPU Limit sind. Sieht man allein daran, dass die 3080 in 4K in all den Spielen in Igors Review weniger fps macht als in WQHD -> GPU Limit. Wäre es ein CPU Limit, wären die fps in WQHD und 4K identisch.
Die Rede war nicht davon, dass es keine FPS Unterscheide je nach Auflösung gibt, sondern das es auffällt, dass die Leistung je nach Titel (auch in 4k) sehr wohl nicht passen kann! Der Abstand passt dann nicht.

Deswegen will ich ja auch noch seine Seite besuchen, da das Video die Menge an Daten einfach sprengen würde. Das passt aber auch zu anderen Reviews auch im Luxx, auch wenn das hier eher angemerkt wird.
 
was fürn abstand will er denn sehen? die karte ist auf 99% und er geht davon aus das die cpu dennoch bremst und mehr gehen könnte? kann er hellsehen? :d

dann soll er die amd krücke raushauen und einen 10700k/10900k reinhauen.

ist schon ziemlich käse mit nem 3900x zu testen und die intel, die nachweislich schneller sind, nicht mit zu testen und dann zu sagen dass die cpu limtiert. woher weis er das?

außer worte und balken hab ich nix gesehen^^
 
Zuletzt bearbeitet:
Du bist einer dieser ich mach alles schlecht auch wenn es gut ist Typen. Ganz schwer sich mit dir auf einer normalen Sachlichen Ebene zu Unterhalten. Find die Karte super gut, einzig der Stromverbrauch ist schon etwas hoch ja. Das wird wohl in der 4000er Serie dann behoben.
Und du findest alles geil obwohl es das nicht ist?
Was hab ich denn schlecht gemacht?
Ist der hohe Verbrauch kein Fakt den man bemängeln darf?
Sind die Erwartungen, die Jensen geschürt hat nicht viel zu hoch gewesen?
Würdest du sachlich und objektiv an die Sache rangehen, würdest du erkennen, dass Jensen zu viel versprochen hat und Ampere garnicht so ein toller Sprung ist.
Ja die Karte ist toll, aber das wurde mit sehr hoher Leistungsaufnahme erkauft.


ps. ich weiß noch nicht was es bei mir wird, ob 3080 oder das Pendant von AMD, also lass die Fanboykeule stecken, denn das würde sicher auch irgendwann kommen.
Zumal ich hier noch mit einem Gsync Monitor unterwegs bin der noch nicht Freesync Kompatibel ist was die Entscheidung noch schwieriger macht.
Und glaub mir, über AMD würde ich genauso schreiben, das kann man aber auch an meinen Kaufentscheidungen der letzten Jahre sehen, seit der 970 nur Nvidia verbaut.
 
Zuletzt bearbeitet:
Kann man doch in den Tools sehen, wenn man die während des Games laufen lässt, oder?
 
Blöd nur, dass diese Spiele nicht im CPU Limit sind. Sieht man allein daran, dass die 3080 in 4K in all den Spielen in Igors Review weniger fps macht als in WQHD -> GPU Limit. Wäre es ein CPU Limit, wären die fps in WQHD und 4K identisch.
Das ist so nicht haltbar, du kannst auch 80% der Zeit im GPU Limit sein und hast dann trotzdem in 4k weniger FPS.

Wichtig ist halt dass man nicht 80%, nicht 10% und auch nicht 1% der Zeit im CPU Limit hängt, sondern idealerweise nie.
(ich tätige keine Aussage bezüglich des (nicht) Vorhandenseins eines CPU Limits während der Tests, ich gehe nur auf die zitierte Aussage ein)
 
was fürn abstand will er denn sehen? die karte ist auf 99% und er geht davon aus das die cpu dennoch bremst und mehr gehen könnte? kann er hellsehen? :d

Aber falls du das Video dir angeschaut haben solltest, wüsstest du, dass die CPU Leistung und die CPU & GPU Leistung voneinenader losgelöst gemessen worden sind und daher das Overlay da nix zu sagen hat!

Viele Redaktionen haben weder die Messtechnik noch die damit verbunden physikalischen Erkenntnisse!
Man darf den dahinter steckenden Aufwand auch nicht vergessen! Ich glaube kaum, dass wir uns den überhaupt ansatzweise vorstellen können! Eher dann noch hier die Redaktionskollegen im Luxx oder anders wo!
 
Zuletzt bearbeitet:
ich hab durchaus aktuelle games mit rdr2, hzd, control

in beiden games hänge ich in 3440x1440 dermaßen im gpu limit dass ich selbst mit ner 3090 nicht mal in die nähe des cpu limits komme.

vll mag es da noch andere parameter geben aber die aussage dass man fast immer auch in 4k ein cpu limit hätte ist eher quatsch
 
Ich frage mich auch ernsthaft, ob man da in 1080p nicht in einem CPU Limit hängt. Da muss man echt Vermeer und RKL-S abwarten.
 
Wenn ich den MSI Afterburner anschaue, dann sagt mir meine GPU = 98% und CPU = 40%, was wäre daran noch miss zu interpretieren?
Im Ernst, ich habe anscheinend eine Wissenslücke?

in beiden games hänge ich in 3440x1440 dermaßen im gpu limit dass ich selbst mit ner 3090 nicht mal in die nähe des cpu limits komme.

vll mag es da noch andere parameter geben aber die aussage dass man fast immer auch in 4k ein cpu limit hätte ist eher quatsch

Geht mir auch so
 
  • Danke
Reaktionen: THK
Ich frage mich auch ernsthaft, ob man da in 1080p nicht in einem CPU Limit hängt. Da muss man echt Vermeer und RKL-S abwarten.
Für 1080p brauchst du über eine 3080 nicht nachdenken.
Du fährst ja auch kein Porsche um in der Speilstraße rumzueiern. Außer zum Posen vor Windelscheißern vieleicht ;)
 
Für einen Bugatti der Oberklasse gibt's auch keine Straße. Und?
 
@elcrack0r
Was soll das? Gib doch lieber einen Screenshot, wo Du zeigst => CPU 98% und GPU 60% oder sowas (in 4K Ultra)
 
Ich frage mich auch ernsthaft, ob man da in 1080p nicht in einem CPU Limit hängt. Da muss man echt Vermeer und RKL-S abwarten.
in 1080p ist das auch logisch weil nur wenige spiele selbst mit nem 10700k @5ghz nicht mehrere 100fps hinbekommen.
Beitrag automatisch zusammengeführt:

Für 1080p brauchst du über eine 3080 nicht nachdenken.
Du fährst ja auch kein Porsche um in der Speilstraße rumzueiern. Außer zum Posen vor Windelscheißern vieleicht ;)
bei nem 240hz schirm und sofern die cpu das schafft ist das durchaus eine möglichkeit.

ich hab die 240hz vor ein paar wochen mal gesehen und ich kann sagen dass ich einen deutlich sichtbaren unterschied zu 120/144hz sehen konnte.

natürlich sind 240fps über die cpu nur in wenigen games schaffbar womit das vorhaben nur in wenigen ausnahmenfällen glückt
 
Nun ja, ein gutes hat die Karte schon. Der Winter kommt bald und dann spart man sich ein paar Heizkosten.
Die man im Sommer mit der Klima wieder rauswirft :P
Oder man zockt im Sommer einfach nicht ;)
ach stimmt ja, die Deutschen verkacken gerade auch alles was mit Stromerzeugung zu tun hat und daher auch die hohen Preise, da ist man quasi gezwungen sich nen Kopf zu machen :LOL:
Jo eigene AKWs abschalten und dann teuer Atomstrom aus den Nachbarländern importieren und ihn als grünen Strom anpreisen und teuer verkaufen <3
Dennoch ist der Verbrauch von Ampere mMn. ein Rückschritt, die Brechstange hätte nicht sein müssen.
Jetzt kann man zwar mit UV oder Powerlimit argumentieren, das hätte man aber auch ebenso @stock machen können und das ganze als OC Spielraum verkauft.
Das zeigt sich ja schon bei den Autos die bei den Amis auf den Straßen fahren, das hat nicht viel mit Vernunft zu tun.
Schonmal auf unsere Straßen geschaut, da wirds auch immer größer und stärker... Dank Leasing kann es sich ja fast jeder leisten.
 
Wenn ich den MSI Afterburner anschaue, dann sagt mir meine GPU = 98% und CPU = 40%, was wäre daran noch miss zu interpretieren?
Im Ernst, ich habe anscheinend eine Wissenslücke?



Geht mir auch so

Entscheidet doch lieber selbst, immerhin habe ich doch wir wie alle (die Luxx Redaktion natürlich außen vor) weder selbst die Karte noch selbst getestet: https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/10/

Im Video wird es aber besser (für mich persönlich) erklärt!

Viel wichtiger ist aber = Physik lügt nicht bzw. alles kann man reproduzieren und Thesen sehr gut belegen!
 
Zuletzt bearbeitet:
3440x1440

HorizonZeroDawn_2020_09_16_22_54_23_923.jpg

640x480

um die 170 zu erreichen in der szene würde nichtmal die 3090 reichen. ich bräuchte mehr als 100% mehrleistung zur 2080S

HorizonZeroDawn_2020_09_16_22_56_39_509.jpg

ja in actionszenen gehen die fps sicherlich cpu seitig runter. das stimmt ^^
 
Man kann die Karte auch mit niedrigerem Powertarget betreiben, so 80-90%. Da verliert man dann 1-4 FPS oder so aber könnte deutlich angenehmer unterwegs sein?!

Laut CB verliert man bei 270 Watt nur 5% Leistung, Igor hat allerdings schon leichte Zweifel an diesem Testergebnis angemeldet.

Ich wüsste jedoch nicht, was CB da groß falsch machen kann, sie testen mehrere Titel und überwachen die Leistungsaufnahme, viel Spielraum für unentdeckte Fehler gibt es da nicht.

Der UV-Test hier im Luxx sieht auch recht ähnlich aus und bestätigt eher CB.
 
Die RTX 30xx Karten sind die ersten von NV mit echter Werksübertaktung. Den Normalo Benutzer freut das, den Enthusiast langweilt es. Fairerweise müsste man aber 30xx FE gegen 20xx FE OC vergleichen.
Viele werden sich auch wundern, wie die Karte den Raum heizt. :giggle:
Nach 2 Jahren ist die 2080TI OC Leistung für 500,- Euro weniger zu bekommen. Viel Spass.
 
Die Rede war nicht davon, dass es keine FPS Unterscheide je nach Auflösung gibt, sondern das es auffällt, dass die Leistung je nach Titel (auch in 4k) sehr wohl nicht passen kann! Der Abstand passt dann nicht.

Deswegen will ich ja auch noch seine Seite besuchen, da das Video die Menge an Daten einfach sprengen würde. Das passt aber auch zu anderen Reviews auch im Luxx, auch wenn das hier eher angemerkt wird.
Nicht passen zu was?
Wenn die fps in 4K deutlich niedriger sind als in WQHD, dann ist das ein GPU Limit, kein CPU Limit. Punkt. Wenns ein CPU Limit wäre, würde die Framerate unabhängig der Auflösung gleich bleiben.
Beitrag automatisch zusammengeführt:

Das ist so nicht haltbar, du kannst auch 80% der Zeit im GPU Limit sein und hast dann trotzdem in 4k weniger FPS.

Wichtig ist halt dass man nicht 80%, nicht 10% und auch nicht 1% der Zeit im CPU Limit hängt, sondern idealerweise nie.
(ich tätige keine Aussage bezüglich des (nicht) Vorhandenseins eines CPU Limits während der Tests, ich gehe nur auf die zitierte Aussage ein)
Korrekt. Aber ich behaupte mal ganz frech, wäre die 3080 in 4K zu irgendeiner relevanten Zeit im CPU Limit, wäre das mehr als einem einzigen Reviewer aufgefallen. Nichts gegen Igor, seine Arbeit ist normalerweise top, aber in dem Fall steht die Behauptung ohne Beleg allein im Raum.
 
Nicht passen zu was?
Wenn die fps in 4K deutlich niedriger sind als in WQHD, dann ist das ein GPU Limit, kein CPU Limit. Punkt. Wenns ein CPU Limit wäre, würde die Framerate unabhängig der Auflösung gleich bleiben.
Beitrag automatisch zusammengeführt:


Korrekt. Aber ich behaupte mal ganz frech, wäre die 3080 in 4K zu irgendeiner relevanten Zeit im CPU Limit, wäre das mehr als einem einzigen Reviewer aufgefallen. Nichts gegen Igor, seine Arbeit ist normalerweise top, aber in dem Fall steht die Behauptung ohne Beleg allein im Raum.
Ich schließe einfach wie immer nix vorher aus.
Wichtiger ist aber = Physik lügt nicht und jede These kann man belegen oder reproduzieren.

Das soll natürlich nicht bedeuten, dass Igor sich nicht irren kann 😉
 
Entscheidet doch lieber selbst, immerhin habe ich doch wir wie alle (die Luxx Redaktion natürlich außen vor) weder selbst die Karte noch selbst getestet: https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/10/

Im Video wird es aber besser (für mich persönlich) erklärt!
Mir ist diesbezüglich gerade aufgefallen dass Igors Werte zum Stromverbrauch nicht zu den Werten von Don, bei Pcgameshardware, computerbase etc. passen.
Diesbezüglich ist bei ihm genrell die Effizient oder FPS/Watt anders als bei anderen Testern.

Im einigen Fällen besser für Turing und Ampere als für RDNA und vice versa Average Power Consumption in Watts UHD 4K
RX 5600 XT bei ihm 120 W anstatt 150 W.
RX 5700 170 anstatt 180 W.
RX 5700 XT 250 W anstatt 220 W.

RTX 2070 Super 205 W anstatt 215 W.
Rtx 2080 Super 230 W anstatt 250 W.

@Igor THG
Deine Werte haben natürlich innerhalb deiner Test und Umgebung eine Aussagekraft und es gibt nichts daran auszusetzen. Verglichen mit anderen Test wundert es mich aber deshalb schon warum die RX 5600 XT plötzlich so ein Effizienz-Monster ist, die RX 5700 XT so schlecht dasteht und Turing 2070S/2080S auch besser sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh