Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Square Enix hat einen GPU-Benchmark für das schon recht betagte Final Fantasy XIV: Endwalker veröffentlicht. Der Benchmark kommt zusammen mit der vierten Erweiterung für das Spiel. Daneben arbeitet Square Enix an einem Remake für die PlayStation 5. Alle PC-Nutzer können sich mittels des GPU-Benchmarks anschauen, mit welcher Auflösung und mit welchen Auflösungen das Spiel laufen wird. Da das Grundspiel bereits acht Jahre alt ist, sind die Voraussetzungen eher als gering einzustufen. ... weiterlesen
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also die Grafik ist echt bescheiden, da kann ja selbst nen Tablet Game mithalten.Schade aber flüssig läuft es dafür^^
10900K 5,1/4,7/2x16GB 4600CL17-17 RTX 3080@2160mhz
bar support ist da an kann sein das ohne mehr rauskommt
@Holzmann
Und hier mit etwas mehr Bums auf der CPU 5,4ghz, also zum Alteisen gehört der 10900k noch nee^^
Dann hätte Don mehr Punkte haben müssen, von der CPU Performance bist du meistens mit ner AMD Karte im Vorteil, zum benchen bei CPU FPS ist die eigtl. meistens besser.
Ansonsten schiebt man FPS nur mehr Takt und vor allem einem RamOC.
Dann hätte Don mehr Punkte haben müssen, von der CPU Performance bist du meistens mit ner AMD Karte im Vorteil, zum benchen bei CPU FPS ist die eigtl. meistens besser.
Ansonsten schiebt man FPS nur mehr Takt und vor allem einem RamOC.
Ist halt auch spannend, dass Square da jetzt mit Support für SLI und CF um die Ecke kommt xD
Aber bei dem Logo mit Gameworks kam mir schon fast wieder die Galle hoch... FFXIV gibts für PC, PS4/5 und Mac... 2 von 3 Systemen haben mit Nvidia nichts am Hut und laufen auch nicht mit DirectX, aber hey...
Anbei meine Ergebnisse, 22273 mit den Standardwerten und 19513 mit meinen Einstellungen in 1440p mit dem System aus der Signatur. Denke mal, dass der 3000er Ryzen, der unoptimierte 3000er RAM und die Tatsache keine Geforce zu besitzen da einige Punkte kosten. Meine FG-Leiterin kommt mit 5950X und 3090 (andere Parameter unbekannt) im Default-Bench auf 32250.
Bei uns ist weird, dass die Bildraten in Exponentialschreibweise angegeben werden und keinen Sinn ergeben
Der Benchmark ist ja auch eher CPU gebunden^^, mit ner 6900 würde ich wahrscheinlich mein eigenes Ergebnis schlagen da die weniger CPU Leistung "frisst".
Da kannst du wahrscheinlich auch ne 2080TI nehmen das nimmt sich nix viel bei WQHD.
Naja also in den letzten zwei Szenen (Drache fliegt rum und viel schlechtes Gras + Endfight) bin ich schon im GPU Powerlimit.
Ansonnsten kann ich ja heim gehen.
Hier mal 5,1ghz mit 1920Mhz auf der GPU anstatt 2160Mhz bringt mir das weitere anheben des CPU Takt +Speicher OC mehr, so grob 1:0,8
Ich glaub mein Ergebnis mit 28,3k ist echt gut 😅
Ob man das nochmal toppen kann ohne HT.
Hier mal 5,1ghz mit 1920Mhz auf der GPU anstatt 2160Mhz bringt mir das weitere anheben des CPU Takt +Speicher OC mehr, so grob 1:0,8
Ich glaub mein Ergebnis mit 28,3k ist echt gut 😅
Ob man das nochmal toppen kann ohne HT. Anhang anzeigen 649657
Gut in dem Benchmark ist die echt langsamer, man muss aber sagen das der 5950X wenn der mit nur ein CMD läuft und straffen RamOC einfach verdammt stark ist.
Ich bin mal gespannt wie das aussieht wenn der mit dem 3DCache kommt, dann wird es bestimmt nur noch eine Empfehlung geben AMD^^.
Hier also mehr pack ich ne da ist Feierabend das ist mit 5,5Ghz 4700CL16-17 HT OFF und 3080 max, diesmal mit Treiber auf Leistung
Dafür ist deine Graka meist ohne RTX schneller, der einzige Vorteil den NV für mich hat ist das RTX mit Dlss.
Dlss 2.0 ist wirklich Top in der Qualität, grade bei meiner hohen Auflösung enorm von Vorteil.
Dafür ist deine Graka meist ohne RTX schneller, der einzige Vorteil den NV für mich hat ist das RTX mit Dlss.
Dlss 2.0 ist wirklich Top in der Qualität, grade bei meiner hohen Auflösung enorm von Vorteil.
Ja naja kommt drauf an nech, solange du mehr Bilder schaffst als auf deinem Bildschirm Sinn machen, kann von Schnell/er oder Langsam/er nicht die Rede sein, da können wir gerne eher über mehr oder weniger Effizient sprechen ja.
DLSS 2.0 ist wirklich top, Control sieht damit echt gut aus, Shadow of the Tomb Raider sowie ROTTR müsste es sein, wurden auch gepatched die letzte Zeit und können das nun auch.
In SOTTR bringts mir im Benchmark rund 10 FPS mehr, nicht schlecht wenn man bedenkt das die vorigen Anti-Aliasing Methoden nicht besser aussahen aber etwas schlechter liefen.
Was AMD besser kann und immernoch können wird ist "DSR", das kann man bei NVidia aufm Desktop absolut nicht gebrauchen, mit dem ollen Schärferegler, ich weiss noch als ich die 7870/7970 hatte war das absolut garkein Thema gewesen, das wäre in der Tat ein AMD Vorteil.
Ansonsten nunja, das RTX-Zeug lässt sich echt gut nutzen, Stimme filtern mittlerweile sogar nativ mit OBS Studio, Hintergrund entfernen bei der WebCam (Facecam in OBS Studio) also Greenscreen ohne Greenscreen im prinzip denn genauso lässt es sich nutzen
---
Was mich an diesen Benchmarks immer stört und da kommen wir wieder zu dem Punkt, schnell/er, Langsam/er, wenn die Kiste zum Punkte jagen einfach nur Frames bügelt im Glühen bis die Stromrechnung kommt, macht sowas relativ wenig Sinn. (Wir machen doch keine Punktejagd in Benches/HwBot)
Es geht doch darum ob die Kiste das Game anständig packt oder nicht, sprich erstmal wäre es ja eine Zielsetzung festzulegen wieviel Frames die Bude möglichst stabil schaffen können soll/muss für die Glotze die man sich dazu heingestellt und angeschlossen hat.
Reaktionszeit/Timing das es reibungslos funktioniert, möglichst ohne eine spürbare Verzögerung der Eingaben (Fakt ist, es geht nicht ohne, genauso auch Asio ist nunmal nicht Latenzfrei, sondern es bietet eine möglichst geringe Verzögerungszeit ja...), kommt ja nicht durch mehr oder weniger Punkte in einem Benchmark und es hängt auch absolute nicht damit zusammen wieviel Frames die Bude denn mal schafft, in irgendeiner Situation oder im Durchschnitt.
Wobei man an in BPS im Durchschnitt zumindest schonmal erkennen kann ob der Bildschirm ausreichend versorgt werden kann.
Beispiel, ich hab neulich über Steam den "Bus Simulator 16" quasi komplett durchgesuchtet, bis auf die letzte Errungenschaft
Das Spiel hat arge Performanceprobleme, weil es einfach gnadenlos im CPU-Limit herumhängt, ist halt einfach schlecht optimiert, kann die ganze Transistorfunktionen die man so hat in der Butze garnicht ausreizen und oder CPU-seitig wird halt zuviel verschwendet während die Grafikkarte sich zu tode langweil und einfach keine Last bekommt.
Wie man darauf kommt, ganz einfach, wir haben schon ganz andere Games und auch Simulatoren gesehen, mit deutlich anspruchsvollerer Grafik und diese läuft auch besser (beispielsweise ETS2)
Nun denn, man kann also mit voll aufgedrehter Grafik den Bus Simulator 16 mit dem Preset Ultra auf meiner Hardware daddeln, absolut keine spürbare Input-Verzögerung, egal ob Tastatur und Maus, oder Rennwagensteuerung, in meinem Falle das Driving Force GT von Logitech. (800 °Drehbereich wie bei ETS2, mega, nix grossartig konfigurieren ausser Profiler von Logitech für das Game die 800°, mega )
Auf dem Bildschirm passiert exakt das mit dem Lenkrad was ich mit meinem DFGT anstelle, wahrgenommen "Echtzeit" 1:1, ohne spürbare Verzögerung eben.
Da sind wir aber allerdings bei weitem nicht auf stabilen 60FPS geschweigedenn 75, da hab ich aber auch das Glück das mein AOC Monitor Freesync kann was ander RTX 2060 glücklicherweise mit dem G-Sync compatible funktioniert, 30 bis 75 FPS/Hz
Sprich das läuft dennoch absolut flüssig und wie man schon lesen konnte, von Input-Lag absolut nicht die Bohne spürbar, messbar sicherlich vorhanden, weil es geht nunmal garnicht anders, wenn man die Mathematik hinter der Technik einfach mal versteht.
-----
Die Frage wäre also, bei einem solchen Game, dürften 60 BPS völlig ausreichend sein, was für eine Punktzahl müsste man dazu erreichen, dann könnte man wenigstens feststellen mit diesem Benchmark und auch mit anderen, tuts die Kiste oder nicht wo der mal eben durchgelaufen ist.
Ansonsten, fügt das Ding HWBot hinzu, kostenlos ist er ja offenbar eh
Gruss Dennis
Beitrag automatisch zusammengeführt:
Um das mit dem Bus Simulator und der Grafikkarte @Phoenix2000 nochmal anders darzustellen, selbst Cyberpunk 2077 läuft auf meinem System mit echt vielen Details plus RTX mit mehr BPS im Durchschnitt als der Bus Simulator 16, deswegen läuft es tatsächlich nicht schlechter oder besser
DLSS sollte man immer wählen wenn man kann, denn es ist das bessere Antialiasing dank dem KI-Kram von Nvidia, naja zumindest wenn das Game das 2.0er unterstützt, wie das bei AMD mit dem Equivalent dazu aussieht, naja, wenn es so ist wie DSR vergleichsweise würde ich mal sogar vermuten das es das bessere Paket Softwareseitig ist.
AA wird effizienter oder bringt eben mehr bzw ausreichend BPS, oder eben stabilere.
Was DSR/Downsampling angeht, da bin ich noch mit der Praxiserfahrung im Hinterkopf, das es auch mal anders ging, ohne Runterskalieren durch die Grafikkarte selbst, früher hat man das gemacht indem man dem Bildschirm eine höhere Auflösung als dessen native über eine "benutzerdefinierte Auflösung" die der nicht dem System meldet das der die noch kann, als Signal reingeschmissen hat.
Sprich die passende Skalierung hat da noch definitiv der Bildschirm selbst übernommen, ich vermute mal so hat AMD das auch mal umgesetzt durch die Treiber und tut dies sicherlich sogar heute noch zum Teil.
Einfach das was über der nativen Auflösung liegt, der Bildschirm aber noch verarbeiten und wiedergeben kann ausgetestet und dann eben genutzt, auch als Desktop-Auflösung, ohne das Schrift teils komplett unlesbar kaputtgeht oder sonstwas.