Battlefield V Closed Alpha: Erste GPU-Benchmarks

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Donnerwetter...Ich habe selten so viel Bullshit gelesen. Nur Performer setzt da meist noch einen drauf.

Ich lach mich schlapp.................Der Satz passt wie die Faust aufs Auge!!:lol::lol::bigok:
 
Ich komme mit meinem System auf 85-130 FPS. AVG würde ich sagen liegt bei 95 FPS
Hauptsache die Engine wird noch ein wenig optimiert, da mir die Performance aktuell auch noch zu schlecht ist.
Die 90 FPS fühlen sich an wie 60 FPS.
 
Der Alpha Status könnte schon sein.

Das ist definitiv Alpha. Der Build ist mindestens so alt wie der von den E3 Videos, und die wurden den Youtubern ja schon ne Weile vor de E3 zur Verfügung gestellt.
Gemessen daran, wie Testing Verfahren in großen Software Firmen (wie EA) normalerweise ablaufen, hat der Build hier vermutlich so ca 2 Monate auf dem Buckel, was das Alters des verwendeten Codes angeht.

Was DICE intern gerade "spielt", dürfte schon um einiges reifer sein, was bis zur Beta da ist, umso mehr.
 
Richtig.

6700k @ 4,2GHz
Vega 64 @ 1700/1100MHz

Meine GPU Auslastung lag gestern zu jedem Zeitpunkt bei 99%. Das wird nicht weniger mit einer besseren CPU, von daher ist die ganze Diskussion obsolet.

1440p @ Ultra 70-90fps

Danke!

Könntest du bitte den 1440p run nochmal mit der Einstellung High wie hier im Test machen, dann könnte man direkt vergleichen. :)
 
Das ist definitiv Alpha. Der Build ist mindestens so alt wie der von den E3 Videos, und die wurden den Youtubern ja schon ne Weile vor de E3 zur Verfügung gestellt.
Gemessen daran, wie Testing Verfahren in großen Software Firmen (wie EA) normalerweise ablaufen, hat der Build hier vermutlich so ca 2 Monate auf dem Buckel, was das Alters des verwendeten Codes angeht.

Was DICE intern gerade "spielt", dürfte schon um einiges reifer sein, was bis zur Beta da ist, umso mehr.

Jupp genau das meinte ich. Entwicklung ist meist schon deutlich weiter als das was man zu sehen bekommt. Bei den Beta Status bin ich mir aber ziemlich sicher, dass meist auch so das Releaseprodukt wird..-.-
 
Inhaltlich ja, aber Bugfixes kommen da trotzdem noch dazu bis zum Release. Day-1-Patch halt (PS: Day-1-Patches sind sinnvoll, bevor wieder jemand meckert ;) )

Sent from OP6
 
Das ist definitiv Alpha.

Mal aus Wiki: Die Anzahl an Entwicklungsstadien mit ihren Soll-Reifegraden und auch ihre Bezeichnungen variieren erheblich. Insbesondere bei Standardsoftware (inkl. Systemsoftware) legen die Hersteller häufig fest, wie sie ihre Software stufenweise entwickeln, für wen und zu welchen Zwecken sie die jeweiligen Softwareversionen bereitstellen und wie sie diese Stufen benennen. Bei der Entwicklung von Individualsoftware werden Entwicklungsstadien/Softwarereleases meist unternehmensindividuell praktiziert, sie sind oft nicht allgemeingültig festgelegt, sondern folgen projektspezifischen Gegebenheiten.

Es gibt keine offizielle Definition der einzelnen Stadien, das kann jedes Studio benennen, wie es will.
 
@brometheus: es gibt aber guides und empfehlungen, bestimmte software entwicklungaprozesse, modelle etc, die studios nutzen, und woher diese begriffe stammen.

Du wirst kein seriöses studio finden, dass eine alpha nun plötzlich als quasi-fertiges oder fertiges produkt definiert.

(PS: für diese prozesse und modelle gibts tatsächlich definitionen, ISO, IEEE etc)

Sent from OP6
 
Ich kenne einige Entwicklungsmodelle, mir ist keins bekannt in dem alpha beta etc. definiert sind. Lerne aber gerne dazu, welches meinst du denn?
 
Mal davon abgesehen, dass hier sowohl AMD als auch Intel Jünger wieder viel Mist abladen, ist was das Core-Thema angeht, leider nur zu sehen, dass sich die Anzahl genutzer Cores im Vergleich zu BF1 nicht geändert hat (bisher, ist ja noch Alpha). Schon BF1 hat "nur" 8 Threads genutzt. BF5 nutzt weiterhin nur 8 (bisher). Bei dem steigenden Core-Wahn wäre es doch schön gewesen, könnte man hier eine Entwicklung sehen.

Das halte ich für ein Gerücht - wenn du im Taskmanager schaust sollte auffallen, dass das Spiel deutlich mehr wie acht Threads nutzt. Wahrscheinlich bei BF V nicht anders.
Was hier aber hinzu kommt ist der Threadripper - Threadripper ist ein Dual NUMA Node Prozessor. Im NUMA Mode wird das Betriebssystem versuchen die Threads auf einem Node zu halten. Also selbst WENN das potentiell so wäre, dass da mehr Threads Last erzeugen könn(t)en, dann wird das OS dagegen steuern. Die einzigen Möglichkeiten um das zu umschiffen sind A) die Software NUMA aware zu entwickeln (was ich gemessen am Marktanteil vom TR für nicht gegeben halte) oder B) den UMA Mode zu fahren (mit all den Nachteilen)

Der Prozessor hier lief wohl im NUMA Mode - wie man schön am Taskmanager sehen kann. Jeder zweite Thread last "Last" und nur die obersten 50% des Prozessors sind belastet (das ist NUMA Node 0) -> das ist eindeutiges Zeichen, dass hier eine Software verwendet wurde, die NICHT NUMA aware fungiert und das OS hält den Spaß des Speeds wegen auf einem Node. Zusätzlich bedeutet das, dass die Speicherbandbreite nur zwei Kanäle umfasst, weil die Daten alle samt im Speicher von Node 0 untergebracht werden sowie, dass man min. so viel Speicher pro Node haben sollte, wie die Anwendung am Ende auch haben möchte. Bei non NUMA aware Software also Faktor 2 von nem Mainstream Desktop System. 32GB sollten das also min. sein, besser 64 für die dickeren Brocken.

Außerdem Ist ein GRAFIKKARTEN-TEST dazu da, um die GRAFIKKARTE zu testen. Dabei sollten andere Flaschenhälse einfach so gut es geht eliminiert werden.

Bedenke, das ist hier kein Grafikkartentest - das ist ein Test für die BF V closed Alpha!
Bei einem GPU-Review ist ein System, was die schnellste CPU mitbringt, eigentlich essentiell, denn man will die Leistung der GPU sehen und nicht die Leistung der CPU. Hier gehts aber wohl eher um die BF V Alpha... Durchaus nachvollziehbar, dass es auch Leute gibt, die wissen wollen, wie sowas auf dem TR performt.

und wenn du meinst dass das luxx mit einem intel highend benchen muss, wie alle anderen auch, wo es eh schon zig tests dazu gibt, dann hast du nicht verstanden worum es im luxx geht.ich finde die prozessorwahl für einen gpu test gut, ausser du siehst irgendwo ein massives cpu limit ;)

Das Problem ist eher, dass ein GPU-Review was durch einen zu lahmes CPU-Backend (und sei es nur in Teilen) eingebremst wird, eben eingebremst wird. Die Frage ist dabei am Ende, was will der Leser?
ICH (als Beispiel) als Leser will sehen wie die GPU Performt - und nicht, wie stark der Prozessor deckelt. Nen TR-GPU Test gehört für mich in ein TR-Review, gern auch weiterführend über die Zeit mit Nachtests in neuen Titeln oder mit neuen GPUs.

Hier allesdings gehts um ne Software - da ist dann eigentlich egal ob TR oder nicht, da die Software im Vordergrund steht. Es schaut im Moment so aus dass der TR die GPUs nicht bremst - wissen tun wir das aber nicht, weil wir den Gegentest nicht haben.

Viele kennen nicht mal den Unterschied zwischen einem Ringbus und gitterfärmigem Cache bzw. Mesh System. Selbst ein getakteter Haswell oder Broadwell-E wäre hier die bessere Wahl gewesen.

Ehrliche Frage, was spielt der "Unterschied" für ne Rolle?
Das Meshkonstrukt oder besser gesagt, die aktuelle Umsetzung in SKL-X krankt primär, weil der Spaß nur mit 3GHz oder so läuft. Ein 8700k rennt auch mit 5GHz Uncore - das sind Welten Unterschied.

Aber kann irgendwer sachlich korrekt ermittelte Werte mit nem 3GHz Mesh vs. 3GHz Ringbus aufzeigen? Alles labern immer nur, der Mesh ist scheiße - aber bewiesen hat das keiner. Das Meshkonstrukt hat viele Vorteile ggü. dem Ringbus, speziell bei breiteren CPUs. (und das will man ja irgendwo auch) Der aktuelle Nachteil ist eher die Taktbarkeit. Woran das genau liegt, ist schlicht nicht zu beziffern... Der Ringbus beim HWE/BWE ging damals auch nicht übermäßig im Vergleich und ein nicht übertakteter HWE/BWE 6C/12T Prozessor sieht ggü. nem 5GHz 8700k in diesen Sachen auch absolut kein Land. Die gleiche Diskusion führte man damals mit Sandy-E/Ivy-E, die ggü. ihren Desktop Vertretern eben nicht mehr mit vollem CPU Takt beim Uncore kamen.

Was ich persönlich aber viel schlimmer finde ist nicht das Problem ansich, sondern dass da immer so komisch Argumentiert wird. Keiner bringt Fakten, aber alle wollen wissen wie das funktioniert... Bewiesen wurde aber gar nix, nachvollziehbar ist nix und ein Interesse, das zu tätigen ist auch nicht vorhanden :(
 
Was ich persönlich aber viel schlimmer finde ist nicht das Problem ansich, sondern dass da immer so komisch Argumentiert wird. Keiner bringt Fakten, aber alle wollen wissen wie das funktioniert... Bewiesen wurde aber gar nix, nachvollziehbar ist nix und ein Interesse, das zu tätigen ist auch nicht vorhanden :(

Korrekt, würde hier auch gern mal ein paar Fakten in Form von Benchmarks sehen, wo sind die Leute mit Intel CPUs die das ganze mit einer 1080ti oder Vega mal nachbenchen, traut euch doch einfach mal … :)
 
Holzkopf, die Benchmarks Mesh vs. Ringbus habe ich schon letztes Jahr angefertigt im September oder so. Da hattest du bestimmt noch einen anderen Account oder so. Vielleicht hattest du es ja gelesen.
Wen es interessiert: Man findets im 3d Center im SKL-X Review Thread oder hier im Skylake X Laberthread. Kein Bock das alles hundert mal zu posten oder rauszusuchen.

Es macht auch absolut keinen Sinn Mesh 3ghz vs Ringbus 3Ghz zu testen. Wer taktet denn bitte den Ringbus auf 3Ghz runter? Fakt ist dass der Mesh für Gaming suckt. Das habe ich anhand von Benchmarks aufgezeigt.
Sucht es euch selbst raus :bigok:
 
@Even Deine CPU läuft echt mit 5,4Ghz? Krass

In BF5 limitiert bei meinem System ganz klar die GTX1080ti.
Leider bekomme ich nicht mehr als 2012/6000 Mhz aus meiner GPU rausgequetscht.

Wenn ich auf 1080p zurückgehe, ist meine CPU manchmal bis zu 90% ausgelastet.
Echt heftig, was BF5 für Anforderungen an das gesamte System stellt.
 
:popcorn:
Ich sehe den 1950x auch nicht als optimal Cpu um eine Gpu zu testen.
 
Ich finde es gut das ihr den TR genommen habt. Die Dice Leute haben ja verlauten lassen, dass die Engine mit aktiviertem Raytracing selbst noch mit 12 Kernen Skaliert. Da man aus Sicherheitsgründen bei Intel nach neusten Erkenntnissen HT lieber ausschalten sollte, bleibt für BF5 im bezahlbaren Bereich ja eigentlich nur noch AMD Hardware. Ok, hier schwingt ein bisschen Frust über die Sicherheits und Informationspolitik von Intel mit ;)

Auffällig ist wie gut die Vega hier abschneidet.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh