x87 Fix für Piledriver-basierte AMD-Prozessoren

oese

Urgestein
Thread Starter
Mitglied seit
25.02.2006
Beiträge
9.655
The Stilt im Xtremesystems-Forum hat einen Fix für die x87-Recheneinheiten des Chips gefunden, der die Prozessoren in x87-lastigen Workloads (welche inzwischen äußerst selten sind) einige Prozent schneller macht. Link zum Download und weitere Infos im verlinkten Post/Thread:


The Book of Bulldozer - Revelations: Episode 2 (SuperPI / x87) - Page 3
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schon ein ordentlicher Sprung. :bigok:
 
Habe es heute ausprobiert FX8350 @ 4 Ghz 18,996 Sek für den 1 M :)

Aber wie gesagt, ist halt nicht mehr wirklich von Belang.
 
Interessant wäre höchstens noch, wenns was in CPU-Physx bringt.

Muss auch erst noch mal testen... ;)

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
@Gustav:

Für die Leute, die bei hwbot benchen ist es von Belangen, aber sonst eher weniger, das stimmt. :)

PS: Deine SuperPi Angabe bringt ohne Vergleichswert nicht wirklich was. ;)
 
Es dürfte noch so einige Benchmarks geben, wo AMD zurückfällt, allen voran Spiele mit GPU-Physx, hier sollte es eigentlich 30% mehr Leistung geben, bitte überprüfen, hab aktuell keinen FX mehr :(
 
Bei GPU-PhysX? x87-Spiele?

Vermutlich geht es darum, dass die PhysX SDK 2.x hauptsächlich noch x87 Code nutzt und nur zum Teil SSE Code nutzen kann: CPU PhysX: x87, SSE and PhysX SDK 3.0 - 3D Tech News and Pixel Hacking - Geeks3D.com
Nvidia: We're not hobbling CPU PhysX | ITProPortal.com

Und dass selbst Spiele die Ende 2011 erschienen sind noch nicht das neuere SDK 3.x nutzen: Batman Arkham City: Technical advantages of the PC version - DX11 tessellation and more - - PC Games Hardware
 
Bei mir ohne Patch 1M SPI: 19.469
mit Patch: 16.364

- 16 % !

(Vishera @ 4,6 Ghz)
 
bringt dieser hack auch bei spielen nen vorteil oder nur beim SuperPi??
Weil wäre ja mal richtig geil wenn man durch nen hack in games erstmal 30% mehr speed bekommen könnte weil dann würde der BD in ein anderes licht gerückt werden
 
muss noch getestet werden. hilft nur bei x87 code. skyrim hatte anfangs probs, weil viel mit x87 gearbeitet wurde.
 
finde das lächerlich das so alte befhelssätze noch verwendung finden.
Was bringt einem eine moderne cpu wenn diese nicht richtig effizient angesprochen wird...
 
Außer PhysX, dessen CPU-Optimierung ja von NV blockiert wird, gibts keine x87-Software mehr. Ist aus den x64-Designrules ja auch komplett rausgeflogen und nur deshalb noch aktiv, weil die x64-Prozessoren noch mit 32bit kompatibel sein müssen. GPU-PhysX ist eh tot, NV sollte sich endlich mal nen Ruck geben und das auf moderne Befehlssätze optimieren. Dann würde PhysX auch besser von den Spielehersteller genutzt werden.
 
Zuletzt bearbeitet:
Stimmt bei den neuen Versionen ist es endlich raus.
 
SSE2 ersetzt den gesamten x87 Befehlssatz. Deshalb ist in der x86-64 Spec von AMD auch kein x87-Code mehr vorgesehen. Die CPUs schleppen den Befehlssatz aus Kompatibilitätsgründen noch mit herum. x87 ist mittlerweile als vollständig irrelevant für die Performance anzusehen, da er so gut wie gar nicht mehr eingesetzt wird. In Skyrim (die letzte große Ausnahme) ist er ab Patch 1.3 ebenfalls nicht mehr im Einsatz, seither läuft das Spiel akzeptabel schnell ;).
 
Zuletzt bearbeitet:
y33H@ schrieb:
x87 wird in PhysX eh nicht mehr genutzt.

Soviel ich weiß gibt es schon eine auf multithreading ausgelegte Physx Version, jene wird aber nicht genutzt, soweit mir bekannt ist.
 
x87 definiert "simple" operationen auf floats/gleitpunktzahlen.
x86 instruction listings - Wikipedia, the free encyclopedia

Deshalb behaupte ich mal es ist nicht möglich komplett darauf zu verzichten.
Naja, das sind alles andere als "simple" Operationen. Es sind eher einige komplexere Instruktionen, die nur in x87 definiert sind. Spontan fallen mir trigonometrische Operationen ein (sin/cos/tan usw). Diese lassen sich aber mittels SSE bzw AVX relativ gut nachbilden. Mehr dazu zB hier bzw hier. Das ganze scheint auch recht performant zu sein. Insofern sage ich mal, es ist möglich, komplett auf x87 zu verzichten. Und die 80-bit Genauigkeit von x87 ist auch kein Argument. Mehr als 64-bit Genauigkeit braucht kein normaler Anwender. Und für die, die mehr brauchen, vor allem in wissenschaftlichen Bereichen, sind dann auch 80-bit zu wenig.
 
Fragt sich nur in welchen Games bereits SDK 3.x verwendet wird? Wenn z.B. Batman von Ende 2011 noch das SDK 2.8.4 verwendet. Und wenn man es manuell einschalten kann, wäre es dann nicht auch möglich es manuell auszuschalten beim SDK 3.x?

Oder sind bei aktuellen PhysX-Games tatsächlich alle 6-8 CPU-Kerne ausgelastet wenn keine Nvidia-GPU im System steckt und die Effekte von der CPU übernommen werden (natürlich nur bei aktivieren von hohen PhysX-Details)? Für mich tun sich da mehr Fragen auf als beantwortet werden.
 
Zuletzt bearbeitet:
SDK3.x wird soviel mir bekannt ist, gar nicht verwendet, weil Nvidia es zurückhält.
 
Seit SDK 3.x, aber wenn man es manuell macht, schon vorher - siehe Metro 2033.

Wieso manuel?
Auch die 2er Version unterstützt voll Multithreading bis 16 Threads definitiv, mehr bis dato nicht probiert. Siehe Fluidmark ;)

Mich würde aber dennoch interessieren, wie man Metro dazu überredet bekommt, mehr als einen Thread mit PhysX Berechnungen zu füttern :wink:
 
Zuletzt bearbeitet:
Also ich hab schon öfter mal Physx über die CPU berechnen lassen und da ist mir noch kein Fall untergekommen, wo man sehen konnte dass mehr Threads da wirklich etwas bringen, zumindest wars noch bei Boardlands, Batman Arkam Asylum und Mafia 2, sowie auch Metro 2033 so und ich denke kaum dass die neue Version da etwas besser macht, auch wenn da multithreading unterstützt werden soll, wird es vermutlich gar nicht genutzt.
 
Wieso manuel? Auch die 2er Version unterstützt voll Multithreading bis 16 Threads definitiv, mehr bis dato nicht probiert. Siehe Fluidmark.
Der Fluidmark nutzt doch nur mehr Emitter, sonst nichts - iirc.

@ Schaffe89

X6-Gaming-Verlauf-Metro-800.png
 
Zuletzt bearbeitet:
Der Fluidmark nutzt doch nur mehr Emitter, sonst nichts - iirc.

richtig, aber das lässt sich auch auf Games ummüntzen, zumindest in der Theorie. Scheinbar ist den Spieleherstellern aber nciht dran gelegen, dies auf absolutes MT zu trimmen. Machbar ist es auf jedenfall. Aber ggf. unterbindet NV das auch. Denn ne schnelle CPU steht ner mittelklasse GPU so viel nicht nach im Fluidmark. Und das soll schon was heißen ;) Gibt man der GPU dann zusätzlich wie typisch in Games noch massiv was zu tun in Sachen Bildberechnung, könnte ne CPU allein schon sehr sehr nahe an die Ergebnise rankommen, wenn nicht gar schneller sein... -> und dann geht noch das letzte pro PhysX per GPU Argument verloren ;)
 
Naja, da die PS4 Physxs unterstützen wird, wird es wohl weiter richtung CPU-Berechnung gehen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh