[Sammelthread] NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU

NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU


nvidia_physxpa5j.png


Hallo Leute,
da in den letzten Tagen vermehrt über Performancemessungen und Bildqualitätsvergleiche in PhysX Anwendungen diskutiert wurde, möchte ich an dieser Stelle eine Plattform schaffen, welche allen einen möglichen Überblick über die derzeitige PhysX Umsetzung seitens NVidia gibt.

Der Thread wird von Zeit zu Zeit mit neuen Ergebnissen gefüllt.


1. Fluidmark

Als erstes möchte ich anhand des Benchmarks Fluidmark Version 1.2.0 (Downloadlink) aufzeigen, was man von aktuellen CPUs/GPUs erwarten kann.
Natürlich könnt ihr hier auch mit euren mit Sicherheit teilweise besseren Systemen Werte posten, welche ich dann auch gerne im Startpost übernehmen werde.

Fluidmark ist ein Tool, welches mithilfe des PhysX SDKs erstellt wurde. Es nutzt in der aktuellen Version 1.2.0 volle Multicore/Multi CPU Funktionalitäten. Es ist in der Lage, die Berechnungen auf aktuellen (seit dem G80) NVidia GPUs auszulagern.
Dies lässt einen sehr schönen Vergleich zwischen CPU und GPU Leistung zu.

fuildmark_demo2bt7.jpg

Fluidmark Version 1.2.0 Beispielbild​

In Fluidmark wird die Auslastung mehrerer CPU Kerne dadurch erreicht, indem man mehrere Quellen (sogenante Ermitters) für die Partikel im Bild verwendet. Soll die Berechnung in einem Thread ablaufen, so verwendet man eine Quelle. Soll sie in zweien ablaufen, so eben zwei usw.
Aktuell kann man bis zu 31 Quellen im Bild platzieren und hat somit Support für maximal 31 Threads. Selbst für aktuelle Dual Hexacore Systeme (Intel Nehalem EP) oder aktuelle AMD Dual 12 Kern Systeme steht also nix im Wege...


Ich habe auf meiner Workstation also ein paar Test laufen lassen...
Zunächst einmal die Hardware/Software:
CPUs: 2x Intel (Woodcrest) Xeon 5160 @ 3,33GHz
RAM: 10240MB DDR2-667 FBDimm
GFX: PoV NVidia Geforce 465GTX @ 470GTX @ 750/1500/1600MHz
OS: Windows Vista Business SP2 x64
Treiber: Forceware 258.96 + PhysX 9.10.0513

1.1 Fluidmark Einstellungen:

Also ich habe mal verschiedene Konstellationen durchgetestet. Alle Tests liefen mit folgenden Settings:

fuildmark_settings2heq.jpg

Fluidmark Einstellungen (nicht über den Screen wundern, der ist mit einem anderen PC geschossen)

- 1680x1050, 0xMSAA
- Fullsreen
- enable Multi-core PhysX
- disable Async mode
- benchmarking
- Time-based = 60000ms
- use particle count = 10000-120000
- # of ermitters = 1-31
- enable Force PhysX CPU (or disable for use GPU)


1.2 Messwerte und Erklärung:

fluidmark_1.2.0_physx_xfog.jpg

Messwerte - Spalten=Partikel, Zeilen=Berechnungsart​


Man erkennt sehr schön die 1A Skallierung bei steigender Anzahl der CPU Kerne. Mein System hat zwei physische CPUs mit jeweils zwei CPU Kernen. Normal müsste die Skallierung größer 4 Ermitters stark wegbrechen. Trotzdem skalliert das ganze mit steigender Anzahl der Ermitters weiter. Zwischen 4 und 31 liegen grob 40% Performancezuwachs. Die CPU Auslastung lag bei den CPU Tests idR bei 99-100% (außer eben bei den Tests mit weniger als 4 Ermitters)
Die Messwerte für einen CPU Ermitter sinken ab einem bestimmten Punkt nicht mehr. Das liegt daran, das eben ein Ermitter nicht ausreicht um die ganzen Partikel ins Bild zu bringen. So sind die Ergebnisse immer gleichbleibend. Aus Vergleichsgründen habe ich bei diesen Werten eine "0" vergeben, um die Vergleichbarkeit zu wahren, denn im Bench musste die CPU bei einem Ermitter ab 70000 Partikeln nur noch ~65000 berechnen...

Die GPU Werte sind ebenso unten angehängt.
Man erkennt sehr schön, das die GPU weniger stark einbricht, als es die CPU tut. Dennoch sinken die FPS Raten größer 110000 Partikeln unter die 25er Marke.
Mit dem letzten Punkte hatte ich versucht eine 460GTX zu simulieren. Da eine 470GTX in Schnitt ohne AA/AF in etwa 25% schneller rendert als eine 460GTX, habe ich die Taktraten für GPU und Shader im selben Verhältniss (ca. 25%) abgesenkt. Zu meinem Erstaunen musste ich feststellen, das aber die Messwerte weit weniger gesunken sind. Es scheint also so, das PhysX bzw. speziell Fluidmark deutlich mehr auf mehr Ausführungseinheiten reagiert als auf Takt derselben... Aus diesem Grund habe ich die Messwerte mit den Standard 470GTX Taktraten gleich weggelassen und nur OC vs. simulierte 460GTX getestet. Die echte 470GTX liegt so ziemlich genau zwischen den Messwerten, was ich Stichprobenartig ausgetestet hab.

Zum Schluss noch das ganze in einem Diagramm zusammengefasst:

fluidmark_1.2.0_physx_ug49.jpg

Diagramm​

1.3 Fazit Fluidmark:

Wie man anhand der Messwerte sehen kann skallieren selbst betagtere PC Systeme (mein Testsystem ist von Jan. 2007) sehr gut mit PhysX. Im Vergleich zum CPU Test gewinnt die aktuelle HighEnd GPU ca. um das 2,5 fache. Leider sind diese Werte bei weitem nicht beeindruckend in meinen Augen. Denn wenn man bedenkt, aktuelle HighEnd NVidia GPUs können bis über 1000GFlop/s liefern. CPUs schaffen da nur einen Bruchteil im Bereich 50GFlop/s. Es bleibt unterm Strich also eine extrem ineffiziente Umsetzung seitens NVidia für die GPU.
Aber, man muss ebenso erwähnen, die Werte stützen sich einzig und allein auf einen Benchmark. Im Moment fehlt es aber an weiteren Aussagekräftigen und vor allem Vergleichbaren Benchmarks um mehr Messwerte zu erziehlen.



2. BQ Vergleich Mafia II Benchmark:

Zuguter letzt in diesem Thread möchte ich noch ein kleines Vergleichsvideo vorstellen. Ich habe Mafia II einmal im CPU Modus und einmal im GPU Modus gebencht. Die Leistung soll hier in erster Linie erstmal im Hintergrund stehen. Sondern es geht einzig und allein um die Vergleichbarkeit dieser beiden Messungen.
Man erkennt sehr schön, das beide Messungen etwas unterschiedlich sind... Aber bildet euch selbst eine Meinung ;)

YouTube - Mafia_II_PhysX_Vergleich_CPU/GPU

Am besten ihr schauts in 720p an, sonst leidet die Qualität leider ein wenig ;)



letztens - Allgemeiner Hinweis

Dies ist ein Sammelthread für NVidias PhysX und dessen Umsetzung, das heißt, es darf und soll hier über die Software und auch über die Umsetzung diskutiert werden.

Was allerdings nicht hier rein gehört:
- Offtopic Beiträge (beispielsweise eine Technikdiskussion über die Architektur des RV770 a la HD 48x0), Gespamme oder "Privatkriege -> NV vs. ATi".
- Sinn und Unsinnigkeitsmeldungen über PhysX

Es ist nur im Interesse des Forums, dass es hier gesittet abläuft.

Bei Postings, die zu sehr OT sind oder etwa nur reine Provokation, am Besten gar nicht darauf eingehen, sondern durch Benutzen des "Beitrag melden-Buttons" (
report.gif
) die Moderatoren/-innen die Angelenheit regeln lassen.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen, so können auffällige User eine Auszeit von diesem Thread erhalten.


In diesem Sinne...
fdsonne :wink:
 
wird zeit das hier genie timeline eingeführt wird ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Mafia 2 ist ne GTX460 als reine PhysiX Karte bestimmt kein Overkill.
mayer2

Wie ich schon hier früher schrieb: in Mafia2 gibts bei gtx460 Auslastngsspitzen von mal 51%, mal 52%... Ausschlaggebend ist Anzahl der Shader - bei gtx460 = 336. Also würde 'ne alte gtx260 oder 'ne gts450, also eine Karte mit 192 Shadern VOLLKOMMEN für PhysX-Berechnungen ausreichen, auch wenn man 480er taktet!
Aber man kauft sich so was nicht nur um HEUTE was zu zocken, sondern will auch etwas Zukunftssicherheit haben - also ist eine gtx460 sicherlich eine gute Entscheidung. Einzig 1024MB-Version war 100% Quatsch von mir (siehe ca 20 Posts weiter oben) - eine 768MB-Version wäre mit Sicherheit genau so potent (Shaderanzahl ausschlaggebend!).
 
mayer2

Wie ich schon hier früher schrieb: in Mafia2 gibts bei gtx460 Auslastngsspitzen von mal 51%, mal 52%... Ausschlaggebend ist Anzahl der Shader - bei gtx460 = 336. Also würde 'ne alte gtx260 oder 'ne gts450, also eine Karte mit 192 Shadern VOLLKOMMEN für PhysX-Berechnungen ausreichen, auch wenn man 480er taktet!
Aber man kauft sich so was nicht nur um HEUTE was zu zocken, sondern will auch etwas Zukunftssicherheit haben - also ist eine gtx460 sicherlich eine gute Entscheidung. Einzig 1024MB-Version war 100% Quatsch von mir (siehe ca 20 Posts weiter oben) - eine 768MB-Version wäre mit Sicherheit genau so potent (Shaderanzahl ausschlaggebend!).

Du kannst von der Auslastung der ALUs leider nicht auf die PhsyX Performance schließen, auch wenn das logisch so sein müsste ;)
 
jo, habs gefunden ;) ooo mein fehler.
Habe meine gtx 480 auf den ersten PCIe stekplatz angeschlossen und die GTX 460
auf den zweiten. Dieser wird aber nur mit 8 Lanes angebunden. Ich habe jetzt de GTX 480 auf den ersten und die GTX 460 auf den 3 Steckplatz gestekt. und schon funktionierts ;)
 
Ich ahbe da mal noch eine Frage ;)

Gestern habe ich mal Vantage durchlaufen lasse und gemerkt, das ich ca. 1500 Punkte weniger habe, wenn ich PhysX über die gtx 460 laufen lasse ?
Ist das normal ?

Auserdem wird die Karte nicht wärmer als 40 Grad warm ( Luftkühlung ) kann ich da allso ohne Probleme übertakten ?
 
Schau Dir das Bild an das bei Vantage gerechnet wird während des PysX-Tests. Und dann überleg welche der beiden Karten bei dem Bild schneller sein könnte.
(Falls es Dir nicht sofort aufgeht helfe ich noch: Bei dem lustigen Bild hat die Graka NIX ZU TUN, sie kann praktisch 99% ihrer Ressourcen dazu benutzen PhysX zu berechnen, und das kann die 480er nun mal deutlich schneller als die 460er. Das aufzuteilen macht nur Sinn wenn die Anwendung die läuft so hochqualitative Bilder produziert dass sie Graka die das Bild berechnet keine Ressourcen mehr übrig hat für PhysX).

Das ist der Unterschied zwischen Benchmark und Realen Anwendungen
 
Zuletzt bearbeitet:
Das habe ich mir fast gedacht ;=)

Danke für die Antwort.
Im normalem Gameplay ( Metro2033 ) hab ich ca 10 bis 15 FPS mehr.
Da bestätigt sich deine Aussage.
 
Auch wenn hier lange nix mehr passiert ist, will ich mal wieder ein paar Ergebniss nachschieben.
Der Testaufbau hat sich etwas geändert und die spannende Frage ist, wie skaliert die PhysX Leistung mit schnellerer Hardware, speziel was die CPU angeht... Und siehe da, die Tendenz zu Anfang bestätigt sich exakt. Das Teil rennt wie Hölle ;)


Ich habe maßnehmend auf die Einstellungen zu Anfang (Startpost) den Test einfach mal wiederholt auf einem i7 2600K @ 4500MHz (inkl. SMT). In der Tabelle habe ich der Einfachheit halber nur 60000 und 120000 Partikel genommen, um einen groben Überblick zu geben. Skalierungstechnisch verhält es sich natürlich exakt identisch der damaligen Messung, nur eben ist es schneller, und das nicht zu knapp ;)
In Sachen GPU hat sich bis dato nix nennenswertes getan, außer das es nun zwei 470er sind ;)

1mlkpx.jpg


Die Tabelle zeigt beeindruckend, das trotz in der Theorie wohl einer Leistungssteigerung von ca. 100% die Sandy Bridge i7 CPUs ziemlich gut mit PhysX klar kommen, wenn man sie denn lässt (sprich die Threads nicht künstlich begrenzt, wie es NV gern mal tut)
Die Leistungssteigerung von teilweise fast 200% spricht Bände.
Auffallend ist ebenso, das dank der schnelleren CPU, der GPU Test auch gehörig zugelegt hat, aber nicht im selben Maß, wie es der CPU Test only macht.


Das Ergebnis zeigt also eigentlich weiterhin das selbe Bild, die GPU ist zwar schneller, erkauft sich dies aber durch enormen Mehrverbrauch, würde man heutige schnelle Quadcore CPUs ordentlich ausfahren ohne künstliche Bremse, dann wäre da weit mehr drin in Sachen PhysX.


Zum Abschluss hab ich nochmal was anderes getestet. Auflösung diesmal FullHD 1920x1080 ohne aktives MSAA, Partitkelcounter wieder 60000/120000. Da ich seit geraumer Zeit zwei 470er mein Eigen nenne, stellte sich mir die Frage, wie viel Leistung legt der Bench zu, wenn man die PhysX Berechnung auf eine zweite GPU auslagert. Das Ergebniss ist wie folgt:

2nikh6.jpg


Ehrlich gesagt verwundert mich das ganze ein wenig. Ich habe den Test mehrfach wiederholt, dazu in verschiedenen Settings usw. aber das Ergebnis gleicht sich in Sachen Relation zwischen 1xGPU und 2xGPU nahezu aufs Prozent genau.
Schaltet man PhysX dediziert auf die zweite GPU, damit eine GPU für das Bild, die zweite eben für PhysX zuständig ist, so ergibt sich egal was ich mache eine Leistungssteigerung von ca. 12-15%. Fast unabhängig vom Partikelcount, von der "ermitters"-Anzahl oder auch vom GPU Takt.
Dazu kann man noch erwähnen, das ganze geschieht genau dann, wenn man die GPU nicht überlastet!!
Was natürlich nun passieren kann, gibts zu wenig Partikel, so ist die FPS Rate so hoch, das die Geschichte CPU Limitiert wird (13% CPU Auslastung, somit limitiert ein Core), dazu gibts irgendwann nicht mehr FPS, weil die frei werdenden GPU Ressourcen für eben die FPS drauf gehen.
Andererseits, legt man zu viele Partikel auf die GPU, so bricht die FPS Rate irgendwann so drastisch weg, das eben der Bildberechnungsteil auf der GPU nix mehr zu tun hat, weil alles für PhysX drauf geht.
Bewegt man sich aber im Mittelfeld, sprich zwischen CPU und GPU Limit, skaliert die Leistung von einer auf zwei GPUs immer im gleichen Maße mit besagten 12-15%.


Fazit:
Mit steigender CPU Leistung wird in meinen Augen GPU PhysX immer uninteressanter. Schaut man sich das nunmal an, so gibts mit der GPU gerade mal ca. 50% Mehrleistung, dafür braucht das Teil (in meinem Fall) locker seine 200-250W. Wohingegen die CPU bei dem Takt wohl im Begnügsamen Bereich von 130-150W (wenn überhaupt so hoch) agieren dürfte.

Auch nutzen die ganzen Meldungen über neue PhysX Versionen mit ach so gutem Multicore Support absolut rein gar nix :fresse: Denn wie man sieht, gehts auch mit den jetzigen Versionen 1A acht Thread CPUs voll auszufahren.
Bleibt also weiterhin die Frage, wann NV die Bremse endlich mal lösen will ;)
 
Moin
Ich hab nen 3930k und zwei GTX580er im SLI.
Wie ich das nun erkennen konnte, ist es sinnvoller, die PhysX Berechnungen der CPU zu übergeben oder?
 
Moin
Ich hab nen 3930k und zwei GTX580er im SLI.
Wie ich das nun erkennen konnte, ist es sinnvoller, die PhysX Berechnungen der CPU zu übergeben oder?

Sinnvoll nur dann wenn man davon ausgeht, dass alles mit aktuellen PhysX SDK erstellt wurde, was leider nicht der Fall ist, denn die meisten Spiele würden in diesem Fall nur ein Kern deines 6-Kerner nutzen und nicht mal das optimal, daher ist in diesem Thread öfter mal die Rede von einer "künstlichen Bremse"

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Das liegt nicht am SDK, keines wegs... Schau auf den Startpost... Der ist ganz paar Monate alt ;) Da war lange nicht die Rede wie aktuell, wo man seitens NV das ganze Multithreaded propagiert. Komischerweise gehts aber doch, und das nicht zu knapp ;)

Die Frage ist, wo ist das Problem?
Rein aus marketingsicht ist es vollkommen nachvollziehbar, was NV da veranstaltet. Die wollen ihr GPU PhysX verkaufen, was soweit ich weis, den Spieleprogrammierer Lizenzgebühren kostet. Der Spieleprogrammierer hingegen will bzw. muss für diese Lizenzkosten nun auch was exkulives bieten. Er dreht also die CPU PhysX Version soweit dicht, das man volle Details nur über die GPU bekommt. Obwohl noch Luft in Sachen CPU Leistung wäre. Der Endkunde ist in dem Fall also wiedermal der "dumme", entweder er hat ne potenzielle PhysX GPU, oder eben nicht.
Das Problem ist aber, nicht jede GPU taugt auch für volle Details, gerade Mittelklassekarten sind oft schon mit dem Spiel selbst überfordert. Da bleibt keine Luft mehr nach oben für GPU PhysX, wohingegen sich schnelle Quadcore CPUs oft langweilen.

Solange es aber keinen echten Konkurenzkampf in Sachen Physikengines bzw. Möglichkeiten gibt, wird sich daran mit größter Warscheinlichkeit nix ändern.
Ein paar Alternativen rein für die CPU gibts ja mittlerweile schon... BF3 beispielsweise bringt gute Physik rein auf der CPU. Es wird also schwerer mit der PhysX GPU Version ;)
 
FDSonne
Danke für super Erklärung!
BF3 Physik ist OK, sicherlich ein guter Kompromiss. Wäre aber trotzdem genial, wenn nV die PhysX Politik etwas lockern würde, wenn der Spielemacher schon nicht selber über die Optimierung entscheidet. Dann hätten wir alle was davon. In dieser Hinsicht bin ich sehr auf Last Light gespannt.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Spiele ja wirklich nicht gerne den Leichenfledderer... aber wie ist denn der aktuelle Stand von PhysX?

Scheint ja gemäss der aktuellen Liste von NVidia ( PC-Spiele ) doch einige sehr aktuelle Titel zu geben die Physx unterstützen.

Lohnt es sich sehr? Wie sind eure Eindrücke?

Ich spiele Borderlands 2 mit meinem System, und habe Physx aktiviert, und läuft auch MEISTENS sehr gut mit der R290, trotzdem auch immer wieder mal Framedrops bis runter auf 20 FPS, da Physx ja von der CPU berechnet wird.

Da dieses Spiel bei mir eine extreme Langzeitbeschäftigung darstellt bin ich wirklich schwerst am überlegen mir eine NVidia Karte zu holen um die Frameeinbrüche zu eliminieren. Zumal habe ich einige der Titel auf der NVidia Seite bereits in meiner Bibliothek (ARK, GTA5, das Wolfenstein Old Blood, usw.)
 
Lohnt es sich sehr? Wie sind eure Eindrücke?
Meine vorletzte Graka war die letzte GeForce..hatte die damals auch nur geholt, weil PhysX angekündigt war. Demos sahen toll aus - was in Spielen umgesetzt wird ist lächerlich :/

Hatte die Tage dieses Video von PCGH geschaut - und war alles andere als begeistert. Assassin's Creed: Black Flag wird hier ohne und mit PhysX vorgestellt. Etwas mehr Rauch bei Rauchbomben und 2/3 des Videos beschäftigen sich mit dem Rauch der oben auf den Häusern aus den Schornsteinen kommt...dass wenn ich durch den Rauch laufe, dieser auf mich reagiert. Wow...überwältigend... :stupid: Und dadurch wird eine 780ti in die Knie gezwungen..
https://youtu.be/1HqaYeyhDz0?t=1m43s

Werde zu meiner Radeon die alte GTS450 einbauen, da ich inoffizielle Treiber gefunden habe, welche die PhysX berechnung auf der GeForce erlauben. So habe ich zumindest keine Extra-Kosten und die alte Karte liegt nicht rum...aber ne Karte extra nur wegen PhysX holen würde ich nicht.
 
Zuletzt bearbeitet:
Stellt sich die Frage bei SW PhysX doch gar nicht, nimmt man einfach mit.

Gibts eigentlich irgendwo nen Benchmark mit allen erhältlichen CPUs?
Ich steige in paar Monaten endlich auf nen Xenon um...der hätte drei Kerne wohl meistens im Leerlauf beim Spielen. Wäre interessant zu wissen, ob das dann schneller als die GTS450 wäre ;) Wird wohl ein E3-1241v3 werden.
 
Zuletzt bearbeitet:
Er meint wohl damit, dass man gar keine GeForce braucht, da wenn du PhysX aktivierst, das auch über die CPU läuft (falls diese auch potent genug ist ;) ). Es ist halt da - egal ob du ne GeForce hast oder nicht.
 
So isses.
Schau Dir meinen Link an.
Von der ellenlangen Nvidia-Liste hat nur ein winziger Bruchteil tatsächlich HW-Unterstützung. Nur bei denen musst Du Dir überlegen ob es sich für Dich "lohnt" eine PhysX-Karte (oder nvidia Graka) zu besorgen.
 
Ach so.

Sorry, ich hatte dann wohl selbst ein (in dem Fall) nicht unwichtiges Detail vergessen zu erwähnen. Mir ist völlig klar dass im Moment (4770K, R290) jegliche PhysiX Berechnung auf die CPU abgewälzt wird.

Dann ist es also so, dass ein 4770K @ 4.2 Ghz nicht ausreichend ist um die PhysX in Borderlands 2 auf High stets und auch bei voller Action flüssig zu berechnen. Dort finde ich es schon relativ "intensiv".
Wenn da mal 50 Gegner und 2 Menschen im Coop in 2 Min den halben Erdboden zerpflücken gibt es schon einiges zu berechnen.
Es sind zwar wirklich keine all zu spektakulären Eindrücke, aber mir gefällt es schon sehr, speziell mit den Flüssigkeiten und wie sie sich verhalten, oder die Erde und der Wind. Es lebt alles ein Stückchen mehr.

Ich kann mit Fug und Recht behaupten dass diese Option meinen Spielspass - speziell auf Borderlands bezogen - massiv gesteigert hat. Wenn man sich das ansieht und gefallen daran gefunden hat... herrlich!


Wenn sie da am Ball bleiben würden wäre mMn sehr viel mehr geile GFX da. Leider wird es eigentlich nur als "aussenseiterisches" Thema von manchen Gameprogrammierern halt irgendwie mit reingewurschtelt und implementiert, so als Zusatzoption eben.

Ich habe das Gefühl dass seit Jahren sich im Grunde genommen nur die Texturen wirklich verbessern, aber so richtige "woahhh" und "aaalteeer schau dir das an" - Eindrücke sind grafiktechnisch schon lange nicht mehr so intensiv wie früher. Physix ist denke ich ein viel zu vernachlässigtes Element, wenn da noch mehr drauf gegeben wäre... bin kein Grafiker / Gameprogrammierer, es hat aber sicherlich potential einer positiven Ergänzung zum Ganzen.

Gibt es denn noch irgendwelche Methoden PhysX zu beschleunigen (bis auf ne NVidia Karte kaufen)?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh