NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

Ein Youtuber den ich gestern gesehen habe hat das erwähnt, ist euch schon aufgefallen das es bei dem bisher von Nvidia gezeigten DLSS 3 Material keine Kamera Schwenks gibt?
Schaut euch mal die Cyberpunk oder Spiderman Videos an. man ist immer hinter der Spielfigur und es geht immer grade nach vorne.
Nicht einmal wird während der Bewegung die Kamera benutzt, sieht ziemlich unnatürlich aus und offenbar will man etwas nicht von sich aus zeigen.
dlss3.png


Sieht auch schon ohne Kamera schwenken gruselig genug aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Youtuber den ich gestern gesehen habe hat das erwähnt, ist euch schon aufgefallen das es bei dem bisher von Nvidia gezeigten DLSS 3 Material keine Kamera Schwenks gibt?
Muss ein mieser Youtuber gewesen sein... Wenn's hier keine Kameraschwenks gibt wo dann?

Edit: Vermutlich ist die rechte Bildhälfte dann künstlich nachgeschärft auch noch. Zumindest am guten 4K Monitor sieht hier DLSS3 sogar schärfer aus.
Edit 2: Hier gibts ab der 2ten Videohälfte nur Kameraschwenks
Edit 3: Auch hier sind sogar schnellere Kameraschwenks vorhanden

Also ja Cyberpunk war das EINZIGE Material in dem man sich primär auf die Umgebung konzentriert hat

Edit4: Dafür wird in Cyberpunk bei Digital Foundry ab 1:50 fleißig geschwenkt
 
Zuletzt bearbeitet:
Irgendwie habe ich null Bock auf die 4000er Serie, mich überzeugt das alles nicht. AMD kommt nicht in Frage, dieses rumgefummel im Treiber regt mich schon auf wenn ich daran denke.

Ich hoffe, dass es die nächsten Tage oder Wochen eine brauchbare 3090 für um die 1K gibt, dann werde ich zuschlagen und die 4000er auslassen.
 
Muss ein mieser Youtuber gewesen sein... Wenn's hier keine Kameraschwenks gibt wo dann?

Edit: Vermutlich ist die rechte Bildhälfte dann künstlich nachgeschärft auch noch. Zumindest am guten 4K Monitor sieht hier DLSS3 sogar schärfer aus.
Edit 2: Hier gibts ab der 2ten Videohälfte nur Kameraschwenks
Edit 3: Auch hier sind sogar schnellere Kameraschwenks vorhanden

Also ja Cyberpunk war das EINZIGE Material in dem man sich primär auf die Umgebung konzentriert hat
Hätte wohl realistische Kameraschwenks schreiben sollen.

wenn ich z.B. Spiderman spiele dann achte ich nicht darauf die Kamera so wenig und zeitgleich gleichmäßig zu bewegen wie möglich, sondern da gibts andauernd scharfe 90-180° wenden beim schwingen und kämpfen.
In Flight Sim bewegt sich die Kamera ja... immer schön gleichmäßig.
In Portal gibt es 1-2 schnelle Schwenks, zu dumm das es in dem Spiel nix zum rendern gibt was wie in @Bogo36 Beispiel schlecht aussehen kann.

Was immer es ist das Nvidia noch nicht zeigen will, spätestens am 13. oder 14. Oktober wird es Artikel/Videos geben die DLSS 3 gründlich zerpflücken und alle Vor- und Nachteile darlegen werden.
 
Irgendwie habe ich null Bock auf die 4000er Serie, mich überzeugt das alles nicht. AMD kommt nicht in Frage, dieses rumgefummel im Treiber regt mich schon auf wenn ich daran denke.

Ich hoffe, dass es die nächsten Tage oder Wochen eine brauchbare 3090 für um die 1K gibt, dann werde ich zuschlagen und die 4000er auslassen.

Und ich kann es kaum erwarten meine 3090Ti "endlich" in Rente zu schicken 😅
 
OK krass wie schlecht die dlss wirklich ist. Naja es lohnt sich immer noch weniger die rtx 4000 Serie. Zudem have ich meinen besten Kumpel mit der rtx 2080 ti eine überdiminosnierte gpu empfohlen gehabt was wohl ein Fehler gewesen war. Habe mir wohl die serious Sam 4 videos nicht genau angesehen gehabt. War nicht full hd sondern 4k oder wqhd gewesen. Mein bester Kumpel zockt alledings nur in full hd. Somit ist die gpu zu stark für full hd. Ne rtx 3050 oder sowas hätte ihm gereicht. Nach dem es nun auf stromsparens geht, wird die eine gegen die andere getauscht. Bleibt auch wenn es Verluste gibt dennoch noch etwas Geld dann über.
Dlss wird bei weder bei mir noch bei meinem besten Kumpel verwenden noch wird je irgendwie raytracing verwendet. Es geht also rein auf um die rohleistung der gpu.

Naja das alles wird nur wegen serious Sam 4 gemacht. Neuere games interessieren mich nicht und meinen besten Kumpel ebenso nicht so.
Bin also gespannt ob es doch noch eine leistungsstarkere gpu kommen wird der entweder den selben stromverbrauch mit mehr Leistung als ner rtx 3050 kommen wird oder gleicher Leistung mit 75 Watt. Ich bezweifle das aber sehr also da kann ich wohl warten bis mir schwarz wird.
Darum wird es in dem Fall keine 100 % zufriedenen Lösung geben. Dann kommt er wohl nicht drum rum. Ich sehe ebenso keine andere Option.

Naja Nvidia macht es eben einen leicht nicht zu kaufen. AMD bin ich mir nicht sicher aber das wäre vileleicht auch ne Option dank Vulcan unterstüzung. Aber gut ich wüsste auch nicht welche die selbe leistung mit gleicher oder weniger stromverbrauch hätte als ne rtx 3050.

Und da ich mir bei amd nie wirklich sicher bin, lasse ich es lieber. Ich habe angst meinen besten kumpel noch einen fehlkauf zu machen lassen.
Da bin ich lieber vorsichtig. In Zukunft heißt es wohl besser schauen als hinter her es zu bereuen. Ich sehe schon kommen, besser wird es bei den gpu nicht mehr werden. Wenn man also beide future die hier genannten nicht braucht, dann bleibt am Ende nur noch wenig Argumente übrig.

Ich selbst habe ne Gtx 1650 und ne Gtx 1050 ti. Kann also 2 nicht mit reden, weil bin kalt auf den einer stellen hängen geblieben. Grund dafür es kommen keine neuen 75 Watt gpus mehr, also kann ich mich entweder mit gebrauchten gpu zufrieden geben oder mal eine gpu die minimal mehr Strom verbaucht. Letzteres versuche ich bis es nicht mehr geht zu vermeiden.
 
Wilde aussage :fresse:
Sehe ich prinzipiell aber genauso, habe ich auch schon vor 2 Jahren in diversen Diskussionen zu DLSS und FSR geschrieben. Und ein paar Posts über deinem auch erst. :d

Aus den Chips wird man keine großen Leistungssprünge mehr rausholen. Soweit ich das verstanden habe ist man gerade bei den GPUs auch schon ziemlich bei der maximalen Größe. Noch größer um noch mehr Cores reinzukriegen, geht auch nicht. Strom pumpt man neuerdings auch schon massig rein, da kriegt man bald oder hat sogar schon Kühlprobleme. Den Takt kann man auch kaum noch höher schrauben.

Das ist wie bei Autos: 500ps aber nur 2l/100km geht halt einfach nicht. Phüsik und so. ;)

Gleichzeitig steigen die gewünschten Displayauflösungen exponentiell und damit die benötigte GPU-Leistung. Man muss nur mal zurückschauen, oder kann sich sogar noch erinnern. Die Monitorauflösungen sind in den letzten 5-10 Jahren regelrecht explodiert.
Noch dazu nicht nur die Auflösungen, sondern auch noch die Hertz. 60fps reichen heute auch schon nichtmehr, man will 120fps+ haben.
Dazu soll aber auch noch die Grafik immer besser aussehen. Also nicht Auflösung, sondern der Detailgrad, Licht/Schatten, ...

Wie man aktuell sieht, ist das mit UHD auf konventionellem Weg schon ein Problem. Mit QUHD wird das nix mehr.

Nach dem obigen Kommentar, noch ein paar anderen Quellen schließt sich für mich aber denke ich allmählich der Kreis.
Nvidia sieht das halt genau so, kurz gesagt: Mit konventioneller Rohleistung ist kaum mehr eine Steigerung drin. Daher brauchen sie was neues und setzen da jetzt wohl zu nahezu 100% auf neue Techniken wie eben DLSS um Auflösung und Frameraten weiter steigern zu können.

Wie ich schon vor Jahren sagte: Spätestens mit mehr als UHD wird Upscaling der Normalzustand werden. MUSS ja sogar. Ob das jetzt DLSS oder FSR, oder vielleicht sogar noch was ganz anderes wird... wird sich zeigen. :d

Im Prinzip kann man das als ganz neuen Schritt in der Computergrafik sehen. Also imho durchaus ähnlich wie damals die ersten 3D-Beschleuniger. 3D-Spiele gingen auch vorher schon ohne. Nur ohne hatte man dann halt 20fps, mit hatte man dann auf einmal 60fps und es sah sogar noch besser aus. Und mit der Verbreitung der Karten war man dann auch schnell an einem Punkt angelangt, wo neuere 3D-Spiele ohne 3D-Beschleuniger schlicht nichtmehr spielbar waren.

Ist ganz interessant. Aktuell rendert man ja immernoch ein Bild im Rasterverfahren, erst dieses Bild wird dann via DLSS mit "KI" "verbessert". Wenn KI noch besser wird, kann man sich den Rasterschritt vielleicht sogar sparen und die KI "schätzt" direkt auf den Geometriedaten basierend was für ein Bild rauskommt? ;)
 
Zuletzt bearbeitet:
Hätte wohl realistische Kameraschwenks schreiben sollen.
Ich zappel ja mit der Kamera auch nicht rum wie auf Extasy oder Speed (was auch ohne DLSS nicht gut aussehen würde).
Zumindest von meiner Spielerfahrung her und die Art wie ich Spiele sehen die Schwenks so schon nicht unrealistisch aus (habe alle gezeigten Spiele selbst auch gespielt oder spiele sie noch).

Ein Side by Side Standbildvergleich hingegen halte ich wärend dem Spielen für weitaus unrealistischer.
Da kommen natürlich DLLS, FSR und selbst das Konsolen Checkerboard Rendering nicht gut weg.
 
Da kommen natürlich DLLS, FSR und selbst das Konsolen Checkerboard Rendering nicht gut weg.


FSR 2.0 finde ich etwas überzeugender, dem Fazit der Jungs von Techpowerup würde ich mich daher anschließen.
 
Gibt es denn schon Klarheit darüber, ob die diversen Hersteller jetzt auch definitiv entsprechende Netzteiladapter beilegen? Ich kann mir eigentlich in diesem speziellen Fall nicht vorstellen, dass die das nicht machen aber who knows?!
Bei der Suprim von MSI hab ich den 4*8Pin Adapter gesehen also 600W mit den alten Netzeil möglich +75W über PCie Max 675W wo bei ich da mindesten auf 1000W+ achten würde wen NV schon 850W für die 3*8Pin 4090 empfiehlt mit PCie e +75W gehen da ja dann Max 525W glaub bei der 4090 FE ist das Max Powertarget aber noch knapp unter 500W falls NV bei der FE überhaupt das anheben der PT erlaubt!
 
Zuletzt bearbeitet:
Gibt es denn schon Klarheit darüber, ob die diversen Hersteller jetzt auch definitiv entsprechende Netzteiladapter beilegen? Ich kann mir eigentlich in diesem speziellen Fall nicht vorstellen, dass die das nicht machen aber who knows?!
Asus zumindest hat das für seine Modelle schon angekündigt.
 
Und ich kann es kaum erwarten meine 3090Ti "endlich" in Rente zu schicken 😅
Bin auch hin- und hergerissen. Meine Lieblings-Games FH5 und CoD:MW in 4K 144Hz - da überzeugt die 3090 leider noch nicht so ganz^^
(kann mir auch einreden, dass ich das Blender Tutorial endlich fertig mache)
 
Schön, dass nVidia mittlerweile mit der Zeit geht und so sehr auf Energieeffizienz bedacht ist. :fresse:

Naja, mal schauen, was die "Mittelklasse" zur Vorgängergeneration raushaut. 4080 und 4090 sind ja eh nur die Brechstangen.
 
@Liesel Weppen
Ja ne tolle Zukunft, na das gefällt mir nicht. Keine Wunder das noch so viele auf full hd unterwegs sind. Und auch ich bleibe da. Das Problem haben also die mit full hd nicht und brauchen zum glück dann auch weniger gpu leistung. Hat somit ein positiver geschmack wie ich finde.

@The Evil

Naja ist ja seine Entscheidung, also von daher respektiere ich das. Hat einen stromsparenden Effekt das er es macht. Von daher naja würde es nen rtx 3050 Leistung mit 75 Watt geben, würde er sich dies wohl kaufen aber gibt es ja nicht. Drosseln von sich aus würde weniger Leistung bedeuten. Also ne so eine gpu gibt es halt noch nicht zu kaufen. Und ne rtx 2080 ti kann man eben nicht auf 75 Watt drosseln weil so weit runter zeigt afterburner nicht an. Die gpu war und ist sowie wird einfach als fehlkauf angesehen und fertig. Und im ist das so lieber das er es macht weil dann kann er 4 anstatt 2 Stunden lang das game zocken. Weil dann weniger Strom verbaucht wurde insgesammt. Machen zusätzlich noch alte PC alle 2 wochen mit neuen hin und her tauchen so das eben noch weniger verbraucht wird. Der alte braucht rund 150 Watt gesammter PC. Damit zocken wir die uralt games und falls mit der onboard nicht klar kommt kommt da halt ne Gt 1030 rein. Sparen ist also Nummer eins. Also sparsame zocken ist wichtig. Darum liegt genau da das Augenmerk. Stromschleuer kommen nicht mehr ins Haus. Zusätzlich wird noch auf 85 fps gedeckt die games, dann noch ht oder smt abgeschaltet und CPU takt gesenkt. Wenn das nicht reicht wird noch weitere Gegenmaßnahmen überlegt. Mal sehen wie weit man noch sparsamer zocken kann. Ein Glück das die games aus 2005 sind. Nur serious Sam 4 ist eines seiner aktuellen games. So das er immer wieder wechseln kann.

Tausche auch noch mehrere kleinere gegen ne große Festplatte im nas, da gibt es gewiss noch mehr Möglichkeiten. Achja ich mache das auch weil ich sonst kein Platz mehr im nas habe weil da gehen dummerweise nur 10 Platten rein und die habe ich dann bald voll.

Was noch geht radio und Co abgesteckt und sonstiger unnötigen Sachen abgesteckt..

Ich ziehe das alles also wirklich knallhart durch. Ich lasse mich von nix abhalten.
 
Als ich vor einigen Jahren meinen Spiele-PC abgeschafft habe (GPU: GTX1070 und die war damals auch schon ein paar Jahre alt) hatte ich ernsthaft die Meinung, dass die GPUs in den folgenden Jahren so effizient werden würden, dass ich irgendwann wieder einen kleinen PC mit einer 150 Watt GPU zusammen dübeln könnte. Schöne Mittelklasse für Battlefield und so, dachte ich mir.
Statt dessen: Mittelklasse gefühlt abgeschafft bzw. preislich außerhalb jeglichen Rahmens. Und das, was es noch gibt, ersetzt einwandfrei die Gasheizung, welche man sich sowieso nicht mehr leisten kann.
Gaming war schon vor ein paar Jahren ein Luxus für gut Situierte, wenn Auflösungen jenseits 1440p mit mehr als 60 FPS bedient werden sollten. Aber jetzt ist es einfach nur noch krank. Sowohl was den Preis als auch den Stromverbrauch angeht.

Wer kann sich sowas noch leisten? Oder haben sie die Preise einfach der produzierten Menge angepasst und es gibt eben einfach nur eine sehr überschaubare Stückzahl?
Mit einer Welt, welche ja immer digitaler werden soll, hätte ich nicht erwartet, dass gerade das Gaming so derart heftige Preisregionen erklimmt. Dagegen sind die Konsolen, sofern man denn eine bekommen kann, ja geradezu ein Schnäppchen.
Aber wenn ich so darüber nachdenke: Ein neues iPhone 14 kostet ja auch mehr als diverse neue MacBooks. Das steht ja auch in keinem Verhältnis. Aber wer kann, der kann.
 
1000€+ für gehobene Mittelklasse. 8800GTX war 500€, 8800 GTS 450€. Meine Fresse.
Jo macht auch extrem viel Sinn Grakapreise von 2006 mit Heute zu vergleichen.
Nicht nur das die Fertigung deutlich komplexer und teurer geworden ist, auch der Materialeinsatz und die ganzen Nebenkosten sind was völlig anderes.
Zudem, 500€ aus 2006 entsprechen (ohne die jetzige Inflation aus Ende 2022 mitzurechnen) Heute knapp 710€.
Wenn du dann noch die aktuelle Inflation (~8%) miteinbeziehst und zusätzlich der US-Dollar Euro von 2006 mit einem Umrechnungskurs von 0.797, bist du schon knapp bei 1000€.
So günstig war die 8800GTX also dann doch nicht.

Solch ein Nostalgiedenken ist einfach naiv. Die Kaufkraft pro Person ist ja seit 2006 auch gestiegen.
 
Aber wenn ich so darüber nachdenke: Ein neues iPhone 14 kostet ja auch mehr als diverse neue MacBooks. Das steht ja auch in keinem Verhältnis. Aber wer kann, der kann.
Gerade das iPhone zeigt uns doch jährlich, dass du alles machen kannst, sofern dein Kundenstamm mitspielt.
Beitrag automatisch zusammengeführt:

..... 1000€.
So günstig war die 8800GTX also dann doch nicht.
Grundsätzlich bin ich da bei dir, aber die 8800GTX war ja auch eher das Produkt was jetzt die 4090 darstellt, die 8800 Ultra kam erst wesentlich später und wäre eher in der Range einer hypothetischen 4090ti zu verorten.
 
Grundsätzlich bin ich da bei dir, aber die 8800GTX war ja auch eher das Produkt was jetzt die 4090 darstellt, die 8800 Ultra kam erst wesentlich später und wäre eher in der Range einer hypothetischen 4090ti zu verorten.
Da verweise ich auf mein Punkt mit der Fertigung.
Zudem ist der 8800GTX->Ultra Vergleich etwas lahm. Der Chip war identisch bis auf die Taktraten von RAM und GPU.
Bei einer 4090TI hast du hingegen noch mehr Shader. Was widerrum bedeutet, voll funktionale Chips sind wesentlich teurer als teildefekte. Inbesondere zum Beginn einer neuen Generation.

High-End war schon immer teuer. Auch Anfang 2000 gabs schon Grakas für 1000DM, wo die geistige Gesundheit noch härter hinterfragt wurde als Heute sowas zu kaufen. Anders als Heute war die zudem 2 Jahre später für fast nix mehr zu gebrauchen, so schnell war die Software Entwicklung.
Natürlich hat nVidia Gewinnmargen dadrauf die lächerlich hoch sind aber welcher Tech Konzern hat das nicht heutzutage bei Premium Produkten.
 
atürlich hat nVidia Gewinnmargen dadrauf die lächerlich hoch sind aber welcher Tech Konzern hat das nicht heutzutage bei Premium Produkten.
Als Geforce 2 Ultra Käufer kann ich dir in vielen Punkten nur recht geben, klar die Fertigung ist mittlerweile extrem geworden, gegen heutige High End Modelle sehen die aus 2005 aus wie der Experimentierkasten von ELV....

Nvidia testet halt aktuell auch aus, was machbar ist, und solange sich die Karten zu diesen Preisen einigermaßen absetzen lassen, werden sie auch dran festhalten.
 
Im neusten Video von "Moore's Law Is Dead" meint er, NVidia hatt sich da etwas verrant. Die Entwicklung der 4000er hat schon begonnen als die 3000er auf den Markt kamen. Also Mitten im Crypto-Hype und den Lieferengpässen. Da waren die Leute bereit alles zu zahlen, in Geld und Strom. Die 4090 sei in der Herstellung schon teurer als die 3090 im Verkauf. Somit kann man nicht anders als hohe Dollar und Watt Nummern aufzudrucken...

Ob ich dieses Jahr schon/überhaupt kaufe, weis ich auch nicht. Solange die Lager mit 3000ern voll sind, ja schon irgendwie verrückt...
 
Also ne 3090 für billig würde ich nehmen :-)
 
Jo bald kann mann die 4000 Serie watti und teuri nennen weil das passt dann perfekt zu der Serie.

Achja ich kann mich noch an 2013 erinnern wo ich mich selbst als ich die Gtx titan gekauft hatte für 1300 oder waren es 1260 € müsste die Rechnung noch haben, habe ich das als verrückt schon empfunden aber der Rest passte halt also das gesammte. Damals schrieben welche man solle sich doch zurück halten und nicht jeden Preis zahlen weil sonst ziehen sie die Preise an und die Menschen würden sich immer mehr dran gewöhnen. Da hatte er wohl recht gehabt, man sieht ja was passiert ist. Aber gut kann man leider nicht mehr ändern well dazu sollten sich die menschen ändern. Da sehe ich aber keine chance es ist zu spät. Und man kann sich nur selbst ändern aber eben nicht andere. Aber man kann sich deren verhalten dran gewöhnen. Es ist dennoch traurig, ist halt leider so.

@Scrush
Beitrag automatisch zusammengeführt:

Von welcher Quelle bzw Streamer kommt denn dieses Bild denn her?
 
Zuletzt bearbeitet:
Achja ich kann mich noch an 2013 erinnern wo ich mich selbst als ich die Gtx titan gekauft hatte für 1300
Ohne Einbezug von Energiekosten, gestiegene Ressourcen und Produktionskosten aufgrund der immer teureren Fertigung, gestiegenen Transport und Vertriebskosten, Forschung, ect. wären das zumindest mit der "durchschnittlichen" (nicht der realen) Inflation bis heute auch schon über 1600€
 
Weil hier ja über 1070, 3050 und den Preisen geredet wird, folgt ein Statement.
Meine 1070 8 GB ist 6 Jahre alt, hat damals 420 Euro gekostet.

Heute gibt es die gleiche Leistung von der 3050-8GB, ich habe mir gestern die Testvergleich angeschaut. Und die 3050 kostet heute ca. 320,.-

D.h. nach 6 Jahren die gleiche Leistung für gerade mal 100 Euro weniger.

Edit: vergleicht das mal mit CPU!
 
Zuletzt bearbeitet:
Als ich vor einigen Jahren meinen Spiele-PC abgeschafft habe (GPU: GTX1070 und die war damals auch schon ein paar Jahre alt) hatte ich ernsthaft die Meinung, dass die GPUs in den folgenden Jahren so effizient werden würden, dass ich irgendwann wieder einen kleinen PC mit einer 150 Watt GPU zusammen dübeln könnte. Schöne Mittelklasse für Battlefield und so, dachte ich mir.
Statt dessen: Mittelklasse gefühlt abgeschafft bzw. preislich außerhalb jeglichen Rahmens. Und das, was es noch gibt, ersetzt einwandfrei die Gasheizung, welche man sich sowieso nicht mehr leisten kann.
Gaming war schon vor ein paar Jahren ein Luxus für gut Situierte, wenn Auflösungen jenseits 1440p mit mehr als 60 FPS bedient werden sollten. Aber jetzt ist es einfach nur noch krank. Sowohl was den Preis als auch den Stromverbrauch angeht.

Wer kann sich sowas noch leisten? Oder haben sie die Preise einfach der produzierten Menge angepasst und es gibt eben einfach nur eine sehr überschaubare Stückzahl?
Mit einer Welt, welche ja immer digitaler werden soll, hätte ich nicht erwartet, dass gerade das Gaming so derart heftige Preisregionen erklimmt. Dagegen sind die Konsolen, sofern man denn eine bekommen kann, ja geradezu ein Schnäppchen.
Aber wenn ich so darüber nachdenke: Ein neues iPhone 14 kostet ja auch mehr als diverse neue MacBooks. Das steht ja auch in keinem Verhältnis. Aber wer kann, der kann.
Den Film Idiocracy gesehen? Kann ich wärmstens empfehlen.
Vor ein paar Jahren habe ich mit etwas Ironie gesagt, dass wir uns genau da hinentwickeln. Heute ist mir die Ironie vergangen.

Ob ich dieses Jahr schon/überhaupt kaufe, weis ich auch nicht. Solange die Lager mit 3000ern voll sind, ja schon irgendwie verrückt...
Also doch künstliche Verknappung?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh