4K-Gaming: AMD gegen NVIDIA - Wer ist bereit für die Zukunft?

Nur eine höhere DPI wird dein optisches Empfinden nicht bessern, sofern das Material nicht nativ diese Auflösung nutzt - sonst wird es schwammig.

Ich denke die ganze Diskussion zu 4k ist aktuell noch witzlos, solange es eben kein entsprechendes Material gibt. Bei Spielen und Renderings ist das jedoch eine echt feine Sache. Mir würde schon eine 2500 Auflösung auf 22" reichen ;-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD hatte in Sachen surround gaming bisher die Nase immer vorn. 4K ist noch kein Thema.

Als nächtes strebe ich fürs gaming VR an, da kann 4K erstmal lange warten...

4K um Matsch Texturen zu genießen. Prost Mahlzeit. :mad:
 
Was ist das für eine Aussage?

Ich nutze in echt! einen 40" FullHD TV als PC Monitor. Bei einem Sitzabstand von ca. 100-150cm, je nach Bequemlichkeit auf dem Stuhl.
Und man sieht schlicht und ergreifend jedes! der 1920x1080 Pixel einzeln... Das ganze kann man selbst für sich ausblenden und darüber hinwegsehen (so mach ich das auch, klappt), aber die existenz zu leugnen ist schlicht unmöglich.

Der riesige Vorteil bei der Kombo ist, das ich beispielsweise beim schauen von Filmen oder beim Zocken eine Art Kino Feeling verspüre. Denn man sieht fast im gesamten Sichtbereich nur Bild ohne Rand. Und nimmt somit die Umgebung gar nicht war... Somit sorgt das für ein echtes Eintauchen in die Materie (Spiel oder Film), die man beim betrachten von popligen 21-27" definitiv nicht hat beim gleichem Sitzabstand.

Mit 4K würde man dem Einzelpixel-Sehproblem stark entgegen wirken, sofern die Diagonale gleich bleibt. Mit 8K wäre es faktisch noch besser. Und ich behaupte, auch in noch höheren Auflösungen sieht man den Unterschied...

Was das für eine Aussage ist. Mit 1m unterschreitest du auch deutlich den empfohlenen Mindestabstand, denn dort wird auch 4k empfohlen. Darum sage ich auch das bei geringen Mindestabständen 4k Sinn macht, es sitzen jedoch die wenigsten so dicht vor ihren Geräten. Die meisten die ich kenne sitzen im TV Sektor 3-4m vor ihrer 37-50Zoll Glotze, die haben teilweise nicht mal mehr etwas von 720p.
Außerdem kannst du dich glücklich schätzen ich habe 100% Sehleistung und entspreche damit dem Großteil der Bevölkerung auch wenn viele das nur mit Sehhilfe erreichen und sehe bei 1,6m auf 46Zoll keines der Pixel mehr


Hier noch ein paar Abstandsrechner basierend auf 100% Sehvisus

http://api.viglink.com/api/click?fo...99358.0.html&jsonp=vglnk_jsonp_13796107211238

http://api.viglink.com/api/click?fo...e/bildschirm&jsonp=vglnk_jsonp_13796107658459

http://api.viglink.com/api/click?fo...oes-matter/&jsonp=vglnk_jsonp_137961078187610


Bei meiner durchschnittlichen Sehleistung müßte ich mich einen Meter vor ein 100Zoll 8K Display setzen, damit ich den vollen Nutzen aus der auslösung ziehen kann. Ich sehe das als komplett sinnfrei an
 
Zuletzt bearbeitet:
Will noch jemand etwas gegen das bmp-Format der Bilder unternehmen oder hat man sich abgefunden, die doppelte Dateigröße als eigentlich nötig, bei gleicher Qualität zu nutzen? Selbst der Download der Bilder ging schleppend langsam, obwohl meine Verbindung eigentlich sehr gut ist. Liegt das am Server von Hardwareluxx oder ist da gerade einfach nur ein Schluckauf bei mir in der Leitung? (Normal 2,6 Mbyte pro Sekunde.)
 
Ich tausche die Bilder gleich aus. Allerdings wollte ich einfach die Rohdaten, wie sie aus Fraps kommen nutzen. Der Server auf dem sie liegen, ist in der Tat etwas langsam.

Edit: Ich habe die Bilder mal gegen 100% JPGs ausgetauscht.
 
Zuletzt bearbeitet:
Naja, JPG geht auch, wobei man dort wieder mögliche Qualitätsverluste hat - auch bei 100%.
Aber ist gut. Die Bilder sind jetzt wesentlich kleiner und dürften damit wesentlich weniger Traffic verursachen. (Auch wenn das wahrscheinlich kein sinnvolles Argument ist, da der Traffic der Bilder nur wenig am ganzen ausmacht.)
 
Vor kurzem hatten wir das Thema 3D und das sollte der nächste Schritt sein. Das hat sich wohl von selbst erledigt.

Nun kommt 4k mal sehen was daraus wird.
 
NV und AMD werden beide GKs liefern für solche Auflösungen... nur die Spiele Industrie wird das ganze Verschlafen weil die Konsolen nicht hinter her kommen.
 
Na mal schauen, ob AMD und/oder NVIDIA ihre Partner-Entwicklerstudios dazu bringen können, da etwas früher zu reagieren und bereits in naher Zukunft z.B. über höher aufgelöste Texturen zu liefern.
 
Na mal schauen, ob AMD und/oder NVIDIA ihre Partner-Entwicklerstudios dazu bringen können, da etwas früher zu reagieren und bereits in naher Zukunft z.B. über höher aufgelöste Texturen zu liefern.

Da hätte ich mich über Physics und neue Engines mehr gefreut.
 
4K...frühestens in 5 Jahren ein Thema...der übliche Marketing Blubber Hype wie schon bei HD. Die Leute ham sich gerade erst dran gewöhnt, Geräte gekauft und schon muss ALLES komplett wieder ausgetauscht werden? SICHHHHEERR...schaun ma mal...für mich ist das als Geringverdiener sowieso kein Thema...und schon gar nicht
bei der STeinzeit im TV in der wir leben in Deutschland zumindest was ÖR angeht über DBTV.
 
Zuletzt bearbeitet:
Vielleicht sollte man das Thema wieder auf den Kern des Inhalts zurückbringen: Es geht nicht um das Fernsehen im heimischen Wohnzimmer. Hier gibt es ja derzeit noch nicht einmal eine Möglichkeit natives 4K-Material zu erwerben.

Worum es geht ist, dass die entsprechenden Displays in wenigen Monaten schon erschwinglich sind und sich durch die höhere Auflösung vielleicht ein gewissen Vorteil gegenüber z.B. den Konsolen ergibt.
 
Zuletzt bearbeitet:
Anhang anzeigen 249648

Hier hat doch AMD nur die Hälfte der Frametime und liefert max etwa 50 fps, die Nvidia-Lösung ist nur halb so schnell, also 25 fps und etwa 50 ms frametime

25 fps in crysis 3 ist doch eine einzige Ruckelorgie und da soll Nvidia besser sein als die zugegeben schwankenden 50 fps von AMD ?

Selbst wenn jeder zweite Frame verworfen würde, wäre die AMD ja immer noch genauso schnell wie Nvidia.

Verstehe ich nicht...
 
Dass das Crossfire-Gespann bestehend aus zwei Radeon HD 7970 (GHz?) so viel leistungsfähiger ist als ein GTX-780er-SLI-Gespann hätte ich ja nicht erwartet.
Ich verstehe auch nicht so ganz, wie sich das Spielen mit zwei GTX 780, die zu jedem Zeitpunkt weniger fps als zwei HD 7970 produzieren (sie zeigen immer schlechtere frametimes, Schwankungen hin oder her) ein oder zwei ganz kurze Ausschläge ausgenommen, besser anfühlen kann als mit ebendiesen HD 7970ern.
Das muss wohl an all den Darstellungsfehlern liegen?
Das besorgt dann wohl ein Treiber, den Nvidia passenderweise pünktlich zum Test parat hatte.

Edit:
Mich wundert wirklich die im Vergleich geringe Leistung des SLI-Gespanns. War SLI auch wirklich aktiv oder ist bei den Messungen etwas schiefgelaufen? Wie löst ihr das mit dem Testsystem? Wie bewältigen Capture Card und RAMDisk diese Datenmengen?
 
Zuletzt bearbeitet:
Was das für eine Aussage ist. Mit 1m unterschreitest du auch deutlich den empfohlenen Mindestabstand, denn dort wird auch 4k empfohlen. Darum sage ich auch das bei geringen Mindestabständen 4k Sinn macht, es sitzen jedoch die wenigsten so dicht vor ihren Geräten. Die meisten die ich kenne sitzen im TV Sektor 3-4m vor ihrer 37-50Zoll Glotze, die haben teilweise nicht mal mehr etwas von 720p.
Außerdem kannst du dich glücklich schätzen ich habe 100% Sehleistung und entspreche damit dem Großteil der Bevölkerung auch wenn viele das nur mit Sehhilfe erreichen und sehe bei 1,6m auf 46Zoll keines der Pixel mehr

ich hab nichtmal 100% ;)
Bin angehalten, eine Brille zu tragen, was ich praktisch nie mache. Dennoch sehe ich auf die Nähe scheinbar sehr gut.

Aber sei es drum, ich beziehe mich auch auf die Aussage wie im Quote zu lesen.
Und da steht: "50Zoll bei einem Meter Distanz bei Fullhd Ideal, bei 4k sollte man schon auf 50cm ran bei 8k sinls d es dann 25cm Abstand um die Augen nicht als begrenzenden Faktor zu haben."
Ich brauch bei 1m keine 50" um die Pixel zu zählen. Sicher man sieht faktisch nicht das Pixel genau, aber man sieht, das es nicht vollständig ineinander überläuft. Weil die Pixel zu "groß" sind auf der kleinen Entfernung. Das Argument mit 4K und 50cm sowie 8K und 25cm kann ich dahingehend also gar nicht nachvollziehen...

Und ja, es ist wohl definitiv die Ausnahme, sowas in der Art einzusetzen. Aber das spielt keine Rolle... Der Unterschied ist auch bei größeren Entfernungen deutlich. Man sieht einen Unterschied bei gleicher Diagonale von sagen wir 40" bei 13xx*768 zu FullHD. Also wird man auch den nächsten Schritt faktisch sehen. -> aus Mangel an Geräten zuhause dürfte nur der Masse schlicht der Vergleich fehlen um das auch klar zu bejahen!
Es geht dabei auch nicht darum, den vollen Nutzen daraus zu ziehen, da reichen doch schon minimal sichtbare Unterschiede, die das ganze besser machen... ;)

Na mal schauen, ob AMD und/oder NVIDIA ihre Partner-Entwicklerstudios dazu bringen können, da etwas früher zu reagieren und bereits in naher Zukunft z.B. über höher aufgelöste Texturen zu liefern.

Das kommt wohl mit den Konsolen...
Das größte Problem im PC Umfeld ist schlicht der VRAM.
4K Vorab-Tests macht man heute am besten mit Downsampling. -> und da kommt man bei aktuellen Blockbustern schnellstens ans Limit und auch weit drüher hinaus.
Ich kenne Bilder von Skyrim mit HD Texturen + HD Texturmods in 4K ohne AA! im VRAM Limit bei nem Titan SLI mit starken Nachladerucklern... Und das ist hier und heute.

Durch dieses ganze FXAA und Weichzeichnerzeugs konnte man sich die letzten Jahre mehr oder weniger da noch gut durchmogeln. Setzt 4K aber irgendwann mal in der Masse ein, wird auch essentiell mehr VRAM benötigt. Immerhin ist der Schritt größer als die eher kleinen Abstände bis jetzt (640x480 -> 800x600 -> 1024x768 -> 1280x1024 -> 1680x1050 -> 1920x1080) Das dürften wohl so die meisten fast vollständig mitgenommen haben (zumindest wenn die Leute schon länger dabei sind im PC Gamerumfeld)
Die Mehrpixel sind eher überschaubar -> mit 4K gehts um den Faktor 4 nach oben. Selbst wenn man noch 2560x1440 zwischen schiebt, ist der Faktor immernoch deutlich über dem damaligen Zuwachs...

Worum es geht ist, dass die entsprechenden Displays in wenigen Monaten schon erschwinglich sind und sich durch die höhere Auflösung vielleicht ein gewissen Vorteil gegenüber z.B. den Konsolen ergibt.

Ich denke, der Durchbruch kommt frühestens mit HDMI 2.0 respektive der neuen DP Standards, wenn es da mal was geben soll.
Problematisch ist aus meiner Sicht aber immernoch, das HDMI 2.0 wenn mich nicht alles täuscht faktisch nicht reicht um 4K@3D@60Hz zu liefern. -> da hat irgendwo irgendwer nicht ganz mitgedacht...
 
neue Stufe.
der gleiche Fehler bei Skyrim wie im <normalen> Vision-Surround :-)
 
nicht nur dort... Ab einer gewissen Auflösung kommt der Eintrag dort ins Bild ;)
Da reicht auch ein Single Monitor bei 3680er Downsampling. Ja selbst bei weniger ist das zu sehen, wenn ich das recht in Erinnerung habe.


@Don, was mir gerade einfällt, habt ihr mal zufällig den Gegentest mit dem CF gemacht die Games einfach mal bei 4K Downsampling zu probieren?
Auch wenn es Aufwand ist, das DS bei AMD erstmal zum laufen zu bekommen -> aber das hilft definitiv die Leistungswerte einzuschätzen. Sprich ob das teils bis zu vierfache Leistungsniveau des CFs gegen die im Grunde überall schnelleren 780er im SLI überhaupt hinkommen kann!?
 
Die "optimalen" Sitzabstände von der Auflösung abhängig zu machen ist mMn Unfug. Bei 50" Full-HD kann ich bei einem Meter die Pixel zählen, aus 2,5 Metern nicht mehr - schön. Aber aus 4 Metern sieht das Bild doch nicht plötzlich wieder schlechter aus. Im Gegenteil: gerade bei gerenderten Bewegungen mit Kanten im Bild, macht jeder zusätzliche Pixel einen Unterschied. 4K wird sich zunächst beim Gaming durchsetzen, weil es sich da im Vergleich zu Live Action mehr lohnt und fehlendes Material kein begrenzender Faktor ist. Aber langfristig ist "mehr immer besser" - das nennt man Fortschritt ;)
 
ASUS nennt sein Modell PQ321QE, das bei gleicher Auflösung eine Bilddiagonale von ebenfalls 32 Zoll aufweist. Beide kommen demnach auf eine Pixeldichte von 138 ppi. Damit liegen wir noch unter den Werten der Notebooks, die Darstellungsfläche ist allerdings auch doppelt so groß.

Eher nicht. Viel mehr 4-fach so groß *klugscheiß*
 
ich hab nichtmal 100% ;)
Bin angehalten, eine Brille zu tragen, was ich praktisch nie mache. Dennoch sehe ich auf die Nähe scheinbar sehr gut.

Aber sei es drum, ich beziehe mich auch auf die Aussage wie im Quote zu lesen.
Und da steht: "50Zoll bei einem Meter Distanz bei Fullhd Ideal, bei 4k sollte man schon auf 50cm ran bei 8k sinls d es dann 25cm Abstand um die Augen nicht als begrenzenden Faktor zu haben."
Ich brauch bei 1m keine 50" um die Pixel zu zählen. Sicher man sieht faktisch nicht das Pixel genau, aber man sieht, das es nicht vollständig ineinander überläuft. Weil die Pixel zu "groß" sind auf der kleinen Entfernung. Das Argument mit 4K und 50cm sowie 8K und 25cm kann ich dahingehend also gar nicht nachvollziehen...


.

Da habe ich aber auch Blödsinn geschrieben, bestimmt weil ich zweigeteilter Meinung war. Ich meinte natürlich das 1080p auf 50Zoll bei 2m Distanz ideal sind, bei 4k gilt ca 1m als Ideal und da kommen wir in deinen Bereich mit 42Zoll, da du wie es vorkommen kann, dank deiner fehlenden Weitsicht besonders gut auf nahe Distanz schauen kannst.

Auf 1,8 erkenne ich auf 46Zoll jedenfalls keine Pixel, das Bild ist für mich optimal. Habe auch gäste zum Test herangezogen, 8K ausgangsmaterial einmal in 1080p und einmal in 720p ausgegeben, ab 2,3-2,5 m konnte niemand mehr beide Formate unterscheiden.
 
Worum es geht ist, dass die entsprechenden Displays in wenigen Monaten schon erschwinglich sind...

Das glaube ich erst, wenn ich es sehe! Und selbst wenn es so sein sollte, wird der Rest der Kette noch nicht so weit sein.
Wie sieht es denn mit den Inputlags bei den 4k-Monitoren aus?
Und wieso soll gerade HDMI 2.0 die Wunderwaffe sein, wenn Displayport technisch schon 60Hz bei 4k beherrscht und es somit einfacher wäre, die Infrastruktur darauf auszurichten. Mehr als 8Bit Farbtiefe werden die Displays bestimmt auch nicht haben, was zu einer Datenrate von ungefähr 12BGit/s führt, was Displayport 1.2 definitiv schafft.
 
Das ist doch alles totaler Blödsinn.
Aber wenn manche Leute meinen...

Da war mal 3D und Surround Thema, oLED wurde in den höchsten Tönen fantasiert, dann mal eben 120Hz Technik, jetzt 4K. Und irgendwie zwischendrin (und wie ich finde erhaben über all diesen) das Oculus Rift.
Was nützt mir ein display mit vielen pixeln wenn sich dadurch das Gaming Gefühl nicht merklich verbessert? Mit 3x4K Displays lass ich dann mit mir sprechen.

Das ist doch nur Grafikhurerei vom feinsten. :haha: Zusehen wie man teuer erkaufte (überschüssige) Leistung am stärksten verpulvern (rechtfertigen) kann, da die Konsolengeneration weiterhin alles zum stagnieren bringt.

Sry aber wenn ich das schon lese "um Vorteile gegenüber einer Konsole zu erlangen". Viele Vorteile genieße ich schon immer seitdem ich PC spiele....und das ist eine lange Zeit.
Ein größerer Vorteil in absehbarer Zeit wird das VR sein, aber scheinbar sind Schlitzaugen bereits fleißig an der Plagiat Entwicklung da es auf Konsolen scheinbar nicht mehr lange dauert. Na dann braucht man wohl doch 4K!:hmm:
Naja, oder vieleicht bin ich was Bildqualität (vom Monitor) und Größe angeht wohl nicht gerade sehr Anspruchsvoll... (was im übrigen auch nicht die Texturauflösungen der Spiele sind)
 
Zuletzt bearbeitet:
Kann das sein, dass da wirklich einige Rechtschreibfehler, überflüssige Worte und logische Ungereimtheiten drinnen sind? Bitte den Text nochmal durchlesen, Herr Autor. Wobei die Ungereimtheiten wohl aus einer Mischung aus meinem Unverständnis und vielleicht 1-2 fehlenden Worten bestehen. Ach, is schon zu spät jetzt. Werd morgen mal meckern wenn ichs dann immernoch nicht schnall :d Ansonsten interessanter Artikel.

Gute Nacht :d
 
Zuletzt bearbeitet:
Mich wundert wirklich die im Vergleich geringe Leistung des SLI-Gespanns. War SLI auch wirklich aktiv oder ist bei den Messungen etwas schiefgelaufen? Wie löst ihr das mit dem Testsystem? Wie bewältigen Capture Card und RAMDisk diese Datenmengen?

Wir zeichnen nicht das komplette Display mit 4K-Auflösung auf, sondern nur den Bereich des Overlays. Daher reicht es hier aus, 2.160x320 Pixel aufzuzeichnen, was die Capture-Karte und die RAMDisc locker mitmachen.

Was die Leistung der einzelnen Systeme (SLI vs. CrossFire) betrifft: Schaut nicht so sehr auf die FPS, sondern darauf wie diese zu Stande kommen. Das ist hier zunächst einmal entscheidend. Wir werden uns mit zukünftigen GPUs (hier steht ja wohl sehr bald etwas Neues an) das Thema noch genauer anschauen.
 
was ist denn das für ein Vergleich bzw. Test?

Wenn die Zukunft im Wohnzimmer angelangt ist, ist die aktuelle Hardware so oder so bereits überholt.

Also Spiele die erst 2014 und dazu noch in 4K released werden, kann man doch nicht mit der aktuellen HW testen.

Und schon garnicht mit der HW die in Zeiten der veralteten Konsolen rauskam.

Ich bin mir sicher, dass nächstes Jahr, wenn die neuen Konsolen sich ausbreiten, werden auch die PC Grafikkarten einen größeren Sprung machen.
 
Noch einmal:

1. Es geht nicht ums Wohnzimmer.
2. Von Seiten der Konsolen besteht nicht der Trend in Richtung 4K, da beide eine solche Auflösung in Spielen nicht unterstützen werden.
 
Wir zeichnen nicht das komplette Display mit 4K-Auflösung auf, sondern nur den Bereich des Overlays. Daher reicht es hier aus, 2.160x320 Pixel aufzuzeichnen, was die Capture-Karte und die RAMDisc locker mitmachen.

Was die Leistung der einzelnen Systeme (SLI vs. CrossFire) betrifft: Schaut nicht so sehr auf die FPS, sondern darauf wie diese zu Stande kommen. Das ist hier zunächst einmal entscheidend. Wir werden uns mit zukünftigen GPUs (hier steht ja wohl sehr bald etwas Neues an) das Thema noch genauer anschauen.

Wie macht ihr das?
Wenn HDMI 1 -> 1920x2140 (linke Hälfte) an den Monitor schickt und HDMI 2 -> 1920x2140 (rechte Hälfte an den Monitor schickt, wie misst ihr da genau die Mitte? Da müsste man doch gleichsam auf beiden HDMI Ports capturen... Und dazu das ganze noch zeitlich absolut! syncron.

Zum anderen, wie schon erwähnt, ich denke, die meisten lesen anhand des Titels und der Einleitung sowas aber raus... Sprich es interessiert den geneigten Leser eines "4K Gaming -> was bringen aktuelle GPUs" Tests nicht, wie die FPS zu stande kommen... Das interessiert den Leser eines Eyefinity oder Vision Surround Tests. Die Masse dürfte eher die Spielbarkeit bei den Auflösungen interessieren. Ggf. von mir aus auch im SLI/CF...

PS: wenn du sagst, man sollte drauf schauen, wie die FPS zu Stande kommen, wäre es aus meiner Sicht auch vorteilhaft, das im Text/Artikel explizit so zu deklarieren... :wink:
Denn wieso die CF Messungen so exorbitant besser sind als die SLI Messung, steht faktisch nicht im Text. Wird aber scheinbar hier von vielen in Frage gestellt... -> und sollte praktisch auch nicht so anzutreffen sein.
Die ganze Eyefinity/Vision Surround Problematik noch in einem Artikel für 4K Monitore zu erläutern, verwirrt wohl die meisten dann noch viel mehr :fresse:
 
Wie macht ihr das?
Wenn HDMI 1 -> 1920x2140 (linke Hälfte) an den Monitor schickt und HDMI 2 -> 1920x2140 (rechte Hälfte an den Monitor schickt, wie misst ihr da genau die Mitte? Da müsste man doch gleichsam auf beiden HDMI Ports capturen... Und dazu das ganze noch zeitlich absolut! syncron.

Wir messen nur die linke Seite mit dem Overlay und das Analyse-Tool schaut sich dann an, welche Frames dort dargestellt werden und welche nicht. Das Tool sieht und zählt die Frames. Anhand des Farbcodes kann es sich anschauen, welche gar nur auf dem zweiten Panel (rechts) dargestellt werden, nicht aber auf dem ersten Panel (links), denn diese tauchen in ihrer Farbe gar nicht erst auf (oder sind zu kurz, oder doppelt usw.).

Die Kritikpunkte sind schon angebracht und wir werden sicher nicht das letzte mal dieses Setup sehen. Dann hoffentlich mit etwas mehr Vorlauf, ich muss die Koffer packen ;)
 
Ja nach Samplerate und Subsampling werden bei 3.840x2.160 Pixel Datenraten von 21,39 GBit pro Sekunde nötig. DisplayPort erreicht in seiner aktuellen Umsetzung 1.2 17,28 GBit pro Sekunde.

Wenn Displayport doch weniger Daten liefern kann; verwendet ihr dann eine niedrigere Samplerate / Subsampling? Welche Einschränkungen werden denn dann gemacht, damit das läuft?

Battlefield 3 ist ein weiteres Beispiel, das noch einiger Optimierung bedarf. Nur eines der beiden Panels des 4K-Displays wird angesteuert.

PCGH hat das aber scheinbar hinbekommen :confused:
Spieletest auf 4K-LCD: Battlefield 3 in 4.096 x 2.160 - Jetzt mit verbessertem Video und oscarverdächtigen Outtakes
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh