MSI GS66 Stealth 10UH im Test: Edler Thin-&-Light-Gamer mit GeForce RTX 3080

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
msi_gs66_stealth_19uh-teaser.jpg
Das MSI GS66 Stealth ist eines der ersten Geräte, das auf die neuen mobilen GeForce-RTX-30-Grafikkarten von NVIDIA setzt und sich damit im Generationsvergleich vor allem bei der Grafikleistung und der Effizienz absetzen dürfte. Aber auch in Sachen Display macht man einen ordentlichen Schritt nach vorne und bietet nun sogar schnelle QHD-Varianten an – zumindest in den US-Geräten. Wie sich die Neuauflage in einer der Spitzenversionen mit Intel Core i7-10870H, NVIDIA GeForce RTX 3080, 16 GB RAM und einer 1 TB großen NVMe-SSD sowie 240 Hz schnellem QHD-Panel schlägt, das klärt unser heutiger Hardwareluxx-Test pünktlich zum offiziellen Marktstart. 
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die RTX 3080 ist merklich langsamer als RTX 2070 in älteren Geräten, das nenne ich mal Fortschritt. Aber gut, MSI gibt der ja auch nur die TDP einer 3060 frei. Scheint aber bei vielen geplanten Geräten, dem Asus TUF und Acer Nitro 5 ähnlich zu sein. Und dann wird die TDP noch nichtmal in den Datenblättern abgegeben sondern man kann nur hoffen die Info in irgendeinem Test zu finden.
 
Die Leistung entspricht auf den Punkt einer 2080S.
3080 ist immer noch 50% schneller!

MSI GS66 Stealth 10UH im Test: Edler Thin-&-Light-Gamer mit GeForce RTX 3080 2080S
 
Solange da MSI immer und immer wieder Resteverkauf mit Fehlerhaft Produzierten Intel CPU Krücken macht ,ist das für mich keine Kaufoption.
Ich hätte mich breitschagen lassen evtl. wenn da eine AMD Ryzen Mobile Version drin wäre.
Aber so vielen Dank kein Interesse.
Da ist Schenker sogar besser.
 
Na ja - finde die Leistung überhaupt nicht zufriedenstellend.
Das sind Werte von einem 2019er ACER Triton 500 ( ebenfalls "thin & light") mit i7-8750H und 2080 MaxQ (80W)

TS.jpeg


FS.jpeg
 
Die 95W kommen wegen des "Schlankheitswahnsinns" daher...
Natürlich möchte ich keinen dicken Klopper, jedoch sind 2cm aus meiner Sicht ein Witz.
Ein High End (Betonung auf "End") Gamingnotebook darf ruhig etwas schwerer sein.
In der Regel ist man damit weniger mobil. Es ersetzt meist den Desktop-PC.
 
Na ja - "Schlankheitswahn" mit dennoch ansprechender Leistung kann schon funktionieren. Sieht man ja an anderen Geräten.
Aber hier ist die Leistung teilweise sogar schlechter als bei Geräten mit einer RTX 2060 (z.B. Helios 300).
 
Na ja - finde die Leistung überhaupt nicht zufriedenstellend.
Das sind Werte von einem 2019er ACER Triton 500 ( ebenfalls "thin & light") mit i7-8750H und 2080 MaxQ (80W)
Naja, deine Werte werden doch kaum mit Standardeinstellungen sein. Bei Tests die man Online findet liegen die Werte sehr deutlich unter deinen. Z.B. https://www.ultrabookreview.com/24809-acer-triton-500-review/
3DMark 13 – Fire Strike: 16103 (Graphics – 19554, Physics – 13979);
3DMark 13 – Time Spy: 7064 (Graphics – 7421, CPU – 5551);
 
Naja, deine Werte werden doch kaum mit Standardeinstellungen sein. Bei Tests die man Online findet liegen die Werte sehr deutlich unter deinen. Z.B. https://www.ultrabookreview.com/24809-acer-triton-500-review/
Das habe ich auch nicht behauptet... ;-)

Ich erwarte aber von einem Notebook welches 2021 mit einer RTX 3080 verkauft wird eine deutlich höhere Leistung "out of the box" als bei einem Gerät mit CPU / GPU der (Vor-) Vorgänger - Generation welches mit Undervolting bzw. Curve - Optimierung im MSI AB etwas "optimiert" wurde.
 
Zuletzt bearbeitet:
MSI Stealth (https://www.hardwareluxx.de/index.p...light-gamer-mit-geforce-rtx-3080.html?start=8)
- Futuremark 3D Mark: 12151
- Project Cars 2, FHD Ultra: 84,1 fps
--> Mit einer 3080M...

Gigabyte Aorus (https://www.hardwareluxx.de/index.p...nd-core-i7-10870h-noch-schneller.html?start=8)
- Futuremark 3D Mark: 21515
- Project Cars 2, FHD Ultra: 122,2 fps
--> Das hier mit einer 3070M...

MSI macht einfach das, was befürchtet wurde: Mit der Zahl "3080" blenden. Dabei aber 2060MaxQ Leistung liefern. Und durch die gesenkten Anforderungen seitens nVidia sind sie damit innerhalb der Spec. Da haste halt Pech, wenn Du den Mist blind gekauft hast.
 
Unser Testmuster macht sich mit einem Grund- und Boost-Takt von 780, bzw. mindestens 1.245 MHz ans Werk. Damit schaffen es MSI und NVIDIA, die TGP im Notebook auf 95 W zu drücken. Technisch spezifiziert NVIDIA sein mobiles Spitzenmodell im Bereich von 80 bis 130 W.
Die Taktraten entsprechen der 80W Variante. Ich nehme mal an, 95W ergeben sich aus +15W Dynamic Boost.
 
80 Watt ist das langsamste für eine 3080, eine 115 W 3060 wäre schneller ...

Aber Hauptsache 3080 dranschreiben und den Preis hochtreiben.
 
Als nächstes kommt noch einer auf die geniale Idee und kürzt die Speicheranbindung der langsamen 3080 auf 128 bit, weil ja eh nicht mehr gebraucht wird. 😉
 
Schreibe ungern in solchen Foren, aber dieser Test und die Kommentare erstaunen mich. Das Erstere im negativen Sinne und das Letztere im Positiven ...

@Kommando
Das Gigabyte AORUS 15P XC kostet laut Preisvergleich gerade mal 1900 €.

Das deutliche schnellere Alienware Aera-51m R2 - was das hier getestete MSI GS66 Stealth 10UH in der Spieleleistung deutlich hinter sich lässt, und in der System- und Creation-Leistung die nahezu doppelte Leistung erbringt - kostet momentan in der Ausführung in der getestet wurde rund 3000 €.
Es ist deutlich hochwertiger, kühler und sogar leiser im Betrieb.

@Stegan
Warum entfernen Sie die Ergebnisse des Gigabyte AORUS 15P XC aus Ihren eigenen Benchmarks?
Es bietet die gleiche Leistung (was wohl für viele der Käufer dieser Preisklasse das ausschlaggebende Argument sein sollte) und kostet weniger als die Hälfte.

Warum wird nicht deutlich, ein negativer Punkt im Fazit gezogen, dass der Käufer hier beinahe 4000 € bezahlt, aber dafür solch niedrige Leistung erhält, vor allem Prozessor- und Spieleleistung, im Vergleich zu anderen Geräten?
Die Stromaufnahme der Grafikkarte wurde um fast 88 % reduziert. Der Kunde soll aber dazu verleitet werden fast 4000 € zu bezahlen.
Wann erhält der Käufer die hier verbaute Grafikkarte in der 150 W-Ausführung? Erst im 6000 € Notebook?
Wer kauft sich ein solches Gerät für 4000 €, blos damit es in den Abmessungen 2,5 cm hoch ist und schick aussieht? Es ist doch ein Spielenotebook; man möchte Leistung!

Das ist Ihr negatives Fazit - in beschwichtigende Worte gehüllt; sacht formuliert.
Eine GeForce RTX 3070 mit einer spezifizieren TGP von 125 W kann schneller als eine vermeintlich höherwertigere GeForce RTX 3080 mit nur 95 W sein. Eine eindringlichere Recherche im Datenblatt wird beim Laptop-Kauf somit endgültig zur Pflicht.
Hier kommt wohl der Widerspruch zu Tage, bei dem ein Tester auf das Wohlgefallen des Unternehmens angewiesen ist und sich hüten muss ein negatives Feedback zu äußern, gleichzeitig aber von einem professionellem Tester wie Ihnen, die Leserschaft Neutralität erwartet.
 
@Stegan
Warum entfernen Sie die Ergebnisse des Gigabyte AORUS 15P XC aus Ihren eigenen Benchmarks?
Es bietet die gleiche Leistung (was wohl für viele der Käufer dieser Preisklasse das ausschlaggebende Argument sein sollte) und kostet weniger als die Hälfte.
Alle bisherigen Benchmark-Ergebnisse einer Reihe finden sich jeweils im letzten Artikel. Der MSI-Artikel wurde vorher erstellt, der Gigabyte ist der aktuellste – ein Quervergleich ist für die nächste, längst fällige Parcours-Umstellung geplant.

Warum wird nicht deutlich, ein negativer Punkt im Fazit gezogen, dass der Käufer hier beinahe 4000 € bezahlt, aber dafür solch niedrige Leistung erhält, vor allem Prozessor- und Spieleleistung, im Vergleich zu anderen Geräten?
Die Stromaufnahme der Grafikkarte wurde um fast 88 % reduziert. Der Kunde soll aber dazu verleitet werden fast 4000 € zu bezahlen.
Wann erhält der Käufer die hier verbaute Grafikkarte in der 150 W-Ausführung? Erst im 6000 € Notebook?
Wer kauft sich ein solches Gerät für 4000 €, blos damit es in den Abmessungen 2,5 cm hoch ist und schick aussieht? Es ist doch ein Spielenotebook; man möchte Leistung!
Ganz einfach: Es sind Geräte mit unterschiedlicher Zielgruppe. Von einem dünnen, portablen Gerät, wie es das MSI-Modell ist, kann man keine Höchstleistung erwarten, schließlich stößt man Blick auf Kühlung und Stromversorgung auf gewissen Grenzen – die 150 W der von Dir gewünschten GPU müssen erst einmal abgeführt werden. Da tut sich das AORUS-Gerät nunmal leicht als das MSI-Modell. Die Barebones entscheiden letztendlich, welche TGPs eingesetzt werden (können).

Der typische Notebook-Käufer stellt sich zunächst folgende Fragen:

- Will ich ein ultraportables Notebook für den Alltag haben? -> Ultrabook (Dell XPS 13)
- Will ich ein portables Notebook mit der Option aufs Zocken haben? -> Thin & Light Gaming (Zephyrus, GS66)
- Will ich ein echtes Gaming-Notebook haben? -> Gamer (AORUS 15P, GE66)
- Will ich einen Standersatz für den Spielerechner haben? -> Desktop-Replacement (Ulra 17, GT75)

Erst danach folgt die Auswahl der Komponenten.

Man sollte schon Äpfel mit Äpfeln vergleichen: Vorher war es eine RTX 2080 Max-Q, heute ist es einfach eine RTX 3080 ohne Namenszusatz, aber ebenfalls reduzierter TGP. Dass das für den Käufer nicht die beste Option ist, steht im Artikel. Der Schuldige ist aber NVIDIA, nicht MSI.


Den Preis machen am Ende nicht die reinen Hardware-Komponenten aus. Das MSI-Gerät bietet viele Vorzüge, die das Gigabyte-Modell nicht, das fängt schon alleine am Display mit der höheren Auflösung an und ich bin mir sicher, dass NVIDIA für die – nennen wir sie einfach Max-Q-Version – der Grafikkarte einen stattlichen Aufpreis zur RTX 3070 aufruft.
Das ist Ihr negatives Fazit - in beschwichtigende Worte gehüllt; sacht formuliert.

Hier kommt wohl der Widerspruch zu Tage, bei dem ein Tester auf das Wohlgefallen des Unternehmens angewiesen ist und sich hüten muss ein negatives Feedback zu äußern, gleichzeitig aber von einem professionellem Tester wie Ihnen, die Leserschaft Neutralität erwartet.
Die hier zitierte Kritik geht gegen NVIDIA, die letztendlich die Hardware liefern. MSI und Gigabyte basteln quasi das Produkt drumherum. Letzteres wurde getestet.

Genau deswegen sind bei jedem größeren Medium das Anzeigen-Geschäft und die Redaktion strikt getrennt.
In diesem Fall aber war es sogar so, dass das MSI-Gerät von NVIDIA gestellt wurde und nicht von MSI. So gesehen war der Test ein nettes Geschenk von dem MSI nichts wusste. ;)
 
Man sollte schon Äpfel mit Äpfeln vergleichen: Vorher war es eine RTX 2080 Max-Q, heute ist es einfach eine RTX 3080 ohne Namenszusatz, aber ebenfalls reduzierter TGP. Dass das für den Käufer nicht die beste Option ist, steht im Artikel. Der Schuldige ist aber NVIDIA, nicht MSI.

Das Problem liegt bei beiden. Wobei MSI nicht alleine da steht, Asus oder Acer machen es nicht besser. Nvidia lässt einen viel zu großen Spielraum bei der TDP, es dürfte niemals so sein, dass ein größerer Chip durch die Kastration der TDP einem kleineren unterlegen ist. Oder eben wieder Q und P Klassifikation einführen

Und die Hersteller müssten einfach nur die TDP angeben. So ist das nur großer Name, dadurch teurer -> Kundenabzocke bzw. Verarschung.

Den Preis machen am Ende nicht die reinen Hardware-Komponenten aus. Das MSI-Gerät bietet viele Vorzüge, die das Gigabyte-Modell nicht, das fängt schon alleine am Display mit der höheren Auflösung an und ich bin mir sicher, dass NVIDIA für die – nennen wir sie einfach Max-Q-Version – der Grafikkarte einen stattlichen Aufpreis zur RTX 3070 aufruft.

Ganz bestimmt. Und den Aufpreis zahlt der Kunde ohne davon einen nennenswerten Mehrwert zu haben.

Die hier zitierte Kritik geht gegen NVIDIA, die letztendlich die Hardware liefern. MSI und Gigabyte basteln quasi das Produkt drumherum. Letzteres wurde getestet.

Aber nur die, die das Produkt zusammenbauen und konfigurieren können eine TDP angeben. Und das machen sie bewusst nicht, weil man dann ja vergleichen könnte und sieht das man teilweise für deutlich schlechtere Leistung mehr bezahlen muss ...
 
Es gibt Hersteller, die werden ihre Datenblätter und Verkaufskataloge entsprechend erweitern, bzw. haben TGPs schon immer mit angegeben. Auch wir müssen uns da umstellen. Selbst NVIDIA ist transparenter geworden: Über das Control Center kann man sich die TGPs, aber auch aktive Features wie WhisperMode, Resizable Bar, etc. anzeigen lassen. Die sind ja auch nicht bei jedem Notebook automatisch integriert...

Die Problematik bestand aber doch schon immer. Vorher konnte man immerhin am Max-Q-Zusatz erkennen, was man leistungsmäßig erwarten darf. :(
 
Ähm... diese angebliche Transparenz von Nvidia hat dazu geführt, dass ihr die 80W GPU als 95W im Artikel bezeichnet.

MSI_GeForce_RTX_30_Mobile_TGP_Specs.jpg
 
15 W sind dem Dynamic Boost geschuldet
 
Ist allen bewusst, dass die neue 3080 Mobile Karte gar keinen Chip von der 80er Desktop Karte hat? Da ist ein 70er Chip drauf, der auch noch deutlich gedrosselt wurde. Also in der 150 Watt Version. Die niedrigeren Abstufungen sind noch schlimmer ( langsamer ). Das ist vorsätzliche Täuschung und Be t r u g. Man kauft die 3080 Mobile und bekommt weniger Leistung, als eine 3070. Und warum? Weil die nicht in der Lage sind, die Kühlung der Gaming Laptops endlich mal zu steigern. Ich kann jedem nur abraten, sich eine 3080 Mobile auszuwählen. Da stimmt das P/L Verhältnis mal so gar nicht mehr.
Meine 2080 ( Desktop Version im Laptop ) macht das was sie soll. Aber hier stimmt ja nun gar nichts mehr. Das wird von mir nicht unterstützt.
 
Das ist vorsätzliche Täuschung und Be t r u g.
Der größte Beschiss ist aber noch Nvidia's Dynamic Boost. Dieser poliert oftmals nur Benchmark Ergebnisse auf und hat nichts mit Realword-Gaming zu tun, weil CPU und GPU in den bekannten 3D-Mark Benchmarks für sich alleine getestet werden und der Combined Test nur lächerliche 20 Sekunden geht (Firestrike). Was für'n glücklicher Zufall, dass Intels PL2 (TAU) oftmals aber min. 30 Sekunden anhält.

Mit vollem Powerbudget auf GPU hat man den Dyamic Boost (15w) immer anliegen. Bei zocken hat man aber gleichzeitig Last auf CPU und GPU und das Powerbuget reicht nicht, um die dauerhafte Bereitstellung von Dynamic Boost zu gewährleisten. Bob hatte das ja schön in einem -Video (2:43 - 3:25)- erklärt.

Ähm... diese angebliche Transparenz von Nvidia hat dazu geführt, dass ihr die 80W GPU als 95W im Artikel bezeichnet.
Das ist noch gar nichts... Die 3D-Mark Datenbank ist schon teilweise zugemüllt und Videocardz hat mittlerweile eine Auflistung von über 28 Notebooks GPU veröffentlicht und das ist noch längst nicht alles. Die Hersteller können auch noch nachträglich via BIOS Update das PL der GPU anpassen (falls sich zu viele User über hohe Temps beschweren :coffee2: ).

1612216551169.png

Beitrag automatisch zusammengeführt:

Die Leistung entspricht auf den Punkt einer 2080S.
3080 ist immer noch 50% schneller!
Die Leistung entspricht weder einer 2080s von einem Lappy, noch von einem Desktop-PC. 3D-Mark Links/ Bilder habe ich alle da, falls gewünscht. Hier mal die Daten zum Vergleich:

Alienware 17 R5 (2018) CPU: i9-8950HK, GPU: GTX 1080 (180-200w PL)
Time Spy: 8.078 points (Graphics: 8.083, CPU: 8.051)
Firestrike: 20.722 points (Graphics: 23.741, Physics: 20.375)


Alienware m15 R1 (2018) CPU: i7-8750H, GPU: RTX 2070MQ (90w PL)
Time Spy: 7.485 points (Graphics: 7.485, CPU: 6.848)
Firestrike: 16.966 points (Graphics: 19.635, Physics: 16.043)


Alienware m15 R1 (2018) CPU: i9-8950HK, GPU: RTX 2080MQ (90w PL)
Time Spy: 8.505 points (Graphics: 8.751, CPU: 7.339)
Firestrike: 19.427 points (Graphics: 23.146, Physics: 17.532)


Alienware m17 R3 (2020) CPU: i7-10750H, GPU: RTX 2080Max-P (150w PL)
Time Spy: 8.996 points (Graphics: 10.160, CPU: 5457) (CPU TT)
Firestrike: 19.973 points (Graphics: 26.178, Physics: 15.367) (CPU TT)


MSI GE66 (2021) CPU: i7-10870H, GPU: RTX 3080 (130w PL)
Time Spy: 11.335 points (Graphics: 11.915, CPU: 8.886)
Firestrike: 23.571 points (Graphics: 30.938, Physics: 20.315)


MSI GS66 (2021) CPU: i7-10870H, GPU: RTX 3080 (95w PL)
Time Spy: 4.889 points (Graphics: k.A. HWLuxx, CPU: k.A. HWLuxx)
Firestrike: 12.151 points (Graphics: k.A. HWLuxx, Physics: k.A. HWLuxx)


Desktop-PC: 9900KS, RTX 2080 Super: (MSI GamingX Trio 250w)
Time Spy: 12.867 points (Graphics: 12.860, CPU: 12.913)
Firestrike: 27.416 points (Graphics: 32.237, Physics: 28.228)
 
Zuletzt bearbeitet:
Das XMG Neo 17 mit einer 3070 (125+15 W) schafft im Firestrike (1920*1280) lt. Notebookcheck übrigens 27.698 Punkte.
Es geht also ...
 
Zuletzt bearbeitet:
Ich vermute, du meinst ne 3070. Nvidias RTX 3.000 kann ihre Performance nur dann wirklich zeigen, wenn man der GPU auch genügend Strom zur Verfügung stellt, weswegen die 3070, immer wieder die 3080 in diversen Benchmarks schlägt. In dem Fall vom XMG Neo 17 hat man bei der GPU ein 140w PL. Das ist schon ganz ordentlich und man muss fairerweise auch erwähnen, dass zusätzlich im Testing der Ryzen 5800H zum Einsatz kam. Die Ergebnisse sind schon ordentlich, keine Frage (Time Spy 10.898). Viele Notebooks kommen aber mit aktuell mit Intel und ein 115w+ PL auf der GPU können sich viele Thin & Light und/ oder 15" Notebooks nicht erlauben.
 
Ja, hab aus der 3079 mal eine 3070 gemacht und den Beitrag editiert.

Natürlich ist alles eine Frage der übrigen Komponenten und des Kühlsystems. Aber bewusst eine teurere Version zu verbauen, die dann nicht oder nur minimal schneller als die nächstgünstigere ist, ist doch Kundenverarschung. Der Aufpreis von 3070 auf 3080 sind im Normalfall ein paar hundert Euro, da sollte man einen entsprechenden Gegenwert erwarten dürfen. Und dann wird dabei oft die 3080 auch nur mit 8 GB verbaut statt der möglichen 16.
 
Wie ist das jetzt eigentlich ?
Nea, gibt bei der 3000 Serie keine 3080 TI mehr. Die 3080 ist sogesehen ne TI und ne 20 Gb version kommt wohl auch noch. Und ne 2080 ti oder 1080 ti gab es nie im Notebook.
Ne 3070 Desktop ist ja so gesehen das, was früher eine 80 Serie war ?
 
Zuletzt bearbeitet:
Im Notebook hat sich nix geändert bei den Reihenfolgen, 60/70/80, mehr nicht (bzw, im Refresh bei Turing die "Super" Versionen). Wie bei Turing und Pascal auch. Nur, dass die 80er jetzt eigentlich von den Daten her eher 75 oder 70 TI heißen müsste, weil sie im Vergleich zur Desktop-80er extrem abgespeckt ist.
 
Ja der Mist mit dem Dynamic Boost ist auch totale Verarsche. Das hatte ich zum Zeitpunkt meines Kommentars noch nicht gerafft gehabt.
Wie sieht denn die Regel bei Zockern wie mir aus? Intel Desktop CPU und dann eine 3080 Mobile, die dann bei entsprechender CPU Last zu wenig Strom bekommt und drosselt? Das ist der letzte Scheiß! Wieso macht man so einen Mist? Damit ist doch keinem geholfen.
Und was die Performance der 3070 im Firestrike angeht: lass doch mal das ganze länger als die 20 Sekunden unter Volllast laufen. Dann dürfte das schlechter aussehen. Pack da noch ne Desktop CPU rein und die Leistung wird wohl noch weiter fallen wegen der Stromaufnahme.
Übertakten kann man dann auch knicken.
Nachdem was ich so gelesen habe, wird das beste P/L Verhältnis die 3060 haben. Aber auch wiederum nur, wenn die Kühlung passt und die ihre Power auch ausspielen kann. Wie das mit einer Desktop CPU ausschaut, wird sich auch noch zeigen.
 
Theoretisch ja, aber die 3060 kann auch runter gedrosselt werden bis auf 1050 Niveau. Man muss ja auch "3060" auf rasierklingendicke Notebooks schreiben können.
 
Ne 3070 Desktop ist ja so gesehen das, was früher eine 80 Serie war ?
Turing Chips von den Desktop Karten waren äquivalent zu den Notebook Karten. Das hat sich mit Ampere aber deutlich geändert.

1612347605268.png



Das ganze Namenschaos, die unterschiedlichen Powerlimits, Dynamic Boost usw. vieles ist Augenwischerei und Marketing, wo am Ende der Kunde der Dumme ist. Nicht jeder kennt sich aus und informiert sich im Vorfeld über Powerlimits, TGPs usw.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh