ASUS ROG Strix SCAR 17 im Test: Farbenfroher RGB-Laptop mit pfeilschneller Hardware

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
asus_rig_strix_g733qs-teaser.jpg
Zur digitalen CES 2021 im Januar frischte ASUS seine leistungsstarken RGB-Notebooks der Strix-SCAR-Familie auf, spendierte ihr einen neuen Ryzen-5000-Prozessor, eine GeForce-RTX-30-Grafik und ein neues Gehäuse, das sich nun noch mehr individualisieren lässt und obendrein mit einer optomechanischen Tastatur sowie einem kräftigen Soundsystem aufwarten kann. Wie sich der leuchtstarke Gaming-Bolide schlägt, das erfährt man in diesem Hardwareluxx-Artikel auf den nachfolgenden Seiten. Wir haben das rund 3.000 Euro teure Spitzenmodell des ASUS ROG Strix SCAR 17 ausführlich auf den Prüfstand gestellt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In welchem Leistungsmodus wurden die Messungen durchgeführt? Inwiefern ändert sich die CPU TDPs und die Dauer der jeweiligen Booststufen in den verschiedenen Modi? In welchen Modi steht Dynamic Boost zur Verfügung? (Spoiler: Im Modus Performance nicht, wenn es so ist, wie bei den anderen ASUS Notebooks). Wenn die Messungen in "Performance"durchgeführt wurden, kam Dynamic Boost dann gar nicht zum Tragen. Wenn der Dynamic Boost zum tragen kommt, wie hoch ist er dann in typischen Szenarien und wird er auch gehalten bei steigenden Temperaturen? Wie ändert sich die Lautstärke in den Modi?

Also ich vermisse hier noch so einiges...
 
Für die Speks und Leistung ist der Preis schon OK. Bei den Preisen aktuell für CPU und GPU. Ich denke, diese Geräuschkulisse liegt in der Natur der Sache bei so engen Verhältnissen. 90°C bei Volllast müssen ja irgendwie hinaus geschaufelt werden. 😜
 
Mir fehlt die Angabe, in welchem Modus die Displayhelligkeit gemessen wurde. Mit oder ihne Stromkabel. Das macht ein riesigen Unterschied. Welches Display ( Modell) wurde verbaut.

ich weiß wovon ich rede, denn ich besitze das G733QS
 
Das Ding mit G-Sync wäre in Traum...
 
Das ding ist echt top. Und Ich hatte viele notebooks. Das ge76 hatte ich hier undcwar nicht so geil. Allein schon der 5900hx und die krasse Akkulaufzeit
 
Dass Asus immer solche Probleme mit der Laufzeit im Office/Idle hat... Da ist ein 90 Wh Akku verbaut und das Gerät liegt trotzdem weit hinter z.B. dem Gigabyte Aero.
 
Pfeilschnell würde ich befürworten ,nur wenn keine verdammte Nvidia GPU drin ist.
2 Hitzequellen = mehr Stromverbrauch.
Hab hier von einem Kunden einen etwas älteren Dell Latitude E6XXX Modell
Da steckt ein intel I7 4800M zusammen mit einer Nvidia drin.
16 GB Ram und einer SSD.
Es gibt 3 Akkupacks damit.
Der Kleinste Akku hat 60 Wh und kostet ca 40€
Der Mittlere kostet um die 80-100 und hat 87 Wh
Und der ganz große hat 97 Wh und kostet in der Spare Parts Abteilung von Dell satte 120 €
Mit dem Kleinen Akku kannst froh sein wenn das Gerät gerademal 2 Std durchält. Mit dem 87 Wh
kommst auf knapp 3 ,bisserl mehr.
Und der 97 Wh schafft knapp 4 Arbeitsstunden . Neu ca. 4 Stunden 15 Min.
Diese Stromfresser sind grauenhaft.
Mein Schenker mit dem 4XXX AMD Ryzen Mobile ,schafft zwar deutlich mehr bei weniger Akkuleistung .
Mit einer Nvidia drin ( hat ein Kollege) verändert sich die Arbeitszeit deutlich.
Ohne komme ich auf 6-8 Stunden, bei sehr geringem Verbrauch auch auf 10 Stunden.
Kollege schafft gerade mal 4-5 bei Minimalist Benutzung kratzt er an der 5-6 Stunden Marke.
Ich wäre Froh wenn die Hersteller die Nvidia Sachen mal weglassen würden.
Die on Board oder APU Grafik ist um ein vielfaches Leistungsstärker als die von Intel.
Würde auch Geld bei der Herstellung einsparen und man müsste nicht so viele Geräte als Lagerhüter Halten.
Beitrag automatisch zusammengeführt:

Für die Speks und Leistung ist der Preis schon OK. Bei den Preisen aktuell für CPU und GPU. Ich denke, diese Geräuschkulisse liegt in der Natur der Sache bei so engen Verhältnissen. 90°C bei Volllast müssen ja irgendwie hinaus geschaufelt werden. 😜
Das kriegt man hin wenn man auch die Kühlung Korrekt dimensioniert.
Wenn ein zusätzliche Verdammte Nvidia GK drin ist ,hast 2 Hitzequellen die gekühlt werden müssen.
die Kühlung fällt dafür Größer aus und es ist schlechter es zu Kühlen bzw. die Abwärme besser Wegzubekommen.
Geht man her und nimm die verdammte Nvidia weg , wird auch die Kühlung kleiner da weniger Abwärme weggeschafft werden muss.
Die Akkuleistung würde die Arbeitszeit verlängern . Mehr Anschlüsse für Monitore HDMI oder DVI , wären Ok.
Aber so in der Konfig eine Absolute Katastrophe.

Wir haben das rund 3.000 Euro teure Spitzenmodell des ASUS ROG Strix SCAR 17 ausführlich auf den Prüfstand gestellt.

Das ist eine Preisklasse wo ich nicht bereit bin für soviel Mist auch das Geld zu bezahlen.
In dem Preisbereich erwarte ich folgende Konfig und Specs:
  • AMD Ryzen Mobile ALLEINE !
  • 16 GB oder 32 GB RAM S0-DDR4 oder anderen Speicher.
  • SSD mit mindestens 500 GB bei über 510 Schreiben und 540 M/Bit lesen.
  • NIC mit 1 bzw. 10 G/Bit oder höher
  • WLan für 2,6 und 5 GHZ über Schalter Manuell Deaktivierbar.
  • Blu Ray Laufwerk (Brenner)
  • Option eine m.2 zusätzlich Einzubauen
  • Garantiert 10 Stunden Akkulaufzeit bei 70% Auslasung des Systemes
  • Passenden Akku mit mindestens 80 Wh
  • Display entspiegelt , mit Integrierter Webcam Mechanisch Abschaltbar (Switch).
  • Mindestens 4 USB 3.0 oder höher USB Ports , Kein Thunderbold
  • Klassisch PCMCIA Slot oder PCI Express
  • SD-Kartenslot für Speicherkarten.
  • Schnittstelle für Große Docking Station für GK Erweiterungen etc.)
  • 3 Jahre weltweite Garantie.
  • Gratisbeigabe ,Laptop Tasche aus Nylon oder Echt Leder (Farbwahl)
  • Als Extra Farbige Cover für die Gehäuse ( austauschbar)
 
Zuletzt bearbeitet:
Mir fehlt die Angabe, in welchem Modus die Displayhelligkeit gemessen wurde. Mit oder ihne Stromkabel. Das macht ein riesigen Unterschied. Welches Display ( Modell) wurde verbaut.

ich weiß wovon ich rede, denn ich besitze das G733QS

Die verminderte Helligkeit auf Akku kann man in den Radeon Einstellungen abschalten. - Varibright deaktivieren. Bei Intel Notebooks geht das in den Intel Einstellungen auch.
Das Ding mit G-Sync wäre in Traum...
Hat doch Freesync. Macht doch keinen Unterschied,
 
@wertzius

Hatte ich übersehen, dann ist das ein Traumteil. Hab den Vorvorgänger vor einem Jahr geholt. Der war da allerdings noch wesentlich günstiger. :-)
 
Kann ich nicht bestätigen. Mann muss natürlich auch die igpu nutzen

Ich beziehe mich auf die Messdaten im Test. Die sind leider nur mittelmäßig - nicht grottenschlecht, aber auch nicht gut.

Wenn man - wie ich und viele andere - einen portablen 17-Zoller sucht, der sowohl als Gaming-Maschine, als auch als ausdauernder Wegbegleiter herhalten soll, finde ich es halt immer etwas enttäuschend, wenn die Hardware im Idle/Office mehr verbraucht, als sie eigentlich müsste. Oder anders gesagt: Einige Hersteller von Gaming-Notebooks könnten sich softwareseitig ruhig ein bisschen mehr ins Zeug legen, wenn es um die Optimierung des Verbrauchs bei geringer Last geht.

Dadurch schont man nicht nur die Batterie, sondern sorgt auch dafür, dass die Lüfter nicht ständig laufen müssen.
 
Ich beziehe mich auf die Messdaten im Test. Die sind leider nur mittelmäßig - nicht grottenschlecht, aber auch nicht gut.

Wenn man - wie ich und viele andere - einen portablen 17-Zoller sucht, der sowohl als Gaming-Maschine, als auch als ausdauernder Wegbegleiter herhalten soll, finde ich es halt immer etwas enttäuschend, wenn die Hardware im Idle/Office mehr verbraucht, als sie eigentlich müsste. Oder anders gesagt: Einige Hersteller von Gaming-Notebooks könnten sich softwareseitig ruhig ein bisschen mehr ins Zeug legen, wenn es um die Optimierung des Verbrauchs bei geringer Last geht.

Dadurch schont man nicht nur die Batterie, sondern sorgt auch dafür, dass die Lüfter nicht ständig laufen müssen.
ich hatte das letzte Aero 17 mit nem i7 10875 mit einer 2070super. Das ist wesentlich schlechter als das o.g.

ich kann auch das nicht bestätigen, denn Ich komme auf 7-8 Stunden Akkulaufzeit, je nach Einstellungen
Ich möchte das Notebook nicht bis in den Klee loben, aber ich bin richtig zu frieden.
Mehr Akkulaufzeit ist möglich, aber da muss man schon zu viel runterdrehem

einzige Kritikpunkte sind, dass das switchen von iGPU zur NVIDIA GPU nicht immer automatisch funktioniert
Und wenn man auf das Gehäuse bei der Tastatur drückt, dass es sich durchbiegt
Beitrag automatisch zusammengeführt:

Die verminderte Helligkeit auf Akku kann man in den Radeon Einstellungen abschalten. - Varibright deaktivieren. Bei Intel Notebooks geht das in den Intel Einstellungen auch.

Hat doch Freesync. Macht doch keinen Unterschied,
Dankeeee
 
Kann ich nicht bestätigen. Mann muss natürlich auch die igpu nutzen

Das kann ich nur bestätigen! Bei Office-Arbeit komme ich locker auf 7-8 Stunden (igpu vorausgesetzt) und bei einfacheren Tasks wie surfen etc. sogar auf teils 10 Stunden+! Weiterhin ist das Notebook im Turbo-Modus in der Tat recht laut (wie quasi jedes Gaming-Notebook, dass ich bis heute hatte), ist aber im Leise-Modus echt super ruhig (Lüfter sind meisten aus) und performant (Cinebench 20 Multi: ca. 4230)!

 

Das kann ich nur bestätigen! Bei Office-Arbeit komme ich locker auf 7-8 Stunden (igpu vorausgesetzt) und bei einfacheren Tasks wie surfen etc. sogar auf teils 10 Stunden+! Weiterhin ist das Notebook im Turbo-Modus in der Tat recht laut (wie quasi jedes Gaming-Notebook, dass ich bis heute hatte), ist aber im Leise-Modus echt super ruhig (Lüfter sind meisten aus) und performant (Cinebench 20 Multi: ca. 4230)!

Sag ich doch auch aus mit meiner Aussage
 
In wie weit ist denn die 3080 schlechter, als eine "Desktop" RTX 3080?
 
@GuentherLudolf


1615457602170.png




1615457617659.png


1615457627264.png


Im direkten Vergleich holt eine mobile RTX 3080 (16GB) mit'm Powerlimit von 165w (150w + 15w) beim Alienware m17 R4 (höchste mir bekannte TGP-Limit) inkl. OC (+175 Takt/ +500 Mem) rund 12.900 Punkte im Graphics-Score von TimeSpy: (Quelle)

1615457818758.png



Zum Vergleich hole ich mit meiner 2080s in TimeSpy knapp genau so viele Punkte:

1615457906202.png



Hast du nun eine GPU, die nur maximal 150w oder weniger durchlässt, fällt der Score entsprechend geringer aus. Die 3.000er GPU können nur glänzen, wenn man auch ordentlich Strom durchprügelt. Zudem wurde die 3080 stark in den CUDA-Kernen beschnitten.
 
@GuentherLudolf


Anhang anzeigen 601874



Anhang anzeigen 601875

Anhang anzeigen 601876

Im direkten Vergleich holt eine mobile RTX 3080 (16GB) mit'm Powerlimit von 165w (150w + 15w) beim Alienware m17 R4 (höchste mir bekannte TGP-Limit) inkl. OC (+175 Takt/ +500 Mem) rund 12.900 Punkte im Graphics-Score von TimeSpy: (Quelle)

Anhang anzeigen 601877


Zum Vergleich hole ich mit meiner 2080s in TimeSpy knapp genau so viele Punkte:

Anhang anzeigen 601878


Hast du nun eine GPU, die nur maximal 150w oder weniger durchlässt, fällt der Score entsprechend geringer aus. Die 3.000er GPU können nur glänzen, wenn man auch ordentlich Strom durchprügelt. Zudem wurde die 3080 stark in den CUDA-Kernen beschnitten.
Vielen dank dafür!

Klingt für mich dann nach ordentlich Augenwischerei. Natürlich ist die Leistung an sich gut. Aber wer sich um Beispiel überlegt das Notebook für 3000€ zu kaufen, der rechnet vielleicht den Wert einer "normalen" 3080 dagegen.
Also ist die GPU eher mit einer 3070 Desktop Karte vergleichbar. Ist natürlich absolut top...aber nicht zu dem Preis
 
Noch nie waren Mobile GPUs mit den Desktop Versionen vergleichbar. Wer glaubt er bekommt mobil die selbe Leistung wie das jeweilige Desktop Gegenstück zeigt nur, dass es ihm am Grundlegenden Verständnis der Physik fehlt.

Die letzte Generation war eine Ausnahme was die Cuda Cores angeht, aber die Leistungsaufnahme ist eben der entscheidende Punkt.

Ich find es immer sehr zum Schmunzeln wenn eine TechSeite darauf hinweist das man nicht die Desktop Performance bekommt, als ob das irgendwie was Besonderes ist. Natürlich wird man in einem Laptop nie die Desktop Performance sehen auch wenn die Karten einem gleichen Namenschema folgen...

Für mich keine Augenwischerei, sondern eben physikalisch bedingt, dass ich durch ein 2-3cm dickes Laptop keine 250w durch die GPU jagen kann...

Das ist doch selbst dem unbedarftesten Nutzer offensichtlich und erfordert meiner Meinung nach keinen besonderen Hinweis.
 
Zuletzt bearbeitet:
Klingt für mich dann nach ordentlich Augenwischerei.
Ja, das ist richtig. Es ist viel Augenwischerei dabei. Ich habe mal irgendwo gelesen, dass die stärkste 3060 besser sein soll als die schwächste 3080. 😄 Weiß nicht, ob das stimmt, ich würd's aber zutrauen.


Noch nie waren Mobile GPUs mit den Desktop Versionen vergleichbar.
Doch. Zu Zeiten der 2.000er Serie schon. Beispielsweise der Area 51m R1 mit ner 2080 und 200w Limit. Auch MSI (GT76 Titan) und Asus hatten solche GPUs im Petto und haben auch problemlos ne 2080 FE (215w) geknackt. Denn, wenn die 2080 im Notebook mit LM lief, konnte man oftmals mehr Leistung aus der 2080 ziehen als aus der Founders, die Stock lief. Benchmarkzahlen kann ich dir gerne schicken. Ansonsten AW-Forum oder NotebookReview-Forum (AW-Bereich). Auch die Clevo Dinger mit'm Prema BIOS waren immer ganz vorne mit dabei.

In dem Fall konnte man nämlich sehr gut mit Desktop vergleichen, weil 1. der Chip inkl. Kerne identisch war und 2. auch die Powerlimits relativ, zumindest zum Referenzdesign mit 215w Limit. Boardpartnerkarten zähle ich jetzt mal nicht mir rein, sonst könnte ich ja gleich mit ner Kingpin oder HOF oder so ankommen.
 
Die letzte Generation war eine absolute Ausnahme. Und auch deine Beispiele sind eher eine Ausnahme. Ich war vor 8 Jahren oder so im AW Forum Moderator und kenne die Historie deshalb.
 
Du reißt das völlig aus dem Kontext (das bezog sich lediglich auf die Cuda Cores). Auch letzte Generation war die Leistungsaufnahme in Laptops nie auf dem Niveau vom Desktop
Beitrag automatisch zusammengeführt:


Du hast es selbst gepostet. Notebooks üblicherweise 80-150W, Desktop fängt bei 215W erst an. Wenn du besondere Notekoobs, besonders dick, mit besonders hohem PT in den Vergleich hinzuziehst, müsstest du das auch für den Desktop machen. Üblich sind 80-150 zu 215.
 
Zuletzt bearbeitet:
Für mich keine Augenwischerei

Das ist doch selbst dem unbedarftesten Nutzer offensichtlich und erfordert meiner Meinung nach keinen besonderen Hinweis.
Für mich ganz klar schon. Die nennen das Ding 3080, beschneiden das Teil aber auf Höhe einer 3070. Wenn das Teil dann noch wie im Razer mit 90w läuft, darfst du nicht allzu viel erwarten, aber gut, die Diskussion hatten wir ja schon gestern.

Du reißt das völlig aus dem Kontext. Auch letzte Generation war die Leistungsaufnahme in Laptops nie auf dem Niveau vom Desktop
Ich habe dich nur zitiert.

Also für mich waren die 200w GPUs schon auf Höhe der Desktop-Karten mit 215w FE. Ich brauche da auch mit dir nicht zu diskutieren. Du sagtest noch gestern zu mir, dass du dich gut mit Benchmark-Zahlen auskennst, willst aber jetzt nicht akzeptieren, dass teilweise solche Notebook-GPUs gleich oder gar besser als das Desktop-Äquivalent waren. Irgendwie musst man die Leistung ja bewerten und dafür sind Benchmark-Zahlen nun mal geeignet. Die 15w mehr, die die Founders konnte, haben auch kaum geholfen, weil ab 180w aufwärts der Performance-Zuwachs sehr gering ausfällt, wenn überhaupt.

Wenn du jetzt meinst, dass man das nicht vergleichen kann, ok, aber die Benchmark-Zahlen sagen ja was anderes aus. Ich bewerte und vergleiche hier nur die reine Leistung, nicht Kühlung, Lautstärke etc.
 
Das sind absolute Ausnahmefälle die du dir hier cherry pickst und es als Referenz heranziehst. Im Großen und Ganzen sind Laptops nicht auf dem Leistungsniveau vom Desktop, waren sie nicht und werden sie nicht sein. Ende.
 
Du hast es selbst gepostet. Notebooks üblicherweise 80-150W, Desktop fängt bei 215W erst an. Wenn du besondere Notekoobs, besonders dick, mit besonders hohem PT in den Vergleich hinzuziehst, müsstest du das auch für den Desktop machen. Üblich sind 80-150 zu 215
Warum muss ich das? Soll doch jeder vergleichen, worauf er Lust hat. Ich vergleiche die RTX 2080 FE mit der stärksten 2080 Notebook-Version, weil du behauptet hast, dass Notebook-GPUs NIE auf Augenhöhe waren. Es gibt/ gab jedoch wenige Laptops, die das schon waren. Demnach ist dein Argument so erstmal nicht richtig gewesen und das hat auch nichts mit cherry-pick zu tun oder so, weil dann hätte ich auch irgendwelche Benchmark-Rekorde nehmen können oder golden Samples oder sowas. Wenn dir der Vergleich nicht gefällt, ignoriere ihn einfach. Natürlich hast du nicht ganz unrecht. Ja, es sind nur ne Hand Notebooks, die überhaupt in diese Leistungsregion kommen, aber dennoch sind es Notebooks und der GPU-Chip war zu dieser Generation nicht beschnitten. Ich kenn genügend Leute, die Leistung vor "thin & light" (was für'n Wort) vorziehen, weil sie sich eben aufgrund ihrer Lebens-/ Berufssituation kein Desktop-PC hinstellen können. Und genau dann ist dieses Leistungsargument ein wichtiger Entscheidungsfaktor. Denn schließlich möchte man wissen wie viel Leistung man für sein Geld bekommt. Die Käufergruppe von DTR's interessiert immer primär die Leistung im Vergleich zu echten Desktops. Die heißen nicht umsonst Desktop-Replacement.


Im Großen und Ganzen sind Laptops nicht auf dem Leistungsniveau vom Desktop
Und genau das habe ich auch mit meinem ersten Beitrag aufgezeigt, weil aktuell die Leistungsschere zwischen Notebook und Desktop wieder sehr weit auseinander geht und man mMn viel Augenwischerei mit der neuen Generation macht.

Für mich keine Augenwischerei,
Ich ergänze noch einige Punkte zu dem Thema. Dann kannst du ja selbst entscheiden.

Das Argument mit der Namensgebung der "mobilen" 3080 habe ich bereits aufgeführt. Ein ähnlicher Beschiss ist auch der Dynamic Boost. Für Benchmark-Zahlen wie TimeSpy oder Firestrike ist er wunderbar, weil er schön die Zahlen aufpoliert. Die GPU wird im Graphics-Test für sich allein getestet, wo das Powerbudget für den Dynamic Boost immer ausreicht. Der Combined-Test geht lediglich 20 Sekunden. Was für'n Zufall das PL2 Boost (TAU/ Short Therm Power Duration Window) aber mindestens 30 Sekunden anhält, bevor es auf den PL1 (Long Therm Power Duration Window) geht. Bob hat das Thema ja schon mal angerissen (Video). Was für ne Vergleichbarkeit ist dann noch gegeben, wenn die Benchmark-Zahlen, das eine sagen, weil DB immer anliegt, aber in Realword-Gaming diesen gar nicht beanspruchen kann, weil das Powerbudget nicht ausreicht (Notebook-abhängig)? Genauso wie eine 3060 mit 135w eine 3080 mit 90w outperformt. Wahrscheinlich wird das der Extremfall sein, aber der Durchschnittskäufer setzt sich nicht mit irgendwelchen Benchmark-Zahlen oder Powerlimits, Powerbudget auseinander, sondern orientiert sich eher nach Modellnamen, so wie das in der Vergangenheit eigentlich schon immer war.
 
Ich such auch ein 17 Zoll Laptop, muss aber mit Enttäuschung sagen das es sehr schwer ist ein guten zu finden. Mein letzter was ein acer predator 17 der leider einen Totalschaden hat. Jetzt such ich seit November 2020 einen einigermaßen Gaming fähigen der mir die Leistung von einem Desktop PC annähernd bringt. So wie du es sagst, nicht jeder hat den Platz oder die Möglichkeit einen PC Rechner in die Wohnung zu stellen. Ich habe schon so einige apersonen versucht zu fragen was da am besten ist. Da ich mich nicht wirklich mit den Einzelheiten der IT auskenne. Höre dann immer, für so viel Geld ist ein PC Rechner besser. 👍. Das weiß ich auch aber ich brauche ja einen Laptop. Jetzt habe ich deinen Beitrag hier gesehen und endlich jemanden gefunden der mir zeigt das ich nicht der einzige bin der der Meinung ist das gaming Laptops nicht leicht sein sollen sondern Performance und Qualität. Damit ich auch mal das Wochenende mit Freunden durchzocken kann. Kannst du mir was empfehlen für den Preis bis ca 3000€ +- 250€? Ich benutze meinen Laptop zum Spielen aber auch zum Fernsehen schauen. Das heißt das der Laptop auch Mal etwas länger 8m Betrieb ist. Würde mich um jede Hilfe freuen. Danke dafür schonmal.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh