Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Ich nimm einfach keine AMD 7900 GPU , die 3070 schafft den Multimonitor betrieb mit 12 watt also einem achtel der neuen AMD...
Meine Güte das ist ein Bug der wird gefixt hört doch mal mit dieser nörgelei auf.Keiner zwingt euch eine zu kaufen ? oder fühlt ihr euch unter Druck gesetzt weil nvidia da preislich nichts anzubieten hat?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verstehe ich hier die verzweifelte Verteidigung der grottigen 7900er richtig.

Wenn mir der viel zu hohe Verbrauch der 7900er im Idle oder beim Schauen von Videos nicht passt, dann soll ich einfach auf eingepreiste Features, wie der Mediaengine verzichten, oder mir gleich noch einen zusätzlichen PC anschaffen?
Warum sollte ich mir dann überhaupt so eine GPU für über 1000€ kaufen, wenn die nicht einmal alle meine Anforderungen erfüllt, während die Konkurrenzprodukte dies problemlos schaffen? :stupid:

Meine Güte das ist ein Bug der wird gefixt hört doch mal mit dieser nörgelei auf.Keiner zwingt euch eine zu kaufen ? oder fühlt ihr euch unter Druck gesetzt weil nvidia da preislich nichts anzubieten hat?
Warum existiert dieser Bug dann schon seit den 5000er und wurde bisher nicht gefixed, wenn dieser doch mal ebenso gefixed werden kann? Warum sollte ich mich als potentieller Käufer überhaupt für ein Produkt entscheiden, dass evtl. irgendwann einmal gefixed werden könnte?
 
Ich gebe dabei nur mal folgenden Denkanstoß der absolut kein banshing werden soll sondern ganz neutral ist:
Nvidea wurde immer vorgeworfen dass sie die Leistung mit mehr Leistungsaufnahme erkaufen. Und das wird seitens AMD jetzt positiv bewertet?

Es ist pures Bashing, in dem Du das Wort Bashing erwähntes, wenn es keines wäre, dann muss man sich auch nicht rechtfertigen!

Und Deine vorigen Beiträge waren garantiert nicht neutral, sondern mindestens tendenziös pro NVIDIA!

Zudem vergleichst Du hier Äpfel mit Birnen. Die Radeon 7900XT ist von der Effizienz wesentlich besser als die Geforce 3080 FE,

von der Ti wollen wir erst gar nicht reden!

Du versuchst hier die negative Energie Bilanz der Geforce 3080 Reihe zu relativieren.


Ich komme da irgendwie nicht mehr mit....
Das hast Du selbst gesagt, sonst jammerst Du wieder, dass man Dich beleidigen würde!

In diesem Thread beleidigst Du ständig andere Leute, indem so tust, als ob Du Objektiv bzw. Du hast ja das Wort neutral in den Mund genommen,

was Du nicht bist. Und wenn man Dir kontra gibt oder auch Deine Art und Weise entlarvt, fühlst Du Dich beleidigt.

Der erfolgt der Radeon 7900XTX gibt im Moment AMD recht, was Preis/Leistung angeht, finde Dich damit ab und höre auf mit dieser Miesmacherei,

wenn Du es schon tust, dann bitte auch offen, wie @freakyd. Es gehört hier in diesem Thread gar nicht her und Du verursachst nur Unruhe!

Ist es so schlimm, dass AMD Erfolg hat oder willst Du unbedingt ein NVIDIA-Monopol auf dem Grafikkartenmarkt haben?

Als INTEL ein Monopol hatte, mussten wir horrende Preise zahlen!?

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/60034-mba-und-custom-designs-verfügbarkeitshinweise-zur-radeon-rx-7900-xt-x.html

Es gab sogar mehrere Forenmitglieder in anderen Internet-Publikationen, die den Erfolg der Radeon 7000 Serie relativieren wollten, mit Sätzen wie:
Nur um sicherzugehen: Wenn es nur 5 Stück im Shop gab und die wurden weggekauft, dann würde man das auch als erfolgreiches "Ausverkauft!" verbuchen, richtig?

All das muss nicht sein!:wink::wink::wink:
 
Zuletzt bearbeitet:
Echt bei meiner 6900 und 6950 existiert er nicht zumindest nicht bei meinen 32er Monitoren.
 
Warum sollte ich mich als potentieller Käufer überhaupt für ein Produkt entscheiden, dass evtl. irgendwann einmal gefixed werden könnte?

Najaaaaa, wenigstens kann man das (rein theoretisch!) mit Software fixen.

Aber ein fehlerhafter Stromstecker, der zum Brand führen KANN, kann nicht per Software Update gefixed werden.





usw.....................

Und das für ein "Schnäppchen" von ab 2400,-!!
 
Wie kann man sich nur eine Gaming Karte für den Office Bereich kaufen??

Ich habe schon seit Jahren einen Office und einen Gaming PC. Und möchte es bitte nie wieder anders haben.........................

Wenn du mich meinst. Ich mache nicht nur typische Office-Anwendungen, sondern habe auch Workload, der zumindest Speicher und CPU-intensiv ist. Es macht finanziell keinen Sinn, dafür einen 2. PC für ca. 1000 € anzuschaffen, der vom typischen Gaming-PC eigentlich nur in Punkto Graka abweicht.
 
Najaaaaa, wenigstens kann man das (rein theoretisch!) mit Software fixen.

Aber ein fehlerhafter Stromstecker, der zum Brand führen KANN, kann nicht per Software Update gefixed werden.

usw.....................
Ja ist tragisch, mein PC ist schon zum 3. Mal abgebrannt in nur zwei Monaten :(
 
Wenn du mich meinst. Ich mache nicht nur typische Office-Anwendungen, sondern habe auch Workload, der zumindest Speicher und CPU-intensiv ist. Es macht finanziell keinen Sinn, dafür einen 2. PC für ca. 1000 € anzuschaffen, der vom typischen Gaming-PC eigentlich nur in Punkto Graka abweicht.

Und wenn Du schon home Office betreibst, bekommst Du kein Geld vom Arbeitgeber für Strom anteilig erstattet??
 
Es ist pures Bashing, in dem Du das Wort Bashing erwähntes, wenn es keines wäre, dann muss man sich auch nicht rechtfertigen!

All das muss nicht sein!:wink::wink::wink:

Jetzt komme ich schon wieder nicht mit.
Ich habe doch hier im Thread ganz klar gesagt dass die Rohleistung überzeugt und dass diese wirklich solide ist. Aber die Kinderkrankheiten werde ich nicht totschweigen. Das hier ist kein "Wir haben uns alle lieb und AMD at its finest" Thread! Und wenn ich die Leistungsaufnahme im IDLE kritisiere und wenn ich kritisiere dass man mehr Leistung mit noch mehr Strom rausholt dann ist das nunmal ein Fakt.
Nvidea ist kein Heilsbringen. Ohne UV war in der letzten Generation auch kein Blumentopf zu gewinnen bei der Effizienz. Aber hier macht die 4080 zB einen großen Schritt in die richtige Richtung. Das vermisse ich doch bei AMD.
Und ein Vergleich des aktuellen AMD Lineups mit der letzten Generation von Nvidea scheint mir ebenso nicht zielführend.
 
Ja ist tragisch, mein PC ist schon zum 3. Mal abgebrannt in nur zwei Monaten :(

Hab auch nicht von Dir gesprochen...............aber die Gefahr scheint ja wohl gegenwärtig zu sein.
 
Da waren die Werte komplett in der Spalte verrutscht. Sollte jetzt passen.
Könnt Ihr mal bitte das Verhältnis der Lautstärke ändern? Die Lautstärke in dB wird logarithmisch aufgetragen und alle 6dB verdoppelt sich die Wahrnehmung (https://www.sonicshop.de/gehoerschu...he/warum-6-dezibel-unglaublich-viel-sind.html)
1671008518036.png

1671008390507.png


(selbst) computerbase hat das auch hinbekommen
1671008799436.png

1671008821775.png

s
 
Najaaaaa, wenigstens kann man das (rein theoretisch!) mit Software fixen.

Aber ein fehlerhafter Stromstecker, der zum Brand führen KANN, kann nicht per Software Update gefixed werden.
Wie hoch ist denn die Ausfallrate? 0,04%?

Das Problem mit dem Stromstecker lässt sich auch beheben. Es muss nur darauf geachtet werden, dass der Stromstecker auch vollständig eingesetzt wird.

 
Wie kann man sich nur eine Gaming Karte für den Office Bereich kaufen??

Ich habe schon seit Jahren einen Office und einen Gaming PC. Und möchte es bitte nie wieder anders haben.........................
Ich würde sogar noch weiter gehen und einen Laptop benutzen. Der zieht im Optimalfall nur 10-15 W. Wenn ich nicht zocken will kann der dicke PC so ausbleiben.
Ich habe mir gerade einen 4K OLED Monitor gekauft und hatte gestern durch Zufall ne XTX geschossen für 1200€.... Nun die Frage ob es überhaupt Sinn macht im Vergleich zu meiner 3080ti oder ob es nicht doch nur ne Kurzschlussreaktion war :d
Das macht sicher schon Sinn, wenn du die 4K auch auskosten willst.

Die 7900 XTX ist momentan die beste 4K P/L GPU für all jene denen die 4090 zu teuer ist. Das zeigen auch die Tests. Abstriche muss man machen, dafür kann man seine Seele (oder Niere) beim Kauf behalten.
 
Wie hoch ist denn die Ausfallrate? 0,04%?

Das Problem mit dem Stromstecker lässt sich auch beheben. Es muss nur darauf geachtet werden, dass der Stromstecker auch vollständig eingesetzt wird.


Und wie hoch ist die nicht in Online Foren gemeldete Dunkelziffer??

Das Strom Problem bei der 7900 lässt sich auch beheben........durch simples undervolting. Software Updates folgen sowieso. Dafür darf man bei der Karte den Stromstecker "ganz normal" einstecken.

So zu sagen als Bonus.:bigok:
 
Und ein Vergleich des aktuellen AMD Lineups mit der letzten Generation von Nvidea scheint mir ebenso nicht zielführend.
Das hast Du doch selbst gemacht, die jetzige AMD Generation mit den letzten NVIDIA-Generationen verglichen,

wie kann man sein selbst Geschriebenes ignorieren! Berufe Dich nicht auf Erinnersunglücken!:wall:

Nvidea wurde immer vorgeworfen dass sie die Leistung mit mehr Leistungsaufnahme erkaufen.
:btt2:
:btt::btt::btt:
 
Leute Leute, lasst doch einfach mal die Idee zu, dass andere Leute andere Nutzungsverhalten haben. Manch einer hat vielleicht eine Workstation, auf der den ganzen Tag produktive Workloads laufen. Vielleicht wird da was im Hintergrund gerendert und dann läuft die Kiste auch nachts oder oder oder.




Ab wann rufe ich "Bingo!"? ;)
Ist richtig, dann spielt es aber keine Rolle zu meckern wenn im Idle 50W verbraucht werden, wenn gerade nur der Browser an ist. Für die Zielgruppe sind AMD Karten im Consumer Bereich aber nicht relevant. Man muss ganz klar sagen die Zielgruppe sind Gamer und keine Creatives.

Der Kompromiss sind Nvidia Karten und das ist auch der Grund warum die RTX4090 so teuer ist. Weil damit auch Geld verdient wird, ansonsten wären die Preise niedriger. Immer wenn ein Produkt auch für kommerzielle Zwecke verwenden können sind die Preise höher.

Warum kaufen sich die Nvidia Jünger keine https://geizhals.de/pny-rtx-a6000-vcnrtxa6000-pb-a2409187.html ... a warte mal da steht kein Gaming drauf und die ist noch teurer...
 
Meine Güte das ist ein Bug der wird gefixt
So wie bei der 6000er gen? Ich mag meine Karte, aber dass der Verbrauch um ~40w nach oben geht, wenn ein 2. Monitor angeschlossen ist, ist ziemlich bescheuert.

Das Chiplet-Design bringt keine Leistungsvorteile sondern erhebliche Kostenvorteile und die gesteigerte Komplexität sorgt zumindest bei der 1. Gen für ein schlechteres Produkt (Teillastverhalten etc.). Trotzdem wurden die Preise drastisch angehoben. Ist mir ein Rätsel, was man an den beiden Karten gut finden kann.
 
Und wie hoch ist die nicht in Online Foren gemeldete Dunkelziffer??
Warum verlinke ich überhaupt eine Quelle, wenn du dir diese offensichtlich nicht einmal anschaust bevor du weiter deinen Stuss verbreitest?
Die 0,04% wurden aus den Reklamationen ermittelt.

Das Strom Problem bei der 7900 lässt sich auch beheben........durch simples undervolting. Software Updates folgen sowieso.
Das behebt also den zu hohen Stromverbrauch im Idle?
Zeig doch einmal Belege und stell nicht einfach nur Behauptungen aus.

Dafür darf man bei der Karte den Stromstecker "ganz normal" einstecken.
Einen Stromstecker vollständig einzusetzen ist also nicht normal und ich habe das all die Jahre immer falsch gemacht? 😢
 
So wie bei der 6000er gen? Ich mag meine Karte, aber dass der Verbrauch um ~40w nach oben geht, wenn ein 2. Monitor angeschlossen ist, ist ziemlich bescheuert.

Das Chiplet-Design bringt keine Leistungsvorteile sondern erhebliche Kostenvorteile und die gesteigerte Komplexität sorgt zumindest bei der 1. Gen für ein schlechteres Produkt (Teillastverhalten etc.). Trotzdem wurden die Preise drastisch angehoben. Ist mir ein Rätsel, was man an den beiden Karten gut finden kann.
Der Preis wurde nicht angehoben. Er ist identisch mit der 6900 XT. Die 6950 XT war sogar teurer (1099 MSRP). Der Grund wieso sie nun teurer sind ist der Dollarkurs. Sonst hätte ich auch keine gekauft, leider wirkt sich der Kurs auf sämtliche Produkte aus. Die 6900 XT würde jetzt auch ~1125 kosten.
 
Der Preis wurde nicht angehoben.
Im Test von GN liegt die 7900XT bei den meisten Tests weniger <5% vor der 6950. Die 7900XT ist eine 7800 und die XTX die 7900. AMD hat einfach bei NV abgeguckt und die Karten entsprechend umgelabelt.

Selbst wenn man AMDs Märchen glaubt, dass die Karten oberhalb angesiedelt sind, das Chiplet-Design ist ausschließlich zum Kosten sparen da. Es gibt keinen Vorteil für den Kunden. Mich würde auch interessieren wo die 50% gesteigerte Effizienz hingekommen ist, die von AMD beworben wurde. Meine Karte braucht mit FPS limit meistens um die 130-150W, während die neue Gen überhaupt nicht unter 200w geht.

In seiner jetztigen Form hat AMD keine Existensberechtigung auf dem GPU-Markt. NV bietet mit seiner irren Preisvorstellung große Angriffsfläche, aber anstatt das AMD attackiert, wird sich der gleichen Methoden bedient und bei den Preisen mitgezogen. Das wirkt nicht wie Konkurrenz sondern eher wie ein Kartell..

Die 6900 XT würde jetzt auch ~1125 kosten.
Die Karte hatte im Vergleich zur 6800XT ein extrem schlechtes P/L-Verhältnis und die wurde wohl kaum mit Verlust verkauft. Daraus lässt sich schließen in welchen Bereichen NV & AMD aktuell unterwegs sind. Aber das Gedächnis der Leute im Allgemeinen und hier im Forum speziell ist extrem kurz. Da werden neue Karten mit der 3090TI verglichen, wo die Verteuerung dann gar nicht so wild ist, nur war die Karte schon damals so extrem überteuert, dass sie überhaupt kaum einer wollte. Die 6900 wurde auch nur gekauft, weil die 6800XT selten verfügbar war.

PS: Das nennt man übrigens Anchoring. Man haut mit einem Preis gezielt auf die Kacke und in der Zukunft orientieren sich die Leute unbewusst daran. Einfach mal das doppelte verlangen und später 10% runter gehen, dann wird das ernsthaft als Rabatt wahr genommen. Peinlich sowas, aber kann man nicht ändern.
 
Zuletzt bearbeitet:
So wie bei der 6000er gen? Ich mag meine Karte, aber dass der Verbrauch um ~40w nach oben geht, wenn ein 2. Monitor angeschlossen ist, ist ziemlich bescheuert.

Das Chiplet-Design bringt keine Leistungsvorteile sondern erhebliche Kostenvorteile und die gesteigerte Komplexität sorgt zumindest bei der 1. Gen für ein schlechteres Produkt (Teillastverhalten etc.). Trotzdem wurden die Preise drastisch angehoben. Ist mir ein Rätsel, was man an den beiden Karten gut finden kann.
Reden wir jetzt vom generell höheren verbrauch bei Radeon Karten im Dualmonitor betrieb (35W) oder vom Treiber bug mit über 100W bei den neuen Karten?
Beitrag automatisch zusammengeführt:

In seiner jetztigen Form hat AMD keine Existensberechtigung auf dem GPU-Markt. NV bietet mit seiner irren Preisvorstellung große Angriffsfläche, aber anstatt das AMD attackiert, wird sich der gleichen Methoden bedient und bei den Preisen mitgezogen. Das wirkt nicht wie Konkurrenz sondern eher wie ein Kartell..
Zum Kartell gehören mindestens 2 aber die Existensberechtigung sprichst du nur AMD ab.Ich finde das ist absoluter quatsch das ganze nennt sich Marketing ob man es gut findet oder nicht muss jeder selbst entscheiden aber so ist Marktwirtschaft.
 
Zuletzt bearbeitet:
Zum Kartell gehören mindestens 2 aber die Existensberechtigung sprichst du nur AMD ab.
Nvidia spielt dahingehend mit offenen Karten. Als klarer Markführer mit dem überlegenen Produkt maximieren sie den Profit zum Nachteil der Kunden, Zulieferer etc.. Als unterlegener Konkurrent müsste AMD mit einer aggressiven Herangehensweise die Preise von NV unterbieten und versuchen Marktanteile gewinnen, so wie es zeitweise gegen Intel auf dem CPU-Markt passiert ist. Die Konkurrenz ist ja das zentrale Merkmal mit der eine Marktwirtschaft überhaupt funktionieren kann. Aber anstatt für Konkurrenz zu sorgen, zieht AMD fast 1:1 mit den Preisen mit (in relation zur Leistung) und gibt sich mit seinem niedrigen Marktanteil zufrieden, das ist keine Konkurrenz und somit hat AMD als Konkurrent keine Bedeutung.

Das sieht man schön daran, dass die Leute jetzt beruhigt eine 4080 bestellen, weil AMD keinen Vorteil bietet, weder im Preis, noch bei den Features -> keine Konkurrenz und keine Gefahr für Nvidia.

PS: Ich habe nicht behauptet, dass ein Kartell gebildet wurde, ich bezweifle, dass es direkte Absprachen gibt. Trotzdem sucht man das essentielle Konkurrenzverhalten vergeblich.
 
Zuletzt bearbeitet:
Das hört sich aber jetzt schon viel mehr nach begründeter ansicht an als jemanden plump die Existensberechtigung ab zu erkennen.
 
Die Karte hatte im Vergleich zur 6800XT ein extrem schlechtes P/L-Verhältnis und die wurde wohl kaum mit Verlust verkauft. Daraus lässt sich schließen in welchen Bereichen NV & AMD aktuell unterwegs sind. Aber das Gedächnis der Leute im Allgemeinen und hier im Forum speziell ist extrem kurz. Da werden neue Karten mit der 3090TI verglichen, wo die Verteuerung dann gar nicht so wild ist, nur war die Karte schon damals so extrem überteuert, dass sie überhaupt kaum einer wollte. Die 6900 wurde auch nur gekauft, weil die 6800XT selten verfügbar war.

PS: Das nennt man übrigens Anchoring. Man haut mit einem Preis gezielt auf die Kacke und in der Zukunft orientieren sich die Leute unbewusst daran. Einfach mal das doppelte verlangen und später 10% runter gehen, dann wird das ernsthaft als Rabatt wahr genommen. Peinlich sowas, aber kann man nicht ändern.
Man hat leider kaum eine Wahl, für über 200 € weniger und mehr VRAM wirkt die 7900 XTX dennoch wie ein Schnäppchen, da die Leistung ansonsten auch vorhanden ist. Zumindest zur 6900 setzt sie sich ordentlich ab.

Die 6900 war auch schon überteuert, ich habe sie nur gekauft weil ich konnte und die 6800 XT zeitweise gar nicht zu haben waren. Am Ende war man damals froh überhaupt eine neue GPU zu bekommen.

Ob AMD uns verarscht hat wird sich erst zeigen falls noch ein größerer Chip rauskommt. Allerdings mache ich mir da keine Illusionen, wäre AMD mit der 4090 ebenbürtig würde die Karte dann auch gerne 1,5-1,6 K kosten. Wenn das so weitergeht werde ich eventuell nur noch am Ende der Gen das beste Produkt (wahrscheinlich die 4090 Ti) für maximal 1000 kaufen. Mit ordentlich Restgarantie könnte man damit leben. Dann kann man sich den ganzen Launchkack und die Abzockpreise gänzlich sparen. Mittlerweile sind die GPUs glücklicherweise so stark dass sie selbst 4K gut packen, selbst wenn sie irgendwann altern. Bis vor ein paar Jahren kamen die GPUs nichtmal auf 60 FPS in der Auflösung und man wollte immer was Neues. Bei den jetzigen Preisen will ich gar nicht wissen das die 5090 und co dann kosten sollen.
 
Das ein Upgrade ala 7950XTX kommt halte ich für sehr Wahrscheinlich. Wenn es wirklich noch wie Gerüchte sagen Potential in der Architektur gab das liegen gelassen wurde und schon für die kleineren chips gefixt wurde bietet es sich ja an. Dann kommt ne 1500$ msrp Karte mit fixes und evtl einer Schippe Cache.
 
Nicht umsonst hat AMD betont das es sich bei 7900XT um konkurrenz zur 4080 handelt.Was passiert wenn ein 7800X3D mit einer 7950XTX kommt dann freuen sich alle Gamer nen arsch ab.
 
Vermutlich wird man das Ganze wieder binnen (XTXH) und dann mit 22 Gbps Speicher für 1099+ UVP anbieten. Die 6950 XT lag ja auch über dem UVP der 6900.

3D-Cahce kann auch kommen, seid euch aber gewiss dass diese Modelle abartig teuer sein werden. Siehe 5800X3D. Die 7000er 3D werde sicherlich auch keine Schnapper.
 
Das hört sich aber jetzt schon viel mehr nach begründeter ansicht an als jemanden plump die Existensberechtigung ab zu erkennen.
Na das Fazit ist doch aber das Gleiche.

Die Strategie bei beiden Herstellern scheint noch in der Miningblase zu stecken. Da konnte man praktisch alles zum beliebigen Preis auf den Markt werfen und fette Gewinne einfahren. Jetzt liegt es am Kunden den Weckruf möglichst deutlich zu machen. Bei der 4080 hat das schon ganz gut funktioniert. Jetzt gilt es die 7900er links liegen zu lassen.
 
Das macht einfach überhaupt keinen Sinn...also wirklich so gar keinen.
Natürlich macht das Sinn! Tellerrand und so....

Eine Spielegrafikkarte macht z.B. im CAD null Sinn, das übliche Schreiben, Tabellen, Surfen geht mit einem kleinen sparsamen Minidesktop mit APU deutlich stromsparender (gesamter MiniPC braucht weniger als das große Netzteil alleine, teilweise genügt ein Notebook mit zusätzlichem Monitor.

Das Thema produktives Arbeiten und sensible Daten versus Spieleplattformen, die ständig heimtelefonieren und entsprechend anfällig sind, mal gang aussen vor gelassen...
 
Ich denke viele haben jetzt gewartet mit was AMD um die Ecke kommt und einige werden sich jetzt für eine 4080 oder 7900xtx entscheiden. Die 7900 xt ist mMn uninteressant.
Ich habe die Befürchtung, dass die Karten sich trotzdem sehr gut verkaufen werden und wir in diesem Preisgefüge bleiben bzw. die Preise jede Generation steigen werden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh