nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
AMD und nVidia bringen mit 99%iger Wahrscheinlichkeit unter 28nm refresh chips. Und sicher nicht erst Ende des Jahres. ;)

Glaube ich auch. Ich denke, spätestens in Q2 werden sowohl AMDs als auch nVidias Flagschiffe da sein (GK110 vllt schon jetzt im Februar, wie spekuliert wird):) Naja, das schöne ist ja, dass ich die Auswahl habe: Ne zweite GTX 680 rein oder eben Titan. Hängt wohl davon ab, was Titan am ende kosten wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit dem relase von Haswell könnten auch erste Kepler-refreshes auftauchen. Aktuell wird für Haswell der Juni gehandelt. ;)
 
Mit dem relase von Haswell könnten auch erste Kepler-refreshes auftauchen. Aktuell wird für Haswell der Juni gehandelt. ;)

Naja, anscheinend wird Haswell wohl auch nicht allzuviel schneller pro MHz (max. +10%?) So komme ich mit meiner Sandy immer noch ganz gut weg, auch mit einem oder zwei GK110 sollte ich in meinen Settings sogut wie nie ins CPU-limit laufen:d
 
Da beweißt ja jemand Humor so kurz vor Titan Release:)



nsr7.jpg

Der Disscountschuppen läuft wieder auf Hochtouren
http://www.pcper.com/news/Graphics-...mpaign-Includes-Crysis-3-Bioshock-Infinite-an

Ich frag mich ,ob man auch irgendwann mal wieder ernsthaft von diesem selbstzerstörerischen Trip weg zu kommen versucht,hin zu gesunden Preisen.

So schlecht sind die Dinger doch nicht das man so ein Ramschniveau sich selbst auferlegt

Das kann doch auf Dauer nicht gut gehen,wenn man nichtmal denkt wie ein rücksichtsloßer Kapitalist

Der Arni90 z.B. ist afaik ein AMD-Troll ;)

LG Hübie

Was die Amis haben auch Trolle?

Und ich dachte das wäre german Lizenz only:d
 
Zuletzt bearbeitet:
Da die meisten Wasserblöcke nur für Referenzkarten erscheinen, wird es so sein wie immer. EKWB oder AC besorgen sich zum Launch eine Karte, entwickeln den Kühler und 4-8 Wochen später kann man ihn kaufen. Ausnahme wäre, wenn es eine Hydrocopper von EVGA geben würde, aber das ist nach den Gerüchten ja unwahrscheinlich.
 
Weil es angeblich nur ein Referenzdesign geben soll. Da kann EVGA erst recht keinen Wasserkühler draufpacken, wenn sie nichtmal den Aufkleber wechseln dürfen.
 
Referenz-Design hat doch nichts mit dem Kühler direkt zu tun.. :wall:
Es wird keine Custom-PCBs geben, was aber nicht gleichbedeutend mit Wasserkühlern ist - mal überhaupt nicht.
 
Mit Referenzdesign meine ich die ganze Karte. Es gibt von der 690 auch keine Karte mit alternativem Kühler es sei denn, ein Shop kauft die Karten und wechselt den Kühler selbst um dann weiterzuverkaufen. Aber von den AIBs gibts nix dergleichen. Die Karten sind exakt gleich, die einzigen Unterschiede sind bei Packung und Beilagen zu finden.
 
Zuletzt bearbeitet:
Mit Referenzdesign meine ich die ganze Karte. Es gibt von der 690 auch keine Karte mit alternativem Kühler es sei denn, ein Shop kauft die Karten und wechselt den Kühler selbst um dann weiterzuverkaufen. Aber von den AIBs gibts nix dergleichen. Die Karten sind exakt gleich, die einzigen Unterschiede sind bei Packung und Beilagen zu finden.

Da wäre ich mir nicht so sicher. Normalerweise hat es NV bei der 680 nicht gerne gesehen das Hersteller über bessere Spannungsversorgung etc die CHips auf höhere Taktraten brachten. Ich würde mal vermuten das liegt auch daran um für einen nur etwas höher getakteten und nur im Detail verbesserten GK114 noch einen Kaufgrund zu geben. Im Prinzip hat NV von Anfang an OC bei Kepler eingeschränkt. Maximale Spannungen wurden vorgegeben und wenn die Hersteller da was im Petto hatten (EVGA) wurde der verkauf verboten.

Das dürfte bei GK110 nicht anders sein. Custom design der Kühler, ja, aber die Platinen sollen schön die Referent bleiben um OC einzuschränken. Deshalb würde ich auch abstand von einem Übertaktungswunder nehmen. Der Chip dürfte eigentlich hohe Taktraten packen, wird von NV aber wieder künstlich eingebremst.


Das könnte mit Maxwell zu tun haben. Der muss immerhin im gleichen Prozess kommen und kann auch nicht auf mehr Diefläche für zusätzliche Transistoren hoffen. Also muss NV über den Takt versuchen noch nen bisschen was raus zu kitzeln. Das klappt aber nunmal nur wenn der eigene Vorgänger nicht ebenfalls solche Möglichkeiten bietet.
 
Vielleicht kommt erstmal ein kleiner Maxwell, dann wäre er für Titan irrelevant.

Fakt ist jedoch, dass es keine von Haus aus wassergekühlten 690er gibt. Das wird bei Titan nicht anders sein - darum ging es ja.
 
Mit Referenzdesign meine ich die ganze Karte. Es gibt von der 690 auch keine Karte mit alternativem Kühler es sei denn, ein Shop kauft die Karten und wechselt den Kühler selbst um dann weiterzuverkaufen. Aber von den AIBs gibts nix dergleichen. Die Karten sind exakt gleich, die einzigen Unterschiede sind bei Packung und Beilagen zu finden.

Wobei nvidia ja schon bewießen hat,das sie vernünftige Kühlkörper bauen können

Das größte Fragezeigen bei Titan ist u bleibt die Spannungsversorgung u Regelung

Hoffentlich gibts da ein Bisschen mehr Freiheit für die Enthusiasten
 
Zuletzt bearbeitet:
Jup, das stimmt.

Frage ist aber ob es bei der 690 von NV kommt oder die Hersteller einfach kein Interesse haben.


Maxwell wird es mit großer Sicherheit als 500mm²+ Chip geben. Vermutlich wird NV dann auch nochmal ein paar Transistoren mehr für HPC opfern, denn auch da müsste man gegen Kepler antreten und besser sein um ihn zu verkaufen. Das Problem ist halt das diesmal für ne neue Architektur kein neuer Prozess zur Verfügung steht.

Wobei nvidia ja schon bewießen hat,das sie vernünftige Kühlkörper bauen können

Das größte Fragezeigen bei Titan ist u bleibt die Spannungsversorgung u Regelung

Hoffentlich gibts da ein Bisschen mehr Freiheit für die Enthusiasten

Wie oben schon geschrieben, ganz sicher nicht ;)
 
also wenn ihr unbedingt wakü wollt:
-ne evga kaufen (hat asus jetzt nicht auch nen kühlertausch passus in den agbs?)
-freizeit-waküfräser des vertrauens kontaktieren, karte zusenden oder hochgenau fotograffiert einreichen
-1-3wochen warten (je nach auftragslage) und für 50-100€ über den ersten wasserkühler jubilieren.

bin ich immer gut mit gefahren wenn werks-wasserkühler zu teuer für neue karten waren.
 
Nein am Interesse lag es sicher nicht Evga hätte da sicher auch ne Hydrocopper/Classified gebracht,wenn man nicht an strickte Vorgaben gebunden gewesen wäre

Auch wieder recht. Die Vorgaben dürften auch der Grund gewesen sein warum wir keine Asus Mars 3 auf dem Markt gesehen haben.
 
@Neuro

Naja die Mars hat man wieder eingestampft weil eine Karte jenseits der 1000Euro Marke ohne OC Features keiner ernsthaft gekauft hätte

@Dozer 3000

Gabs die wirklich mal zu kaufen?

Ich hab da niemals gesehen,das da eine vorrätig gewesen wäre im Shop
 
Zuletzt bearbeitet:
Der Rivatuner Macher sieht das mit dem Spannungslock etwas optimistischer:

Voltage is not totally locked on NV side, but they indeed limit the maximum voltage that can be set via official NVIDIA API to 1.175mV on Kepler series. And they rather agressively try to force all vendors to follow the limitation. There should be a bit more freedom in voltage control area on next gen NV hardware.
But all those limitations apply to official NVIDIA voltage control API and AMD have NO voltage control API at all (and even no reliable I2C access API, so vendors need to create low-level I2C driver for each new AMD chip). So in the end it is much easier for software developers to provide working and reliable voltage control for NV hardware, even if NV try to limit it.
Hardware Upgrade Forum - View Single Post - [Thread Ufficiale] Aspettando le nuove vga nVidia Kepler
 
Du hast leider immer noch nicht verstanden, dass ich NIE von architekturübergreifender 3DMark11 Performance gesprochen habe. Da liegt dein Verständnisproblem, von Anfang an. Wäre nicht schlecht, wenn wir das jetzt vielleicht mal lassen können. Nimm dir beliebige Keplerpaare her und vergleiche 3DMark11 mit Spielewerten - es kommt sehr gut hin, und das wird auch bei GK110 vs GK104 (und um nichts anderes geht es in dieser Diskussion) so sein.

Neja ich seh das halt anders. Aber unterm Strich ist das doch auch jetzt vollkommen wurscht... Ich denke wir sind uns einig, dass 3DMark Performance für nen Vergleich so oder so eher irrelevant ist :bigok:

PS: wie stehts eigentlich mit unserer kleinen Wette?
Willst du deine Performanceprognose aufbauend auf den aktuellen Gerüchten nochmals überdenken? :wink: Oder bleibst du bei ~50%+ für 1440/1600p bei 4xMSAA?

900 hatte ich damals geschätzt

Sofern das stimmt, war meine Prognose ja gar nicht mal verkehrt...

Das die 690 EOL geht wäre nicht unmöglich. GK110 dürfte für NV auch günstiger herzustellen sein als ne Dual GK104.

Meinst du?
GK110 als Chip, der aktuell einzig im Teslamarkt vertrieben wird, dürfte weit teurer sein, als zwei kleine und vergleichsweise einfach herzustellende GK104 GPUs. Vor allem ist und bleibt das alles nicht das Bier von NV. Denn die Boardpartner packen den Spaß auf das PCB zusammen mit dem Rest der benötigten Bauteile. Von NV kommen die GPU(s) und das Boardlayout. Die benötigten Mehrteile für ne Dual GPU Lösung gehen quasi nur zu lasten der Boardpartner.

Dynamic Parallelism,Hyper-Q, SP zu DP 1:2 von den Abmassen und Transistoranzahl mal abgesehen finde ich doch das GK 110 doch ziemlich viel taugt.Was er in Games leistet werden wir sehen irgendwann.

DP:SP 1:2 Verhältnis bot Fermi auch schon... Aber nur! im Profimarkt. Im Gamermarkt war man bei 1:8... Ich behaupte, GK110 wird dort ebenso wenig volle DP Performance erziehlen können. Vor allem, weil man mit ner Gamerkarte auch sicher ne Quadrokarte bringt. Wer würde diese hochpreisigen Karten dann kaufen, wenn es keine Vorteile mehr gibt? Da kann man gleich zum Gamerableger greifen...

Schon richtig nur wird "die Öffnung" ja nicht zu jeder Zeit gleichermaßen beansprucht,wenn ich den 6GB Vram als Pufferzone betrachte,und der schnelle Cache als Entlastung in kritischen Ein u Auslagerungsmomenten fungiert,geht da sicher schon noch was zu drehen im Bezug zum herkömmlichen Prozedere ohne Cache:)

GK104 hat auch diverse Caches ;) Nur eben nicht so groß...

Wie gesagt, ich halte es recht gewagt, den GK110 als einen Heilsbringer wie damals den G80 zu sehen. Wäre dieser vor rund einem jahr released worden, hätte man rund 60% auf AMDs HD 7970 draufgelegt ->das wäre wie zu zeiten der 8800GTX und der Ultra. Aber rund 15-30%? Im besten fall könnte man AMDs nächsten Karten wieder so gut übertakten und man hätte wieder soviel leistung...

Wieso ist G80 eigentlich der Heilsbringer?
"poplige" 69%+ zu ner X1950XTX... Ist nix ungewöhnliches. Oder andersrum betrachtet. Ne X1950XTX ist gerade mal 41% langsamer als ne 8800GTX. Und das zum Messzeitpunkt Release HD3870 (Werte von CB)
Zum Release wars noch was weniger ;)


EDIT:
Wenn ich hier noch weitere "ich bin bereit für Kepler, GK110 whatever" Aussagen lese, dann setzt es was...!
Wir sind doch hier nicht im Kindergarten
 
Zuletzt bearbeitet:
Neja ich seh das halt anders. Aber unterm Strich ist das doch auch jetzt vollkommen wurscht... Ich denke wir sind uns einig, dass 3DMark Performance für nen Vergleich so oder so eher irrelevant ist :bigok:

PS: wie stehts eigentlich mit unserer kleinen Wette?
Willst du deine Performanceprognose aufbauend auf den aktuellen Gerüchten nochmals überdenken? :wink: Oder bleibst du bei ~50%+ für 1440/1600p bei 4xMSAA?

Du siehst das nicht anders, du verstehst meinen Post leider immer noch nicht. Belege doch mal, warum exakt du das anders siehst (anhand aktueller Keplerkarten und 3DMark11 Extreme Preset). Und nein, einig sind wir uns nicht. Wie du darauf kommst, ist mir vollkommen schleierhaft - seit Beginn der Diskussion sage ich nämlich das genaue Gegenteil von dem, was du mir hier in den Mund legst.

Zum allerallerallerletzten Mal:
Ich sagte es geht mir um Kepler vs Kepler in 3DMark11 (elf) und im Kontext dieses Threads selbstverständlich um GK104 vs GK110. Um nichts anderes. Ich habe nicht mit 3DMark06 (sechs) oder mit früheren Generationen oder gar Quervergleichen angefangen, die unterschiedliche Architekturen umfassen, weil das hier vollkommen irrelevant ist.

Ich hoffe, das war jetzt so deutlich, dass auch du es verstehen kannst. Wetten will ich mit dir gar nicht mehr, du liest ja eh nur das, was du lesen willst oder führst die Diskussion auf völlig andere Wege, die mit dem aktuellen Themenpunkt deines Gegenübers rein gar nichts zu tun haben.
 
Zuletzt bearbeitet:
Meinst du?
GK110 als Chip, der aktuell einzig im Teslamarkt vertrieben wird, dürfte weit teurer sein, als zwei kleine und vergleichsweise einfach herzustellende GK104 GPUs. Vor allem ist und bleibt das alles nicht das Bier von NV. Denn die Boardpartner packen den Spaß auf das PCB zusammen mit dem Rest der benötigten Bauteile. Von NV kommen die GPU(s) und das Boardlayout. Die benötigten Mehrteile für ne Dual GPU Lösung gehen quasi nur zu lasten der Boardpartner.

Naja gut, beziehst du es rein auf die Chips dürfte es knapp werden. Die Yields werden bei den kleinen Chips immer besser sein als bei den großen. Außerdem kann ich im Verhältniss ein paar mehr Chips unterbringen weil ich die Randflächen besser nutzen kann.
NV dürfte aber von den Boardpartnern für die GK110 Chips höhere Margen nehmen können. Der Gewinn dürfte also höher sein als bei zwei GK104 Chips.

Schaut man sich die ganze Karte an ist es natürlich noch etwas "schlimmer". Ich brauche zwei eigenständige Spannungsversorgungen und mehr Speicher, ohne wirklichen Mehrgewinn. Da dürfte eine GK110 Karte ordentlich kostengünstiger sein.
 
Sofern das stimmt, war meine Prognose ja gar nicht mal verkehrt...

Der Typ von Overcklock.net,scheint sein Konstrukt auch nur auf Annahmen zu stützen nicht auf Fakten,also alles wieder auf Anfang


. Der Arni90 z.B. ist afaik ein AMD-Troll ;)
LG Hübie


Edit: wo ist mein" ich bin bereit für..." Spruch hin? Ich wollte das auch einmal sagen:d

Zudem ist 3D Mark im X Mode ,sehr wohl repräsentativ um einzuschätzen wo sich die Karte eingliedern wird,unter der Vorraussetzung das es kein Fake ist
.compare.png
 
Zuletzt bearbeitet:
Nonsense. Die 8800GTX war massiv viel mehr schneller als die X1950XTX. 80% mit MSAA und kaputten AF. Mehr als 100% mit HQ-AF. Mehr als dreimal so schnell in Kombination SSAA.
Desweiteren war die 8800GTX selbst in hohen Auflösungen in vielen Spielen CPU-limitiert. G80 war der Heilsbringer.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Es gibt noch keine Speicherchips mit 4 Gbit Kapazität. Samsung zieht sich aus dem GDDR5 Geschäft zurück, bleiben also nur noch Hynix und Elpida, auf deren Webseiten maximal 2 Gbit Chips gelistet sind. Die 7970 6 GB und die 680 4 GB haben alle doppelt soviele Chips, nämlich vorne und hinten.

Also wenn die karte 900 euro kostet erwarte ich dass sie die 690 schlägt. Ich sag mal nen single chip ist immer effizienter als ne dualkoplung. Und 384 bit speicherinterface, 6gb ram und voller kepler ausbau sind schon gewaltig. Genau das richtige für crysis 3 und gta 5
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh