AMD HD6000 Northern Islands Spekulation Thread! (3)

Status
Für weitere Antworten geschlossen.
Nur weil dir ein Thema nicht passt, was mit Grafikkarten zu tun hat, kannst du Andersdenkenden noch lange nicht den Mund verbieten.

Die Winkelunabhängigkeit ist ein Alibivorteil, da noch viel weniger sichtbar als das Flimmer-AF, das viele hier nicht sehen (wollen?). Banding wurde verbessert bzw. gebugfixt, aber ist immer noch nicht auf NV-HQ Niveau.

Und ja, es ist ein Cheat, wenn man sich Performance mit schlechterer Bildqualität erkauft. Nachzulesen bei CB, HT4U usw. aber DU weißt ja alles besser. Du hast bisher überhaupt nichts selbst erbracht, rein gar nichts und reißt trotzdem die Klappe auf, weil deine Lieblingsfirma angegriffen wird. Armselig.

Und wer was wahrnimmt und was nicht, hast DU nicht vorzuschreiben.

Hier gehts aber um die 6900er Reihe...es nervt mit dem Flimmern.Cheaten tut ATI nicht,cheatet nV wenn sie z.B. PCGH ne Mail schreiben mit der expliziten Bitte doch bitte Hawx2 in der Pre-Release Version zu benchen,man hat ja aktiv mitgearbeitet und ATI nicht!
Lass endlich solche Komemntare,DUDE hat mit allem Recht.Die Bildquali geht bei beiden in Ordnung,hier nimmt sich keiner was.Ich hatte auch nV Karten,so lange ist es noch nicht her!
Es nervt nur noch...ich kann ja auch in jedem,wirklich jedem Thread der irgendwas mit ner nV Karte zu tun hat posten,das mir die Abwärme der GTX 480 aufn Sack geht!
Selbst wenn die Bildquali von ATI schlechter ist,ist sie doch marginal schlechter,solange auf einem Thema zu haten,bedeutet eig. das ATI super Arbeit macht,sonst könnte man auf vielmehr schimpfen wie ich z.B. bei GTX 480 (Verbrauch,Abbwärme,Lautstärke)!

Wenn ich das immer lese,nachzulesen bei...!Oh mein Gott,Zeitschriften sind generell unabhängig und objektiv,wenn z.B. bei einem Automagazin BMW Hauptsponsor ist,das Blatt davon mit abhängig ist,werden ja bestimmt nicht die Bewertungen leicht ins positive gehen und bei der bösen Konkurrenz evtl. leicht ins negative!

Ach ja,der Weihnachtsman lebt auch noch!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Radeon HD 6950 - GPU/????? - ???????? - ???????? - Powered by Discuz!

md6w2ypm.jpg


Barts XT = 224 SP 5D (1120)
Cayman Pro = 384 SP 4D (1536)

Die 6950 besitzt damit 70% mehr Einheiten als die 6870.
 
Zuletzt bearbeitet:
die 6970 soll ja nach Gerüchten 1920 SPs haben, die 1536 für die 6950 könnten also hinkommen.

würde dann so aussehen
Cayman Pro = 384 4D
Cayman XT = 480 4D
 
Auch wenn die Specs nicht ganz unrealistisch klingen, ich würde in die Folie noch nicht allzu viel interpretieren. Die schaut nicht gerade authentisch aus.
 
Wurde nicht mal angedeutet die 6900er sollen 2 GB Speicher bekommen ?
Warum steht dann auf der Folie wieder nur 1 GB ?
Fake oder versucht AMD nun zu sparen ?
 
Das war doch nur die 6970 mit 2 GB, die 6950 sollte och auch weiterhin mit 1 GB daher kommen, meine ich.

Aber man kann ja nur hoffen, dass das ein Fake ist, wenn man sich die Last Board Power anschaut, da würde Cayman XT ja auf GTX580 Niveau liegen.
 
Die Folie ist nen Fake, wurde im 3DC schon drüber diskutiert. Sind einige Fehler drin.
 
Hier gehts aber um die 6900er Reihe...es nervt mit dem Flimmern.Cheaten tut ATI nicht,cheatet nV wenn sie z.B. PCGH ne Mail schreiben mit der expliziten Bitte doch bitte Hawx2 in der Pre-Release Version zu benchen,man hat ja aktiv mitgearbeitet und ATI nicht!
Lass endlich solche Komemntare,DUDE hat mit allem Recht.Die Bildquali geht bei beiden in Ordnung,hier nimmt sich keiner was.Ich hatte auch nV Karten,so lange ist es noch nicht her!
Es nervt nur noch...ich kann ja auch in jedem,wirklich jedem Thread der irgendwas mit ner nV Karte zu tun hat posten,das mir die Abwärme der GTX 480 aufn Sack geht!
Selbst wenn die Bildquali von ATI schlechter ist,ist sie doch marginal schlechter,solange auf einem Thema zu haten,bedeutet eig. das ATI super Arbeit macht,sonst könnte man auf vielmehr schimpfen wie ich z.B. bei GTX 480 (Verbrauch,Abbwärme,Lautstärke)!

Wenn ich das immer lese,nachzulesen bei...!Oh mein Gott,Zeitschriften sind generell unabhängig und objektiv,wenn z.B. bei einem Automagazin BMW Hauptsponsor ist,das Blatt davon mit abhängig ist,werden ja bestimmt nicht die Bewertungen leicht ins positive gehen und bei der bösen Konkurrenz evtl. leicht ins negative!

Ach ja,der Weihnachtsman lebt auch noch!

Es geht hier um NI und es gab die Hoffnung/das Gerücht, dass man was an den TMUs gedreht hat. Das darf natürlich diskutiert werden.

Es ist kindisch, Fehler der IHVs gegeneinander aufzurechnen. Jede einzelne Unzulänglichkeit und jedes einzelne Fehlverhalten (auf beiden Seiten) darf und sollte kritisiert werden. Hier andere (verwerfliche) Taten einzumischen, zeugt davon, dass ihr überhaupt keinen richtigen Argumente habt und auf sowas ausweichen müsst.

Und wenn ich und andere nerven - GUT! Solche Praktiken zu schlucken ist für dich vielleicht eine Option, für mich jedoch nicht. Und scheinbar hat es ja was gebracht, weil AMD versprochen hat, an dem Problem zu arbeiten. Und davon profitieren auch Radeon-Besitzer. Nuff said.
 
Wenn die PCGH nicht damit angefangen hätte, wäre das wahrscheinlich niemanden aufgefallen.

Und eigentlich ist doch die Lösung ganz einfach: Wer mit der AMD Bildqualität nicht zufrieden ist, muss sich halt eine Karte von nvidia kaufen. Das ist wesentlich besser, als wenn ständig Leute in diversen Threads immer wieder dieselbe Laier anfangen und noch schlimmer ist es, wenn man diesen ganzen Quatsch auch noch in seiner Signatur verewigt.

AMDs AF-Filter mag schlechter sein als der von nvidia, das wird auch sicherlich keiner abstreiten, aber hier wird ja immer so getan, als wenn der überhaupt nicht zu gebrauchen wäre und die Karten somit Schrott seien.

Hier gehts aber um die 6900er Reihe...es nervt mit dem Flimmern.Cheaten tut ATI nicht,cheatet nV wenn sie z.B. PCGH ne Mail schreiben mit der expliziten Bitte doch bitte Hawx2 in der Pre-Release Version zu benchen,man hat ja aktiv mitgearbeitet und ATI nicht!
Lass endlich solche Komemntare,DUDE hat mit allem Recht.Die Bildquali geht bei beiden in Ordnung,hier nimmt sich keiner was.Ich hatte auch nV Karten,so lange ist es noch nicht her!
Es nervt nur noch...ich kann ja auch in jedem,wirklich jedem Thread der irgendwas mit ner nV Karte zu tun hat posten,das mir die Abwärme der GTX 480 aufn Sack geht!
Selbst wenn die Bildquali von ATI schlechter ist,ist sie doch marginal schlechter,solange auf einem Thema zu haten,bedeutet eig. das ATI super Arbeit macht,sonst könnte man auf vielmehr schimpfen wie ich z.B. bei GTX 480 (Verbrauch,Abbwärme,Lautstärke)!

[...]

:bigok:
 
Zuletzt bearbeitet:
Solche AF Polemik bringt rein gar nichts. Wie naiv kann man denn sein? :rolleyes: Man kann diese Thematik auch sachlich ansprechen. Davon sieht man aber nichts, weil alles nur einseitig hochstilisiert wird, von nVidia Fanatikern. Das zeigen schon die scheinheiligen Aussagen eines gewissen AmH Darstellers. Wieso lese ich von ihm nie derartige Kritik zu nVidia? Denn dort gäbe es wesentlich mehr zu kritisieren.
 
das ganze hat doch PCGH ins spiel gebracht :rolleyes:
würde mich nicht wundern wenn die von AMD keine Samples mehr bekommen
 
Natürlich bringt es was, siehe AMD Telefonkonferenz. Wenn man sagt "basst scho", passiert auch nix.

Sind die Artikel der erwähnten Magazine deiner Meinung nach nicht sachlich? Was würdest du besser machen? Es wird doch erwähnt, dass es nicht jeder sieht und dass es von Spiel zu Spiel unterschiedlich sein kann. Es gibt Videobeispiele, Beschreibungen von Beobachtungen, die die Redakteure gemacht haben. Es gibt Texelanalysen und Benchmarks zu Q und HQ.

Auf diese Darstellungen und Fakten beziehen sich die Kritiker.
Wieviel Sachlichkeit willst du denn noch?
 
Oh man... 98% derjenigen die aufschreien "Scheiss Bildqualität" bei AMD hätten ohne PC Games Hardware, Computerbase und/oder 3D Center doch noch nicht mal einen Unterschied bemerkt! :rolleyes:
Jetzt zeigt man anhand einer bestimmten Szene eines "uralten" Spiels mit dem Finger darauf und schon kommen alle Pseudobildqualitätsexperten aus den Löchern gekrochen...
 
Die Artikel mögen ja sachlich sein, aber nicht sachlich ist z.B. zu diesem Thema und der Aussage, dass der schlechtere Filter im Spiel garnicht auffällt die Antwort, dass man dann wohl mal besser zum Augenarzt gehen solle, da die schlechtere Qualität offensichtlich ist.

Wenn AMD jetzt auch tatäschlich an der Qualität was änden kann und dies aufgrund der Berichte tut, dann hatten sie letztlich doch noch einen vernünftigen Zweck, aber leider wird, wie hier schon gesagt wurde, das Thema meistens von "Nvidia-Fanboys" dazu genutzt AMD und die Karten in ein schlechtes Bild zurücken, was meines Erachtens nicht richtig ist.

---------- Beitrag hinzugefügt um 13:18 ---------- Vorheriger Beitrag war um 13:17 ----------

Solche AF Polemik bringt rein gar nichts. Wie naiv kann man denn sein? :rolleyes: Man kann diese Thematik auch sachlich ansprechen. Davon sieht man aber nichts, weil alles nur einseitig hochstilisiert wird, von nVidia Fanatikern. Das zeigen schon die scheinheiligen Aussagen eines gewissen AmH Darstellers. Wieso lese ich von ihm nie derartige Kritik zu nVidia? Denn dort gäbe es wesentlich mehr zu kritisieren.

Mit fällt da grad zu ein: Welcher Fußballer hat nochmal von hochsterilisieren geredet?

---------- Beitrag hinzugefügt um 13:21 ---------- Vorheriger Beitrag war um 13:17 ----------

Bruno Labbadia wars!

„Das wird doch alles von den Medien hochsterilisiert!“

Die Aussage passt sogar (bis auf die Stilblüte)! ;)

---------- Beitrag hinzugefügt um 13:26 ---------- Vorheriger Beitrag war um 13:17 ----------

Cayman verzögert sich eventuell weiter: AMD Radeon HD 6970 - Doch nicht mehr in diesem Jahr? - News bei GameStar.de
 
Zuletzt bearbeitet:
@boxleitnerb
Und wer sagt, dass AMD nicht sowieso permanent an Verbesserungen arbeitet? Ich habe bei Evergreen keine derartige Kritik zu Banding gesehen. Und trotzdem wurde es bei der HD 6800 verbessert. Ich glaube eher, du solltest das mal realistisch betrachten und deine Polemik und die von PCGH nicht für zu wichtig nehmen. Ihr habt für die Chipentwicklung keinerlei Bedeutung.

Wenn jemand wie y33H@ als PCGH Redakteur oder jemand wie du jedes Forum damit zuspammt, sry, aber das ist weit entfernt von Sachlichkeit. Und wer dann auch noch jedes mal von "cheaten" spricht und Threads mit diesem off-topic Zeug zumüllt, dem fehlt einfach jeglicher Sinn dafür, was Sachlichkeit ist.


das ganze hat doch PCGH ins spiel gebracht :rolleyes:
würde mich nicht wundern wenn die von AMD keine Samples mehr bekommen
Lustig ist vor allem, dass diese Seiten selbst seitens der Community weniger und weniger Zustimmung für ihre Polemik finden. Offenbar wird der Community langsam bewusst, dass es Lamentieren auf hohem Niveau und für den Markt im Grunde recht belanglos ist. Wenn ich Cyphermaster aus dem 3DCenter Forum mal zitieren darf:
Noch nicht mal innerhalb Deutschlands ist das so ein besonderes Massenanliegen. Man muß das realistisch sehen: We're the BQ-Natsis!
Das trifft es eigentlich ziemlich gut. BQ Fetischisten, die an jedem Pixel etwas zu kritisieren haben, sollten langsam mal kapieren, dass Hardware nicht für sie, sondern für die breite Masse entwickelt wird. Und wer da an jeder Ecke den totalen Perfektionismus erwartet, lebt einfach in einer Traumwelt. Jeder Hersteller hat seine Stärken und Schwächen. Das war so, ist so und wird auch in Zukunft so sein.
 
Ob das besonders vielen Leuten auffällt (daran glaube ich übrigens auch nicht) ist erstmal doch völlig egal, denn um die Bildqualität geht es bei diesen minimalen Unterschieden nicht wirklich. Entscheidend ist doch nur die Frage, welche Konsequenzen man daraus für Benchmarks zieht. Letztendlich muss ich die Einstellungen für einen Benchmark so wählen, dass man mit den Karten beider Hersteller die gleiche Bildqualität erreicht, sonst braucht man hinterher auch keine Frameraten zu vergleichen.
 
Zuletzt bearbeitet von einem Moderator:
Dann müsste man aber für jedes Spiel die Qualiät einzeln beurteilen und einstellen, da die Filterqualität von Spiel zu Spiel unterschiedlich ist. Allerdings kommt dann dabei heraus, dass die Unterschiede nur marginal sind und dann kann man auch gleich alles so lassen wie es ist.

@boxleitnerb
Und wer sagt, dass AMD nicht sowieso permanent an Verbesserungen arbeitet? Ich habe bei Evergreen keine derartige Kritik zu Banding gesehen. Und trotzdem wurde es bei der HD 6800 verbessert. Ich glaube eher, du solltest das mal realistisch betrachten und deine Polemik und die von PCGH nicht für zu wichtig nehmen. Ihr habt für die Chipentwicklung keinerlei Bedeutung.

Wenn jemand wie y33H@ als PCGH Redakteur oder jemand wie du jedes Forum damit zuspammt, sry, aber das ist weit entfernt von Sachlichkeit. Und wer dann auch noch jedes mal von "cheaten" spricht und Threads mit diesem off-topic Zeug zumüllt, dem fehlt einfach jeglicher Sinn dafür, was Sachlichkeit ist.



Lustig ist vor allem, dass diese Seiten selbst seitens der Community weniger und weniger Zustimmung für ihre Polemik finden. Offenbar wird der Community langsam bewusst, dass es Lamentieren auf hohem Niveau und für den Markt im Grunde recht belanglos ist. Wenn ich Cyphermaster aus dem 3DCenter Forum mal zitieren darf:

Das trifft es eigentlich ziemlich gut. BQ Fetischisten, die an jedem Pixel etwas zu kritisieren haben, sollten langsam mal kapieren, dass Hardware nicht für sie, sondern für die breite Masse entwickelt wird. Und wer da an jeder Ecke den totalen Perfektionismus erwartet, lebt einfach in einer Traumwelt. Jeder Hersteller hat seine Stärken und Schwächen. Das war so, ist so und wird auch in Zukunft so sein.


Wie schön, dass es doch noch so viele Leute hier im Forum gibt, die dem Thema ähnlich gegenüber stehen wie ich! Ich hatte ja schon stellenweise befürchtet ich würde mit meiner Meinung, dass das alles halb so wild sei, allein auf weiter Flur stehen.
 
Zuletzt bearbeitet:
Dann müsste man aber für jedes Spiel die Qualiät einzeln beurteilen und einstellen, da die Filterqualität von Spiel zu Spiel unterschiedlich ist.
Prinzipiell wäre das wohl nötig. Oder man macht das ein paar mal, stellt fest wie viele fps das im Schnitt ausmacht und schreibt unter den Benchmark dann +/- Xfps.
 
Dann müsste man aber für jedes Spiel die Qualiät einzeln beurteilen und einstellen, da die Filterqualität von Spiel zu Spiel unterschiedlich ist. Allerdings kommt dann dabei heraus, dass die Unterschiede nur marginal sind und dann kann man auch gleich alles so lassen wie es ist.

Nüchtern betrachtet sollten wohl die meisten der Leute erstmal einsehen, das ein Review oder Benchmarkparcourse nur einen Überblick über die gezeigten Anwendungen Preis gibt.
Die Ergebnisse sind also in keinster Weise allgemein auf alle Anwendungsgebiete anzuwenden.
Der Leistungsunterschied zwischen Q und HQ ist also auch nur in diesen Anwendungsfällen so geltend und nicht allgemein.

Auch finde ich es ziemlich daneben, wie man NVs HQ Settings in den Himmel lobt, wo doch auch ein Eingriff des Nutzers nötig ist um diese zu aktivieren... Und welche ebenso Performance kosten. Bei AMD hingegen regt man sich auf, das die Std. Einstellung schlechter wurden... Hängt also direkt dem User an, er sei zu "blöd" um den Regler weiter nach oben zu drehen...
Ich wäre sogar dafür, das die Karte in den Stock Einstellungen nur S/W rendert damit der User gezwungen ist seine Settings selbst zu wählen. Denn der Otto Normalo wird weder bei AMD noch bei NV den Regler verdrehen... Geschweige denn überhaupt neue Treiber installieren usw.

Unterm Strich halte ich die Ergebnisse durchaus für vergleichbar, beim AF ist NV minimal vorn, was das Flimmern angeht. Sachen ala Bonding und Co. hingegen sind eher auf AMDs Seite.
 
Also ich hatte lange eine NV und bin dann auf AMD/ATI umgetiegen und mir ist das mit dem AF filter gleich aufgefallen das der weniger gut ist dafür bricht die ATI karte kaum im AA ein was wiederum einen deutlichen vorteil gegenüber NV für mich ist da AA meiner meinung nach auch sehr sehr wichtig ist!
NV hat nun den entscheidenden vorteil von SSAA@ DX11 und liegt daher optisch deutlich vor AMD daher hoffe ich das AMD da schnell mal aufschliest weil das finde ich eigentlich sehr wichtig für die optik
 
Soweit ich das sehe wird es immer damit begründet, dass wenn sie nichts sagen sich nie etwas ändert. Ich denke jedoch, dass wenn der Markt nichts merkt und die Karten so haben will, dann ist es einfach so. Wer sich das "Augenkrebsbild" der AMDs nicht anschauen will, kauft sich eben NV. Offensichtlich ist es so, dass die Leute das nicht sehen und trotzdem zu AMD greifen, was wohl heissen mag, dass die Qualität doch nicht so unterirdisch ist wie berichtet wird. Ich sehe da kaum Unterschiede von daher finde ich es auch sehr übertrieben. Das einzigste, was ich verstehe ist, dass wenn man sich eine Enthusiatenkarte kauft man auch dann optimale Bildqualität haben will. Dieser Kreis ist allerdings wohl recht klein und die Kritik geht in absolut alle Richtungen inkl. Midrange.
 
Zuletzt bearbeitet:
Ob das besonders vielen Leuten auffällt (daran glaube ich übrigens auch nicht) ist erstmal doch völlig egal, denn um die Bildqualität geht es bei diesen minimalen Unterschieden nicht wirklich. Entscheidend ist doch nur die Frage, welche Konsequenzen man daraus für Benchmarks zieht. Letztendlich muss ich die Einstellungen für einen Benchmark so wählen, dass man mit den Karten beider Hersteller die gleiche Bildqualität erreicht, sonst braucht man hinterher auch keine Frameraten zu vergleichen.
Dann kannst du genauso verlangen, dass nur noch bei gleicher Leistungsaufnahme verglichen wird, damit niemand bei den Stromkosten benachteiligt wird. Ich halte ein solches Unterfangen einfach für unrealistisch und unpraktikabel. Zumal es sowieso nicht möglich ist, identische Bildqualität zu gewährleisten. Auch sollte man bedenken, Hardware immer möglichst OTS zu vergleichen. Denn so wird sie die Mehrheit der Käufer betreiben. Es wird den Hardwareseiten ja nicht verboten, darüber hinaus zusätzliche Vergleiche zu machen.


@Kiy

Schau mal ein paar Beiträge weiter oben. Das wurde schon gepostet.
 
Oh man... 98% derjenigen die aufschreien "Scheiss Bildqualität" bei AMD hätten ohne PC Games Hardware, Computerbase und/oder 3D Center doch noch nicht mal einen Unterschied bemerkt! :rolleyes:
Jetzt zeigt man anhand einer bestimmten Szene eines "uralten" Spiels mit dem Finger darauf und schon kommen alle Pseudobildqualitätsexperten aus den Löchern gekrochen...

Wär ja schön ! Aber bei den meisten ist es glaube ich sogar so dass sie noch nie eine ATI/AMD Karte hatten und deren BQ wirklich ingame erleben durften.

Ich persönlich (muss es immer wieder sagen) finde bei AMD/ATI die Bildschärfe einfach deutlich besser und das ist mir wichtiger (evtl. auch aus Gewohnheit), weshalb die GTX460 gleich wieder rausgeflogen ist.
Auf der anderen Seite gefällt es mir bei nvidia sehr sehr gut dass man immer und überall via eines Tools entsprechendes AA einstellen kann. Sowas würde ich mir für AMD/ATI auch wünschen !!
 
Auch finde ich es ziemlich daneben, wie man NVs HQ Settings in den Himmel lobt, wo doch auch ein Eingriff des Nutzers nötig ist um diese zu aktivieren... Und welche ebenso Performance kosten. Bei AMD hingegen regt man sich auf, das die Std. Einstellung schlechter wurden... Hängt also direkt dem User an, er sei zu "blöd" um den Regler weiter nach oben zu drehen...
Ich wäre sogar dafür, das die Karte in den Stock Einstellungen nur S/W rendert damit der User gezwungen ist seine Settings selbst zu wählen. Denn der Otto Normalo wird weder bei AMD noch bei NV den Regler verdrehen... Geschweige denn überhaupt neue Treiber installieren usw.

Ich finde du wiedersprichst dir. Zuerst sagst du das es egal ist, dass AMD nun schlechtere Standardsettings hat da man bei Nvida ebenso manuell die Settings ändern muss und im zweiten Abschnitt sagst du dann das der 0815 Benutzer sowieo nie an den Settings etwas verändert.

Und das ist eben der Punkt. Standardeinstellungen sollten auf dem gleichen Level bleiben. Was man optional anbietet ist egal und der versierte Anwender wird sich damit auch beschäftigen. Standardeinstellungen hingegen sollen eine Basis bleiben die sich höchstens verbesst aber nicht verschlechtern sollte, weil sonst gibt es im schlimmsten Fall eine Abwärstspirale. Erst kommt AMD mir 2% schlechterer Standardqualität für 5% mehr Leistung, dann folgt gezwugener Maßen Nvidia mit einer "Performanceoptimierung".

Ich denke so ein Trend würde Niemand gut heißen, denn die wahre Leistungssteigerung der Hardware wird dadurch verwischt und auf Längere Sicht schadet es auch der Bildqualität, besonders für den 0815 User.
 
Zuletzt bearbeitet:
Eigentlich finde ich das schon wieder richtig dumm...nur weil der eine User heute früh wiedermal mit der BQ anfing,sind jetzt schon wieder fast 2 Seiten zu diesem total ausgelutschten Thema verfasst wurden!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh