***8800GTS vs. 2900XT THREAD***

@jack

Müsste man das dann im Overdrive sehen, wenn man während des Games auf den Desktop wechselt?

Also wenn das noch so läuft wie bei der 1800xt (und davon gehe ich stark aus) dann siehst du das da nicht, weil in dem Moment wo du auf den Desktop wechselst (z.B. mit ALT TAB) wieder der 2d Takt angezeigt und übernommen wird.
Du könntest aber mit everest eine Protokoll Datei anfertigen (everest starten und während des zockens laufen lassen)
Dann kannste du dir nachher das Protokoll ansehen und du wirst feststellen das im 3d Betrieb die Karte auch die richtige Taktung hat.

Ich finde übrigends das aufgrund dieser 2d - 3d Taktung die ATI auf jeden Fall die sparsamere Karte ist. Denn wieviele Stunden im Jahr läuft die Karte auf 3d und wieviele im 2 d Betrieb.
Da die Gf immer nur voll auf 3d Leistung läuft verbraucht sie aufs jahr gerechnet mehr Strom als die ATI.
Oder nicht???
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also dem Grundsatz kann ich erstmal zustimmen, aber was da für Optimierungen drin sind sollte doch hupe sein, Fakt ist das man keinen Unterschied sieht, bzw. vllt mit der Lupe bei ein und dem selben Vergleichscreen.
Im AF-Betrieb sieht "man" auch keinen Unterschied zwischen NVs Quality und High Quality. Aber Leistung ist nunmal Arbeit pro Zeit und wenn ich die Leistung vergleichen will, dann sollten auch beide Probanden die selbe Arbeit zu verrichten haben.
fdsonne schrieb:
Aber wenns darum geht, das man 100% das gleiche Bild haben muss, dann ist ein Vergleich von ATI und NV Karten sowieso nicht mehr möglich, da die ATIs nicht ganz 100% winkelunabhängig filtern können, egal was man einstellt.
Ab welcher AF-Stufe es kritisch wird, habe ich doch geschrieben. Darunter sind die resultierenden Bilder allemal vergleichbar. Der Bildqualtätszugewinn zwischen 4xAF und 16xAF in den default Einstellungen der Karten (AI Low + Quality) sind schwindend gering. Der Performance-Hit ist auf der einen Seite (ATI) aber besonders groß, wogegen die NV selbst mit HQ Bildqualität zulegt ohne langsamer zu werden.
Aus meiner Sicht die Karte von beiden, wo sich hohes AF oberhalb von 4x überhaupt lohnt. Wer vorgibt sich die beste Grafikkarte zulegen zu wollen, sollte grad die Darstellungsqualität mit einbeziehen. Schnell genug für aktuelle Spiele sollten 300-600 Euro Grafikkarten idR. sein - alles andere wäre peinlich.


Grüße,
Euer George
 
Zuletzt bearbeitet:
@[SFB]Joshua
also die HD2900XT ist ein wenig sparsamer als die GTS im 2D unter XP.
Unter Vista bedeutend sparsamer, da die GTS dort mit dem 3DTakt läuft...
zwar kann man dort abhilfe mit Untertakten schaffen aber das kann die XT auch...

Meine XT rennt beispielsweise bei 0,688V bei 130/130MHz im 2D. Std. sind 500/500 @1,0V oder sowas...
 
@jack

Müsste man das dann im Overdrive sehen, wenn man während des Games auf den Desktop wechselt?

Wie [SFB]Joshua schon sagt der wechsel von 2D zu 3D geht sehr schnell und beim raus Taben geht er nat. wieder in 2D. (Bench doch mit 3D Mark und schreib die Werte hier, dann siehtg man ob es hinhaut)

Also ich habe beim meiner Sapphire 2900 XT nur magere 1,0 Volt.:o :grrr: Ausgelsen mit neuestem Rivatuner, komme aber OC auf 835/ 950 Mhz.
Nur Call of Juarez zickt da extrem rum, mit Blackscreens und Bildfehler!
Andere Games und Benchmarks laufen voll und OHNE Fehler durch!

Berni die 1V sind die 2D Spannung :rolleyes:
 
Im AF-Betrieb sieht "man" auch keinen Unterschied zwischen NVs Quality und High Quality. Aber Leistung ist nunmal Arbeit pro Zeit und wenn ich die Leistung vergleichen will, dann sollten auch beide Probanden die selbe Arbeit zu verrichten haben.
neja schon klar, aber da die ATI nicht ganz winkelunabhängig filtern kann, wirst du ein gleichstand in der arbeit nie erreichen. Verstehst du wie ich meine?
Und gerade die optimierungen sind ja dafür da, um bessere Leistung zu haben, wenn man das dann der BQ nicht ansieht, ist doch i.O. und völlig legitim, oder nicht?

Ab welcher AF-Stufe es kritisch wird, habe ich doch geschrieben. Darunter sind die resultierenden Bilder allemal vergleichbar. Der Bildqualtätszugewinn zwischen 4xAF und 16xAF in den default Einstellungen der Karten (AI Low + Quality) sind schwindend gering. Der Performance-Hit ist auf der einen Seite (ATI) aber besonders groß, wogegen die NV selbst mit HQ Bildqualität zulegt ohne langsamer zu werden.
Aus meiner Sicht die Karte von beiden, wo sich hohes AF oberhalb von 4x überhaupt lohnt.


Grüße,
Euer George

Ähm bei mir ist die Std. A.I. Stufe nicht low, sondern Standard.
Und A.I. low gibts glaub auch gar net, sondern es gibt A.I. aus, A.I. Std. und A.I. erweitert oder sowas.
Das man zwischen 4xAF und 16xAF keinen merklichen Unterschied sehen soll, da kann ich auch nicht zustimmen. Also ich sehe dort einen.

Ich will net streiten, aber so wie du es sagst, kommt es so rüber das man nur 4xAF eindrehen brauch, um gute BQ zu haben, (also bei der ATI Karte) und alles was drüber ist, sieht man sowieso nicht...

@derguru
bei deinen Beiträgen kommts mir eher so vor als wärst du gerade mal einer der voll in deinen genannten Durchschnitt von 15Jahren passt.
Es ist klar das hier einige weniger schreiben als andere, aber wenn man schon ein wenig älter ist, dann sollte man das auch in seinen Beiträgen wiederspiegeln.
So wie du dich hier im Thread gibst ist das schon fast Piefke Niveau, körperliches Alter von über 30 aber geistiges Alter von 15!
 
Zuletzt bearbeitet:
Ich wollte mal sagen das Crysis mehr als 700 MB VRAM sich gönnt:bigok:
"1680x1050 2xAA 8xAF"
 
Zuletzt bearbeitet:
@zocker, die Fakten die du nennst, haben recht wenig mit dem VRam Verbrauch zu tun, wenn dann solltest du schon was über die Details sagen...
 
neja schon klar, aber da die ATI nicht ganz winkelunabhängig filtern kann, wirst du ein gleichstand in der arbeit nie erreichen. Verstehst du wie ich meine?
Klar verstehe ich das, aber es ist nicht richtig. Bis 4xAF filtert die ATI winkelunabhängig.
fdsonne schrieb:
Und gerade die optimierungen sind ja dafür da, um bessere Leistung zu haben, wenn man das dann der BQ nicht ansieht, ist doch i.O. und völlig legitim, oder nicht?
Optimierung ist nicht gleich Optimierung.

fdsonne schrieb:
Ähm bei mir ist die Std. A.I. Stufe nicht low, sondern Standard.
Und A.I. low gibts glaub auch gar net, sondern es gibt A.I. aus, A.I. Std. und A.I. erweitert oder sowas.
Willst jetzt Erbsen zählen oder weist du es nicht? standard ist low.

fdsonne schrieb:
Das man zwischen 4xAF und 16xAF keinen merklichen Unterschied sehen soll, da kann ich auch nicht zustimmen. Also ich sehe dort einen.
Ich auch. Aber da ab 8xAF bei dir alles winkelabhängiger wird, ist das 16xAF nicht wirklich 16xAF. Obwohl man im CCC zwei Stufen höher schaltet, gewinnt man sichtbar weniger, als würde man zwei Stufen zurückschalten. Wenn es winkelabhängig ist, heißt das, dass nur noch bestimmte Winkel 16xAF abbekommen, andere bekommen weniger.. es ist also kein komplettes 16xAF wie beim Mitbewerb. klar soweit?

fdsonne schrieb:
Ich will net streiten, aber so wie du es sagst, kommt es so rüber das man nur 4xAF eindrehen brauch, um gute BQ zu haben, (also bei der ATI Karte) und alles was drüber ist, sieht man sowieso nicht...
Wenn man Bildqualität an der Texturfilterung festmacht, bekommt man oberhalb von 4x das bessere AF auf einer NVidia Karte. Und irgendwie verliert die mit höherem AF auch keine Leistung.

benchmark_oblivion_skal2.png

Hohe Texturleistung sorgt dafür, dass auf der GTX zwischen 0xAF und 16xAF nur 5fps Differenz liegen.
Es spricht also kaum etwas gegen den Betrieb mit AF oder dem Spielen im HQ-Modus.


wenn du vielleicht einfach den Artikel zu deiner Karte reintust, den ich in meinem vorletzten Posting verllinkt habe, würdest du mir ne Menge Getippe ersparen. Anschaulicher als an AF-Blumen, Beispielen und technischer Erklärung kann man das Thema eigentlich kaum für Laien verständlich verfassen.


Grüße,
Euer George
 
Zuletzt bearbeitet:
@fdSonne
Also damals war die X1800XT PE noch gleichauf mit der X1900XT...ist ja auch schon länger her:fresse:
Ka wie das jetzt ist, nen aktuellen Test gibt es ja leider nit...aber das ne XT PE so schnell ist wie ne X1900Pro glaub ich nicht, die wird wohl etwas schneller....

sorry hab ich grad erst gesehen...

Jo damals war das noch so, aber mittlerweile liegt ne X1800XT so in etwa auf X1950Pro Niveau, vllt mal bissl drüber, mal bissl drunter.
Die PE könnte durchgehend über der Pro liegen, weis ich net, die Karten waren ja recht selten in Tests vertreten, hatte zwar damals mal eine, aber nur leihweise...

Das Problem warum die Karten immer "schlechter" werden liegt nicht an den Treibern, oder an den Testern die das mit absicht so machen, sondern wohl einfach daran, das mittlerweile die Games massiv von der deutlich höheren Shaderpower der X19x0er Reihe profitieren und somit die alte X1800er Karten nahezu immer abgehängt werden.
Sicher spielen Treiberoptimierungen auch mit rein, aber das meiste kommt wohl von der massiven Shaderpower der X19x0er Reihe.

Ich denke schon das es auch Ausnahmen bei den Games gibt, aber so grob gesagt im Durchschnitt ist die X1800XT ca. auf X1950Pro Niveau.

@jackx999
ähhm ja, kann gut sein das es darauf NDA gibt. Aber dann hat er mit seinem Post diese auch schon verletzt :fresse:

Ich frag mich was ne GTX bei Crysis fürn Speicherverbrauch hat, wenn die XT schon 700MB nutzt...
 
Klar verstehe ich das, aber es ist nicht richtig. Bis 4xAF filtert die ATI winkelunabhängig.

das ist mir neu, wenn dem wirklich so ist, dann gut, aber ich ging bis jetzt immer davon aus das die XT auch nicht in kleineren AF Settings winkelunabhängig Filtern kann.
Optimierung ist nicht gleich Optimierung.
das ist klar, aber wie schon gesagt, wenn man keinen sichtbaren Unterschied nach dem einschalten der Optimierung merkt, dann können die von mir aus so viel optimieren wie se wollen...
Willst jetzt Erbsen zählen oder weist du es nicht? standard ist low.
jetzt packts mich, ich schalt gerade die Workstation noch mal ein, und mach nen Screen von den Std. Einstellungen, gerne auch ein Video nach dem klick auf den Button "auf Std. zurück stellen" oder wie der heist...

EDIT:
so hier wie versprochen das Bild vom CCC, ... der Schieberegler kann zwei Positionen annehmen, links (Std) und rechts, erweitert. Zum ausschalten vom A.I. muss man den Haken setzen
cccof7.jpg

OS ist Vista Business 64Bit mit allen Updates und Treiber ist der 7.8er + Bioshock Hotfix.
Ich auch. Aber da ab 8xAF bei dir alles winkelabhängiger wird, ist das 16xAF nicht wirklich 16xAF. Obwohl man im CCC zwei Stufen höher schaltet, gewinnt man sichtbar weniger, als würde man zwei Stufen zurückschalten. Wenn es winkelabhängig ist, heißt das, dass nur noch bestimmte Winkel 16xAF abbekommen, andere bekommen weniger.. es ist also kein komplettes 16xAF wie beim Mitbewerb. klar soweit?
Glasklar :fresse:
Aber ich bin der Meinung, das dennoch die Vergleichscrenns, welche man ja zu genüge im Netz findet, diesen (zwar vorhandenen) Unterschied nahezu nicht zeigen.
Klar filtert die ATI nicht winkelunabhängig, aber man sieht einfach keinen Unterschied, wenn man nicht gerade mit der Lupe die beiden identischen Bilder vergleicht. Das ändert aber nix an der Tatsache, das die ATI dadurch minimal weniger Arbeit zu verrichten hat, da hast recht!
Wenn man Bildqualität an der Texturfilterung festmacht, bekommt man oberhalb von 4x das bessere AF auf einer NVidia Karte. Und irgendwie verliert die mit höherem AF auch keine Leistung.

http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_oblivion_skal2.png
Hohe Texturleistung sorgt dafür, dass auf der GTX zwischen 0xAF und 16xAF nur 5fps Differenz liegen.
Es spricht also kaum etwas gegen den Betrieb mit AF oder dem Spielen im HQ-Modus.


wenn du vielleicht einfach den Artikel zu deiner Karte reintust, den ich in meinem vorletzten Posting verllinkt habe, würdest du mir ne Menge Getippe ersparen. Anschaulicher als an AF-Blumen, Beispielen und technischer Erklärung kann man das Thema eigentlich kaum für Laien verständlich verfassen.


Grüße,
Euer George

Gut über den Leistungsverlust der Karte brauchen wir denk ich nicht zu reden, das hat ja mehr oder weniger Architekturbedingte Ursachen.

Und ja die AF Blume da sieht bedeutend schlechter aus, nur merkt man davon beim zocken fast nix mehr... Das es nicht ganz die BQ des NV Bildes ist, streitet auch gar keiner ab, aber der Unterschied ist so gering das man den fast nicht sieht...

Und ja von diesen diversen Tests der Karten hab ich so einige gelesen ;)
 
Zuletzt bearbeitet:
moin hab grad was sehr Interessantes gefunden:;)

"Lese dir mal den Test genau durch.Ist zwar schon etwas älter aber immer noch relevant."

http://www.tomshardware.com/2006/11/29/geforce_8800_needs_the_fastest_cpu/

"THG stellt in dem Artikel seine neue Testplattform vor.
Da wird ein FX60 mit nem E6800 im Zusammenspiel mit einer 8800GTX,GTS, einer7900GTX und einer 1950XTX getestet.Wenn es in die hohen Auflösungen mit AA/AF geht ist da praktisch kein Unterschied mehr.
Imho 8800 rein und gut is.

Opterron170@2800Mhz=kein Flaschenhals.
Es sei denn,Du willst im 3DSch....Mark 06 neue Rekorde aufstellen,da sind die Intels einfach besser."

edit: wenn das was Ich da raus lese.. das ist wofür ich es halte, dann kauf ich mir ne 88GTX und gut is!.

MFG
 
Zuletzt bearbeitet:
Na da hat sich für Mich der Grafikkarten Kauf erledigt!,
ich nehm jetzt einfach ne GTX und muss mir keine Gedanken machen..
welche jetzt Schneller is, und ob dies und das, und hätte müsste sollte..:)

MFG
 
Zuletzt bearbeitet:
Sorry das der Beitrag ein wenig länger gewurden ist, aber das musste sein ;)



Jup es gibt mittlerweile XTs welche mit 1,15V und 1,1V laufen, um so weniger Spannung aber anliegt, um so weniger lassen sich die Karten aber idR OC'en, weils im Grunde die gleichen Chips sind...

Welches OS hast denn drauf, glaub unter Vista 64Bit zeigt der Rivatuner nix gescheites an, unter XP aber schon...

Im moment wieder XP und wie gesagt eine Feste spaunng wird mir nicht angezeigt sondern nur der Sapnnungs bereich von 0,700V bis 1,350V.

Schaut dann so aus :

$0a00000000 Title : 113-B00602-102 R600 GDDR3_8Mx32 512bit 512MB 507e/514m
$0a00000001 Date/time : 05/11/07 17:20
$0a00000002 Core clock : 507.000MHz
$0a00000003 Memory clock : 514.000MHz
$0a00000004 Reference clock : 27.000MHz
$0a00020100 GPU VDDC controller : I2C device 70h, register 18h
$0a00020101 GPU VDDC level 0 : 0.700V, VID 94h
$0a00020102 GPU VDDC level 1 : 0.725V, VID 96h
$0a00020103 GPU VDDC level 2 : 0.750V, VID 98h
$0a00020104 GPU VDDC level 3 : 0.775V, VID 9Ah
$0a00020105 GPU VDDC level 4 : 0.800V, VID 9Ch
$0a00020106 GPU VDDC level 5 : 0.825V, VID 9Eh
$0a00020107 GPU VDDC level 6 : 0.850V, VID A0h
$0a00020108 GPU VDDC level 7 : 0.875V, VID A2h
$0a00020109 GPU VDDC level 8 : 0.900V, VID A4h
$0a0002010a GPU VDDC level 9 : 0.925V, VID A6h
$0a0002010b GPU VDDC level 10 : 0.950V, VID A8h
$0a0002010c GPU VDDC level 11 : 0.975V, VID AAh
$0a0002010d GPU VDDC level 12 : 1.000V, VID ACh
$0a0002010e GPU VDDC level 13 : 1.025V, VID AEh
$0a0002010f GPU VDDC level 14 : 1.050V, VID B0h
$0a00020110 GPU VDDC level 15 : 1.075V, VID B2h
$0a00020111 GPU VDDC level 16 : 1.100V, VID B4h
$0a00020112 GPU VDDC level 17 : 1.125V, VID B6h
$0a00020113 GPU VDDC level 18 : 1.150V, VID B8h
$0a00020114 GPU VDDC level 19 : 1.175V, VID BAh
$0a00020115 GPU VDDC level 20 : 1.200V, VID BCh
$0a00020116 GPU VDDC level 21 : 1.225V, VID BEh
$0a00020117 GPU VDDC level 22 : 1.250V, VID C0h
$0a00020118 GPU VDDC level 23 : 1.275V, VID C2h
$0a00020119 GPU VDDC level 24 : 1.300V, VID C4h
$0a0002011a GPU VDDC level 25 : 1.325V, VID C6h
$0a0002011b GPU VDDC level 26 : 1.350V, VID C8h
$0a00020200 RAM VDDC controller : I2C device 71h, register 18h
$0a00020201 RAM VDDC level 0 : 1.800V, VID BAh
$0a00020202 RAM VDDC level 1 : 1.850V, VID BCh
$0a00020203 RAM VDDC level 2 : 1.900V, VID BFh
$0a00020204 RAM VDDC level 3 : 1.950V, VID C2h
$0a00020205 RAM VDDC level 4 : 2.000V, VID C4h
$0a00020206 RAM VDDC level 5 : 2.050V, VID C7h
$0a00020207 RAM VDDC level 6 : 2.100V, VID CAh
$0a00020208 RAM VDDC level 7 : 2.150V, VID CCh
$0a00020209 RAM VDDC level 8 : 2.200V, VID CFh
$0a00020300 RAM VDDQ controller : I2C device 4Ch, register 12h
$0a00020301 RAM VDDQ level 0 : 1.800V, VID 07h
$0a00020302 RAM VDDQ level 1 : 1.850V, VID 14h
$0a00020303 RAM VDDQ level 2 : 1.900V, VID 29h
$0a00020304 RAM VDDQ level 3 : 1.950V, VID 3Dh
$0a00020305 RAM VDDQ level 4 : 2.000V, VID 4Bh
$0a00020306 RAM VDDQ level 5 : 2.050V, VID 61h
$0a00020307 RAM VDDQ level 6 : 2.100V, VID 74h
$0a00020308 RAM VDDQ level 7 : 2.150V, VID 82h
$0a00020309 RAM VDDQ level 8 : 2.200V, VID 97h
$0a00030000 PowerPlay state 0 : 507MHz/514MHz/1.00V/boot
$0a00030001 PowerPlay state 1 : 507MHz/514MHz/1.00V
$0a00030002 PowerPlay state 2 : 743MHz/828MHz/fused VID 1/3D
$0a00030003 PowerPlay state 3 : 743MHz/828MHz/fused VID 1/3D/Overdrive
$0a00030004 PowerPlay state 4 : 697MHz/828MHz/fused VID 2/thermal
$0a00030005 PowerPlay state 5 : 726MHz/828MHz/fused VID 1
$0a00000008 Memory type : DDR3
 
jetzt packts mich, ich schalt gerade die Workstation noch mal ein, und mach nen Screen von den Std. Einstellungen, gerne auch ein Video nach dem klick auf den Button "auf Std. zurück stellen" oder wie der heist...

EDIT:
so hier wie versprochen das Bild vom CCC, ... der Schieberegler kann zwei Positionen annehmen, links (Std) und rechts, erweitert. Zum ausschalten vom A.I. muss man den Haken setzen
cccof7.jpg

OS ist Vista Business 64Bit mit allen Updates und Treiber ist der 7.8er + Bioshock Hotfix.

Ja und was stimmt da deiner Meinung nach nicht? AI low heisst jetzt Standard..
Früher in den 6er Catalysts stand da LOW und ENHANCED.. jetzt heisst es halt Standard und Erweitert.. die Übersetzung im CCC sollte doch wumpe sein ;)


Grüße,
Euer George
 
Zuletzt bearbeitet:
Habe unter 2D die Standardspannung von 1 volt, wenn ich Game zocke geht die Spannung mit Rivatuner gemessen auf 1,2 Volt rauf.
Nur OC kann ich die Karte nicht besser da bereits biem Zocken mit 7.9 bei die 81-83 Grad warm wird.
Oder funkt Rivatuner weitaus besser als das AMD Clock Tool beim OC?
 
weil bei Ultra High höchstwahrscheinlich zusätzliche DX10 Effekte hinzukommen.
Hoffentlich ist bei der Crysis Demo ein Bench dabei, sonst sind die Vergleiche wieder mehr oder minder für den A....
Aber der Vergleich auf Seite 36 mit den zwei unterschiedlichen Systemen und einmal die Ati und ein anderes mal die Nvidia ist für die Tonne. Es handelt sich einfach um zwei unterschiedliche Systeme, selbst wenn die Prozessoren sich nicht viel nehmen. Unterschiedlich aufgesetzt und alter usw. So kann man nicht wirklich vergleichen, das geht meiner Meinung nach nur in genau dem selben Rechner mit einem Graka tausch, wie es am Anfang des Threads gemacht wurde.
 
@CBOT
das ist komisch... normalerweise muss dort ein fester Wert stehen...
gut schwankung zwischen 2D und 3D ist klar beim switchen zwischen den Programmen aber sonst darf da eigentlich nix schwanken...

Bist du dir sicher das du auch den richtigen Sensor anzeigst?
Ich werd dann ggf. noch mal schauen wie das Teil genau heist...

@George.Lucas
eh komm, du hast mit mir doch gestritten das das dort A.I. low heist und ich hab dir bewiesen das das nicht so ist... das da meiner Meinung nach was nicht stimmt hab ich doch nie gesagt, ich sagte das es dort nicht A.I. low gibt, mehr nicht.
Und das die Standardstufe Standard heist und nicht Low...

Im Grunde genommen ist es ja total hupe, da du aber so darauf bestanden hast, das dort A.I. low steht, kommt es so rüber das alle Leute was falsches eingestellt haben, den Std. klingt immer noch besser als low, wenn du verstehst wie ich meine...
 
Ist das mit ner 2900xt? Und welche Auflösung? Restliche Hardware? Das alles würde mich schon interessieren...
 
ich glaub eher das das mit einer NV gemacht ist, ist ja auch von einem NV Forum^^
 
@fdsonne
Ok alles klar hab 1,2V@Bench und 1,0V@Win 860/1000 laufen damit.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh