Ruckeln bei 1080p obwohl guter htpc?

so ich hab mal core avc 1.9.5 installiert und wie es scheint sind die asyncronität und die artefakte verschwunden. hab aber erst nur 10 Filme angetestet. Hoffe das bleibt so.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich verstehe nicht wieso hier immer coreavc empfohlen wird, obwohl hier die Bildqualität mangelhaft ist...

ich würde, sofern die GraKa es unterstützt lieber auf dxva mit mpc-hc setzen...
 
Da gabs noch kein CUDA, also würd ich mir überlegen, obs wirklich an der GPU liegt...
Ich hab auch CoreAVC im Einsatz, solche Bildfehler hat ich noch nie... ( Eigentlich hatte ich noch nie welche... )

ich habe hierzu mit meinem board das den nividia 8300 chipsatz hat, eine interessante endeckung gemacht!
aus kompatbilitätsgründen, mußte ich auf einen alten nv-graka-treiber und zwar den: 178.24_geforce_winxp_32bit_international_whql, downgraden!

damit funktioniert cuda ebenfalls wunderbar:)
core avc, zeigt mir in der taksleiste den grünen kreis, der aktives cuda signalisiert:)
das aber nur nebenbei.

Gruß
g.m
 
das frag ich mich teilweise auch, allerdings kommts da auch auf die empfindlichkeit der leute an.
meine freundin sieht zb auch kein ruckeln, wenn ich 24p material auf 50 hz abspiele. genauso kommts dann auf das tv gerät selber an.
wenn man ein medion gerät hat, wird man weniger unterschiede merken als zb auf einem großen pioneer gerät oder einem panasonic plasma.

auch bei der planet earth reihe sieht man deutliche qualitätsunterschiede: das bild ist mit dxva nicht nur schärfer, sondern auch deutlich kontrastreicher.

wiegesagt, noch besser als mit mpc hc + dxva ist die quali mit tmt3 - noch einen tick schärfer und die farben sind etwas kräftiger.

bevor ich coreavc kaufen würde, investier ich lieber 20-30 euro mehr in eine potente cpu und habe dafür ein besseres bild.
 
Zuletzt bearbeitet:
naja, so teuer ist core avc auch nicht. außerdem kann man sich ja erstmal eine testversion besorgen um zu schauen, ob man damit zufrieden ist.

das bild hat jetzt nichts mit einer besseren cpu zu tun. dafür ist ausschlieslich die grafikkarte und die verwendeten codecs verantwortlich.

mpc-hc mit aktivem dvxa, liefert gute ergebnisse und entlastet die pcu enorm. das hab ich selbst schon getestet. allerdings greift dvxa nicht überal, im gegensatz zu cuda. somit ist cuda die flexieblerer lösung.
schau dir doch einfach mal cuda mit der neusten und core avc version an. vielleicht bist du ja damit zufrieden:)
einen versuch ist es ja wert.

Gruß
g.m
 
Zuletzt bearbeitet:
:d das mit den frauen stimmt. die sind da relativ unkritisch, weil es den meisten einfach wurscht ist.

das bild hat auch nichts mit der cpu zu tun, da hab ich mich unklar ausgedrükt. ich meinte, man sollte lieber das dxva im mpc hc abschalten + damit auf cuda verzichten, als den core zu verwenden. das braucht zwar mehr cpu power, macht aber das bessere bild. vielleicht bin ich da einfach nur penibel, ich weiß es nicht. allerdings sollte man sich dann schon etwas besseres reinbauen als die alten amd x2 prozessoren, v.a. wenn der htpc vielleicht noch andere aufgaben hat (fileserver mit gigabit anbindung, dvbserver, etc...)

ich habe coreavc schon ausprobiert, eben in der letzten version, und die qualitätsunterschiede sind für mich deutlich zu sehen.

deshalb mache ich es für mich zumindest so: alles, was mit tmt3 mit dxva läuft - schön und gut. alles was nicht unterstützt wird, spiele ich ebenfalls mit tmt3 ab und da muss halt meine cpu ran. :coolblue:
 
@ den ersten satz, kann ich wie gesagt nur bestätigen:) hab da ähnliche erfahrungen gemacht. frauen haben dafür bestimmt woanderst ihre stärken. z.b kochen, putzen usw *scherz* will ja nicht, das mir jetzt so eine feministin an die gurkel springt:)

man sollte lieber das dxva im mpc hc abschalten + damit auf cuda verzichten

also dvxa und cuda sind zwei verschiedene techniken. die kann man nicht gleichzeitig verwenden. das habe ich früher auch gedacht, wurde dann aber korrigiert:)
entweder greift eben dvxa oder cuda. da cuda aber überall greift und dvxa leider nicht, ist cuda die flexiebliere lösung.

achos, du bist der meinung das man ohne cuda und dvxa ein besseres bild hat? kann ja sein, hab ich noch nicht getestet.
allerdings dürfte da je nach materiel die cpu zimlich in die knie gehen, da die hardwarebeschleunigung der graka dann ja nicht mehr greift;(

du kannst ja auch mal andere player mit cuda ausprobieren. der mpc-hc (media-player-homecinema) ist nicht schlecht, aber sicherlich auch nicht der nabel der welt:)
ich denke hier hilft halt nur testen um herauszufinden was für einen selbst das beste ist.

Gruß
g.m
 
Zuletzt bearbeitet:
genau, cuda bzw core+cuda ist ja ein direct show codec, der die berechnung halt nicht an die cpu weitergibt, sondern eben an die graka und dort von cuda erledigt wird.
bei dxva ist zb beim media player kein codec mehr im spiel, der befüllt die pixel pipeline direkt.

dann gibts eben codec (powerdvd 8 oder tmt3), die bringen ja ihre eigenen direct show codecs mit und können dann, je nach material, die pixelpipeline befüllen oder die berechnung von der cpu machen lassen. bei beiden programmen macht das programm aber durch seine codecs eine "nachbearbeitung", das bild wird nachgeschärft etc... das gibts beim mpc hc nicht, dort wird das bild 1 zu 1 an die pixepipeline weitergereicht.

dadurch gibts zb bei tmt3 keinen unterschied, ob mit oder ohne graka gerechnet wird, beides wird vom selben codec erledigt. genauso ist es beim media player classic.
benutzt du jetzt den core, kommt halt wieder ein eigener codec zur verwendung. der verbraucht deshalb weniger cpu leistung, weil er qualitativ einfach nicht so gut ist. dafür kommt er mit cuda daher.

einen full hd film rein von der cpu berechnen zu lassen, schafft zb ein x2 5600er. der hat dann so 60% auslastung. über 60% haste immer wieder die gefahr von asyncronitäten. da darf dann halt im hintergrund nix mehr laufen.

aber wiegesagt, wenn man keinen unterschied sieht, kanns einem egal sein :)
 
achso, du meinst das die anderen von dir verwendeten codecs, wie z.b tmt3 (das ist doch dieses arcsoft teil das auch geld kostet), durch postprocessing das bild verbessern.

naja, dazu hab ich folgende meinung:
bei gutem quelmaterial und bluray gehört dazu, brauchst du kein postprocessing. da reicht eine 1:1 ausgabe, da das material von sich aus, sehr gut ist. mag man aber geteilter meinung sein.

einen full hd film rein von der cpu berechnen zu lassen, schafft zb ein x2 5600er. der hat dann so 60% auslastung. über 60% haste immer wieder die gefahr von asyncronitäten. da darf dann halt im hintergrund nix mehr laufen.

jepp, das ist klar. wenn da die graka der cpu keine arbeit abnimmt, geht dem prozessor schnell die luft aus.

im moment hab ich noch ein hd-ready gerät. mit 720p auflösung. ich finde das bild da astrein. wie es jedoch aussieht, wenn ich demnächst auf ein full-hd-gerät umsteige, kann ich noch nicht sagen.

postprocessing würde ich nur bei wirklich schlechtem quellmaterial einsetzen, da es sonst halt nicht viel sinn macht.

Gruß
g.m
 
Zuletzt bearbeitet:
bitte jetzt nicht wieder das thema ffdshow/avisynth aufgreifen und :btt:

denn wie schon gesagt wurde verwendet tmt3 postprocessing für die bildverbesserung, das könnte man durch ffdshow mit dem core codec auch, wenn man es jedoch nicht will kann man es bei tmt3 nicht abschalten.

jedem das seine! fakt ist wenn gutes quellmaterial verwendet wird ist der core codec top, wenn das quellmaterial schlecht ist kann man mit dem core codec noch zusätzlich bildverbesserer verwenden die bei anderen codecs eben schon mit drin sind, ob man sie braucht oder nicht.

mfg
 
postprocessing braucht man unter 47" kaum. ausser - wie du schon sagst, das quellmaterial ist nicht besonders.
darüber merkt man aber wiegesagt schon deutliche unterschiede: planet earth reihe, ice age 2 (ganz am anfang wo man über die klippen fliegt), day after tomorrow....

da kommt der unterschied zum core recht deutlich raus. ganz schlimm ist es zb bei hdtv - fußballspiel zb. das sieht echt nicht gut aus.

ja, tmt3 ist das arcsoft teil, kostet leider geld. dafür spielt er aber auch alle files von der festplatte ab + mkv support :)
deswegen, und weil die quali besser ist als beim mpc hc habe ich ihn mir dann geholt und bin sehr zufrieden. :cool:

edit: @mcgene: also die logik musst du mir aber erklären: du nimmst einen codec, der das bild verschlechtert, um dann das bild mit ffdshow wieder aufzupolieren?
es sollte hier auch andere meinungen aktzepiert werden. der core ist auf meinem 52" panasonic plasma deutlich schlechter als mit tmt3 oder auch mpc hc. hab das gefühl, manche sind hier leicht core verliebt, egal was für argumente man bringt. außerdem warum sollte man das postprocessing abschalten bei tmt3? das bild wird ja dadurch verbessert und nicht verschlechtert.
 
Zuletzt bearbeitet:
das bild wird nicht verschlechtert sondern beim tmt3 wird das bild durch postprocessing verbessert, ob man es will oder nicht. wenn man es will kann man es auch mit dem corecodec verbessern (ffdshow)
 
ich weiss, ist jetzt ot, aber vergleiche mal das bild beim mpc hc mit dxva (wo es kein aufpolieren gibt)und core avc. du wirst den unterschied sehen, einen großen tv vorrausgesetzt! :wink:

ich sag ja nicht, dass der core schlecht ist, für sein einsatzgebiet passt er schon, aber dadurch, dass er cpu freundlich ist, hast du einen qualitätsverlust, und das sollte man den leuten auch dazu sagen.

zumindest darauf hinweisen, dass bei großen tv´s das bild sich mit dem codec verschlechtern kann....
 
will niemand absprechen postprocessing zu verwenden. dennoch denke ich, das bluray quellmaterial selbst auf einem größeren screen nicht verbessert werden muß. das eine dvd auf so einem großen bildschirm, vielleicht noch verbeserungsbedarf hat, mag sein. sollange ich das bild aber nicht explizit schlecht finden würde, würde ich da kein postprocessing verwenden.
einfach nur um ne schärfere kannte zu haben, das doppelte an rechenpower zu brauchen, finde ich jetzt über das ziel hinausgeschossen:)

muß aber wie gesagt jeder für sich selbst entscheiden. tmt3 verwendet auch eine gute freundin von mir und ist damit sehr zufrieden (eine frau die einen htpc betreibt, recht selten sowas:)
wenn man damit zufrieden ist, spricht überhaupt nichts dagegen sich das ding zu kaufen.

ich bin jetzt kein core-avc-fanboy. ich nutze es auch erst seit kurzem und taste mich da allmählich ran:)
ist dein 52" ein full-hd-gerät?
ich meine core-avc verschlechtert ja nichts, er gibt nur alles 1:1 ohne postprocessing wieder raus. deshalb kannst du da auch keinen qualitätsverlust haben.

Gruß
g.m
 
Zuletzt bearbeitet:
wieso sollte man einen qualitätsverlust haben wenn die cpu entlastet wird?

und dxva greift nur bei gutem quellmaterial (richtig gerippt etc.) und bei solchen merkt man keinen qualitätsunterschied.


EDIT: @ganja_man: es ist eben genau so wie du es gesagt hast. coreavc gibt das quellmaterial unverbessert wieder weiter. tmt3 verbessert das quellmaterial durch postprocessing. ob man es will oder nicht, es macht es einfach. de corecodec macht es eben nicht. wenn man es aber trotzdem will kann man es auch machen.
 
Zuletzt bearbeitet:
da muß ich mcgene recht geben.
das mit dem quellmaterial sehe ich genauso und habe das auch immer so vertreten. bei gutem quellmaterial braucht man kein postprocessing. ist aber nur meine meinung und ich will wie gesagt niemandem etwas absprechen.:)

Gruß
g.m
 
Zuletzt bearbeitet:
tv ist der Panasonic TH-50PZ800E - 50" nicht 52" - mein fehler :)

nein ist es nicht. unterschiedliche decoder geben das bild unterschiedlich aus!
es gibt in den einzelnen codecs unterschiedliche berechnungsmethoden zur bildausgabe. manche werden zb mit integerzahlen durchgeführt, welche schneller ist als mit gleitkomma.
bzw werden manche decodierungsmethoden einfach ausgelassen, deshalb braucht der core codec ja auch weniger cpu last als der mpc hc ohne dxva!

bildverbesserer sind gut ab 50" sag ich mal. aber redet wir da mal leuten mit beamern von 2m leinwanddurchschnitt. die haben sicher eine andere meinung. :d obwohl ich für mich selber auch keine lust habe, mich mit ffdshow und avisynth abzumühen - diese zeiten habe ich hinter mir.
 
Zuletzt bearbeitet:
tv ist der Panasonic TH-50PZ800E - 50" nicht 52" - mein fehler
macht doch nichts:)

es gibt in den einzelnen codecs unterschiedliche berechnungsmethoden zur bildausgabe. manche werden zb mit integerzahlen durchgeführt, welche schneller ist als mit gleitkomma.

das wird sich dann aber nur auf postprocessing einstellungen beziehen.

bildverbesserer sind gut ab 50" sag ich mal. aber redet da mit leuten, die eigene kinoräume daheim haben mit beamern von 3m leinwanddurchschnitt. die haben sicher eine andere meinung.

naja, wenn dem so wäre, hätte jedes kino, statt einem analogen projektor, einen digitalen mit postprocessing:) kino ist doch das beste beispiel für 1:1 ausgabe ohne bildverbeserer.
ich weiss aber wie gesagt, das es da verschiedene meinungen gibt. diese akzeptiere ich zwar, teile sie aber nicht:)
ich spreche deshalb auch niemandem etwas ab. wenn ich jedoch auf dieses thema zusprechen komme, bringe ich natürlich meine argumente dazu an:)

Gruß
g.m
 
Zuletzt bearbeitet:
also was das nachbearbeiten angeht, teile ich da deine meinung, sofern es ffdshow betrifft. man muss sich erstens wirklich gut auskennen um auch zu wissen, was man in den scripts ändern muss und v.a. sollte man wissen, was man selber ändern muss, um zb mehr kontrast im bild zu bekommen etc...

das ist sozusagen eine wissenschaft für sich, allerdings braucht man für gute ergebnisse schon quadcore power, und das will nicht jeder in seinem htpc haben :d

die sache mit den decodern ist so eine sache....

als beispiel nehme ich immer gerne den mpc hc her. ist dort das dxva abgeschalten, berechnet die cpu die ganze sache. sagen wir, wir haben dort 80% auslastung der cpu.
nun nimmst du den core her, dieser hat seinen eigenen algorithmus, deshalb ist er ja auch schneller als der mpc hc in der berechnung. der core braucht nur 50% cpu auslastung.
wie erreicht der core codec diese verbesserung? entweder er lässt manche berechnungsschritte aus oder aber es werden nur näherungswerte berechnet. dadruch beschleunigt sich die wiedergabe => weniger cpu last dafür aber schlechtere qualität.
ist auch irgendwie klar: es gibt ja normen für die berechnungsmethoden. ein codec kann sich nur schneller als die norm bewegen, wenn er entweder schritte auslässt, oder aber manche berechnungen verkürzt - wo wir wieder bei den näherungswerten wären.
 
Zuletzt bearbeitet:
das ist sozusagen eine wissenschaft für sich, allerdings braucht man für gute ergebnisse schon quadcore power, und das will nicht jeder in seinem htpc haben

dem kann ich nur zustimmen:)

naja den mpc-hc mit abgeschaltetem dvxa mit cuda zu vergleichen ist etwas unfair:d

wie erreicht der core codec diese verbesserung? entweder er lässt manche berechnungsschritte aus oder aber es werden nur näherungswerte berechnet. dadruch beschleunigt sich die wiedergabe => weniger cpu last dafür aber schlechtere qualität.

also so wie ich das verstanden habe, erreicht core, diese geringere cpu-belastung durch den einsatz von cuda. cuda lagert berechnungen an die gpu (graka) aus. der ist nicht schneller weil er weniger berechnet und dadurch eine eine schlechte bildqualität liefert, sondern weil die graka ihm bei der berechnung hilft.

Gruß
g.m
 
Zuletzt bearbeitet:
lass mal das cuda weg. cuda ersetzt ja nur die cpu-power.

schaltest du cuda ab beim core, rechnet der core ja auch alles über die cpu und ist dort noch immer schneller als der mpc hc ohne dxva!
und wie erreicht er das? indem er berechungen kürzt oder auslässt.
 
ich verstehe nicht wieso hier immer coreavc empfohlen wird, obwohl hier die Bildqualität mangelhaft ist...

ich würde, sofern die GraKa es unterstützt lieber auf dxva mit mpc-hc setzen...

Sorry aber das ist nicht wahr ! CoreAVC (ohne CUDA) liefert seit Jahren praktisch schon ein im Sinne des dekodieren perfektes Bild, H.264 kann exakt so wieder decodiert werden wie es der Encoder vorsah, da hier Informationen fürs Deblocking zum Beispiel mitgelierfert werden. CoreAVC (wie der ffmpeg auch zum Beispiel) liefert ein identisches Bild zum Referenzdecoder (kann man sich bei Joint-Video-Team besorgen). Die Unterschiede die ihr seht liegen einzig am Postprocessing, welches euch einige Player und auch Grafikkartentreiber automatisch unterjubeln. Ich wiederhole mich aus anderen Threads hier wenn ich nochmals darauf hinweise das DXVA zum Beispiel unvollständig implementiert ist und etliche Unterstandards von H.264 (4:2:2 Codierung zum Beispiel) nicht unterstützt. Ausserdem hat man wenn man DXVA verwendet nciht die freie Auswahl fürs Postprocessing, oder welchen Renderer man verwendet... die beste Bildqualität bekommt man immernoch wenn man alles der CPU überlässt - DXVA ist nur eine "Notlösung" wenn das Bild nciht so wichtig, bzw die CPU halt zu schwach ist.
 
schaltest du cuda ab beim core, rechnet der core ja auch alles über die cpu und ist dort noch immer schneller als der mpc hc ohne dxva!

das habe ich noch nicht getestet und kann deshalb nix dazu sagen. den core setzt man ja in der regel nur wegen der cuda-beschleunigung ein. ohne cuda braucht man den wohl auch nicht.

ich würde aber auch den mpc-hc nicht ohne dvxa oder eben cuda einsetzen.

du sagst im grunde, das berechnungen über die grafikkarte zu schlechteren ergebnissen führen, als wenn die cpu diese berechnungen durchführt?

die berechnungen sind doch aber immer die gleichen. also die schritte die zu wiedergabe führen. die cpu berechnet ja auch nichts anderes als die grafikkarte mit aktivem cuda oder eben dvxa. deshalb denke ich eher nicht, das es da bildunterschiede gibt. da man aber nichts 100% auschließen kann, wer weiß?!:)

Gruß
g.m
 
es gab ja auch eine zeit vor cuda ;)
da hat gerade core damit geworben, dass man den schnellsten cpu-codec hat. und dieser war schneller als die berechnung mit der cpu über den mpchc ohne dxva.
jetzt fragt man sich, woher dieser zeitvorteil kommt.

es gab da mal im avforum einen thread dazu soweit ich mich richtig erinnere.

@caspar666:

als notlösung würde ich dxva nicht bezeichnen... es kommt einfach immer auf den codec bzw dessen qualität an und dessen berechnungsmethode.
 
Zuletzt bearbeitet:
naja verschiedene codecs waren schon immer verschieden effizient:)
jeder hersteller will den besten haben und alle machen sich konkurenz.

dvxa ist sicher keine notlösung aber eben nur eingeschränkt benutztbar das es nicht überall greift. da ist cuda eben flexiebler.


Gruß
g.m
nachtrag:

für alle die es interessiert, habe ich einen thread eröffnet, in dem es auch um die effizienz von dvxa geht:
"cpu belastung beim abspielen von 1080p.BluRay.x264-HD1080-mkv files unter ati nur 5%?"

http://www.hardwareluxx.de/community/showthread.php?t=609406
 
Zuletzt bearbeitet:
jetzt fragt man sich, woher dieser zeitvorteil kommt.

Am fehlenden wirtschaftlichen Interesse der MPC-Macher hier noch zu optimieren, was Zeit und damit Geldaufwendig ist. Bei einem Freeprojekt setzt man dann doch lieber auf große Sachen in der Verbesserung und nicht solche Mikrosachen. Bei teuren Produkten sieht das anders aus.
Und auch der Core Codec macht nur das, was man ihn vorgibt bei den Optionen, auch hier kann man in gewissen Mass selbst bestimmen, ob und wie das Bild bearbeitet wird...
 
Wie das genau bei h264 aussieht weiß ich eben nicht, zu wenig mit beschäftigt, aber zu MPEG2 zeiten gab es ebenso einen referenz für die dct/idct berechnungen welche per gleitkomma über die FPU erfolgten. Das war(gerade damals) sehr rechenintensiv. Es gab einige encoder/decoder da konnte man die "genauigkeit" der berechnungen bestimmen und wählen zwischen z.B. integer, MMX instruction set, gleitkomma, 32/64bit usw.. Ob dies bei bei 264 hier auch noch diese möglickeiten gibt würde ich nicht 100% auschließen wollen. Bei MPEG2 gab es dies jedenfalls, innerhalb "eines" decoders der die wahl bot, kann ich mich nicht entsinnen da große erhebliche unterschiede gesehen zu haben mit meinem equipment. Das waren aber noch weit prä 50" Bildschirm zeiten...
 
Zuletzt bearbeitet:
sorry aber was interessiert mich toms hardware wenn ich zuhause sehen kann das bei mir mit coreavc auf nem 52" samsung das bild perfekt ist?

---------- Beitrag hinzugefügt um 19:15 ---------- Vorheriger Beitrag war um 19:14 ----------

Wie das genau bei h264 aussieht weiß ich eben nicht, zu wenig mit beschäftigt, aber zu MPEG2 zeiten gab es ebenso einen referenz für die dct/idct berechnungen welche per gleitkomma über die FPU erfolgten. Das war(gerade damals) sehr rechenintensiv. Es gab einige encoder/decoder da konnte man die "genauigkeit" der berechnungen bestimmen und wählen zwischen integer, MMX instruction set, gleitkomma, 32/64bit usw.. Ob dies bei bei 264 hier auch noch diese möglickeiten gibt würde ich nicht 100% auschließen wollen. Bei MPEG2 gab es dies jedenfalls, innerhalb "eines" decoders der die wahl bot, kann ich mich nicht entsinnen da große erhebliche unterschiede gesehen zu haben mit meinem equipment. Das waren aber noch weit prä 50" zeiten...

kann man meines wissens sogar noch bei ffdshow... wenn mich jetzt nich alles täuscht :confused:
 
du hast dir aber schon die Bilder bei Tomshardware angesehen? CoreAVC schneidet da grottig ab...

Du meinst diesen wahnsinnig intelligenten Test wo die 50hz Material auf einem 60Hz Monitor laufen lassen, was von "Fehlerkorrektur" faseln (ich empfehle einen Gang aufs Dach und die genaue Ausrichtung der Schüssel...) und dann praktisch nur das Deinterlacing testen ? Dabei übersehen das der CoreAVC sich prima umstellen kann das Hardwaredeinterlacing verwendet wird (dann identisch wie alle anderen Codecs mit Hardwaredeinterlacing auch weil es Sache des Treibers+GraKa ist und nicht mehr des Codecs...) - warum überhaupt deinterlacing im Decoder ? Gings nicht ums decodieren ? Deinterlacing ist ein Folgeschritt und innerhalb der ganzen Codecs ehh nur eine Notlösung für User die es nicht besser wissen/können - hat aber mit der Decodierung nix zu tun... typischer THardware Test, einzig gut für Vollprollos die sonst ihren Rechner tiefer legen, aber von Video haben die dort leider keine Ahnung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh