NVIDIA will Smart Access Memory ebenfalls umsetzen

Nun, so sehr mich der Trick für AMD freut,... ich hoffe, dass NVidia das hinbekommt.
AMD hat "ihren Job" gemacht und Nvidia in Zugzwang gebracht. Wenn die nun so überstürzt reagieren UND es hinbekommen, dann haben die Kunden bereits gewonnen.
Genau das wollen wir ja. Also "wir", die Leute, die keine Farbe bevorzugen, sondern wirklich nur Konkurrenz wollen.

Als AMD Fan, ist das natürlich doof. Da hat man gerade erst angefangen sie zu feiern, dann kontert die böse Gegenseite einfach,... ;-)

Aber im Ernst:
Sau geil was AMD da gerade in Bewegung bringt in der Industrie.
Sowohl Intel, als auch NVidia scheinen sich anstrengen zu müssen und unerwartete Wege gehen zu müssen. Super!
Genau genommen ist alles erst ins Rollen gekommen durch die XBOX und DirectStorage.
Erst nach dem Microsoft es implementiert hat in der Konsole, haben sie es beim PC auch freigegeben.

SAM & RTX I/O sind auch ohne Software Anpassung möglich, mit DirectStorage braucht man dann beides nicht mehr, weil die Entwickler das direkt beim Coden Einbauen können.

LOL
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Größe des BAR konnte man schon seit ich laufen kann frei wählen. Das Problem ist weder die CPU, noch die GPU. Ich nutze es für meine FPGAs schon seit langer Zeit. Das Problem ist das BIOS! Darum hat AMD es auf ihre eigenen Prozessoren beschränkt, da sie den Support über den Chipsatz und den damit verbundenen Softwarestack garantieren können. Ich habe hier ein Asus x299 ws sage Mainboard liegen und selbst das unterstützt kein BAR mit mehr als 2 GB und bootet dann einfach nicht mehr. Der Adressraum den das BIOS verteilen kann reicht dann nicht mehr aus, um alle Geräte auf dem PCI Bus zu verwalten. Das ist ein sauteurs Workstation Mainboard. Ich habe genauso auch Knoten in unserem Cluster die pro Stück >20k kosten und das nicht unterstützen. Auf der anderen Seite habe ich hier auch knapp 10 Jahre alte 50€ consumer boards bei denen ich problemlos auch 8gb zuteilen kann.
Dazu kommt hot-plug Fähigkeit, die auch seit jeher Teil des PCI Standards ist und es gibt einfach kein Workstation Board, dass es unterstützt. Habe welche bei denen ich es im BIOS aktivieren kann, aber trotzdem muss ich einen Kaltstart machen sobald ich den PCI Controller angepackt habe. Ich kann nur beten, dass sich das bald bessert und Hersteller Standards auch umsetzen aber wenn ich mir den Mist mit USB ansehe wird mir schwarz vor Augen. Als Hardwareentwickler sehr frustrierend...
 
Wäre ein kleines Wunder wenn NV die offenere/kompatiblere Lösung der Beiden anbietet :d

Interessanter finde ich da schon, dass sich AMD fuer einen Ansatz entschieden hat, der die eigenen CPUs pusht, obwohl es mutmasslich auch mit denen vom Wettbewerber umsetzbar ist. Waere es umgekehrt, waere hier die Hoelle los. Stattdessen ist kaum Kritik zu hoeren (eigentlich gar keine). Was wiederum kein Wunder ist, nichtmal ein kleines.
 
Interessanter finde ich da schon, dass sich AMD fuer einen Ansatz entschieden hat, der die eigenen CPUs pusht, obwohl es mutmasslich auch mit denen vom Wettbewerber umsetzbar ist.
Oh Oh, stellt euch vor das hätte Intel oder Nvidia so gemacht. Was wäre das für ein Shitstorm geworden.
 
3080 mit 12-16GB Vram würde die Karte für 699€ interessant machen, von mir aus auch mit GDDR6 ohne X.
Bin auf die Big Navi Benchmarks gespannt, vor allem 1440p und RT.
Schön, dass Nvidia das aber jetzt auch umsetzt, so wird AMD dieses Feature wohl auch für Intel CPUs freigeben.
 
Zuletzt bearbeitet:
Oh Oh, stellt euch vor das hätte Intel oder Nvidia so gemacht. Was wäre das für ein Shitstorm geworden.
Böses Thema hier im Forum.
Da kommen die Zerglinge und stürmen einen, wenn man AMD für irgendwas auch nur im Ansatz hinterfragt. Gaaaanz böses Juju.
 
Da sollte man sich mal fragen, warum das so ist...
 
Wie immer, für einige ist es nicht wichtig was gemacht wird, sondern wer es macht.
Doppelstandard ist ja nun nichts neues.
 
Interessanter finde ich da schon, dass sich AMD fuer einen Ansatz entschieden hat, der die eigenen CPUs pusht, obwohl es mutmasslich auch mit denen vom Wettbewerber umsetzbar ist. Waere es umgekehrt, waere hier die Hoelle los. Stattdessen ist kaum Kritik zu hoeren (eigentlich gar keine). Was wiederum kein Wunder ist, nichtmal ein kleines.
News nicht gelesen? Wahrscheinlich auch nicht verstanden. Da scheint es bei dir nicht heiß zu sein wie in der Hölle, sondern extrem kalt, wie auf dem Südpol. Um auch mal deine Provokation mit aufzunehmen.
Physik. Je wärmer, desto schneller schwingen und bewegen sich die Teilchen. Je kälter es ist, desto
langsamer schwingen und bewegen sich die Teilchen.

Zitat News:
Der Resizeable BAR Support ist allerdings nicht auf eine bestimmte Plattform oder PCI-Express 4.0 beschränkt. Bereits in den Spezifikationen zu PCI-Express 3.0 ist der Resizeable BAR Support enthalten. Allerdings muss die Plattform validiert sein und dies ist auch der Grund, warum AMD Smart Access Memory auf die Ryzen-5000-Prozessoren und Radeon-RX-6000-Serie beschränkt.

Es steht also jedem frei, diese Funktion nutzen zu können. Allerdings hat sich weder Intel, noch Nvidia dafür interessiert. Erst jetzt, nachdem AMD die schon gegebene Funktion jetzt nutzen will, will Nvidia auch. Da man dies ja auch validieren muss, macht man dies praktischerweise mit der neuen Hardware, wie es eben AMD jetzt mit Ryzen 5000 und Radeon 6000 macht.

Intel? Wahrscheinlich haben die andere, größere Probleme. Denn die kleine Klitsche AMD tritt dem zig 100 Milliarden Guthaben Konzern so richtig in den Popo.
 
Zuletzt bearbeitet:
das liegt daran, dass under intel @eXtremist nicht in der lage war die news zu lesen und zu verstehen.

etwas eigenes in die ueberschrift hinen interpretieren und dann direkt ins forum kotzen macht 1) viel mehr spass und ist 2) auch schneller gemacht.
 
Interessanter finde ich da schon, dass sich AMD fuer einen Ansatz entschieden hat, der die eigenen CPUs pusht, obwohl es mutmasslich auch mit denen vom Wettbewerber umsetzbar ist. Waere es umgekehrt, waere hier die Hoelle los. Stattdessen ist kaum Kritik zu hoeren (eigentlich gar keine). Was wiederum kein Wunder ist, nichtmal ein kleines.
Also....
Intel unterstützt BAR über einer bestimmten Größe wohl zur Zeit nicht bzw. es ist zumindest nicht dokumentiert. Wie sollen AMD Grafikkarten dann das Feature auf Intel nutzen?
Nvidia hatte das Feature bis jetzt nicht implementiert. Wie sollen AMD CPUs/Boards es also für Nvidia-Karten freigeben? AMD schreibt nicht die Treiber für Nvidiakarten bzw. konnten gar nicht wissen ob Nvidia das könnte, da Nvidia ja zugibt, dass sie es bisher nur intern versucht haben.
Das einzige was man im Moment AMD vorwerfen könnte ist, dass es mit älteren CPUs auf 500er Chipsätzen nicht funktioniert und mit den neuen CPUs auf den älteren Chipsätzen nicht.
Es war aber, entgegen der Ankündigungen, nie von AMD vorgesehen Zen3 auf Boards unterhalb des 500er Chipsatzes zu unterstützen. Das kam ja nachträglich wieder. Der Shitstorm ist ja noch leidlich bekannt. Und ältere Zen CPUs waren ja auch für die 500er Boards nicht offiziell vorgesehen. Vor diesem Hintergrund ergibt mMn sich für das Vorgehen von AMD ein schlüssiges Bild und erklärt aus meiner SIcht, warum das Feature, im Moment zumindest, nur auf Zen3/500er läuft. Es wurde schlicht nicht auf den anderen Kombinationen zertifiziert weil sie bei AMD nicht vorgesehen waren.

Cunhell
 

Die praktische Umsetzung könnte interessant werden.
Zu Windows 7 Zeiten liefen bereits viele Systeme bereits im UEFI Mode.
Das GPT/MBR Probleme ist schon ziemlich alt.
da dürften nicht viele von betroffen sein.
 
Interessanter finde ich da schon, dass sich AMD fuer einen Ansatz entschieden hat, der die eigenen CPUs pusht, obwohl es mutmasslich auch mit denen vom Wettbewerber umsetzbar ist. Waere es umgekehrt, waere hier die Hoelle los. Stattdessen ist kaum Kritik zu hoeren (eigentlich gar keine). Was wiederum kein Wunder ist, nichtmal ein kleines.
Entschuldigung, aber das ist doch jetzt wirklich Quatsch. :fresse: Wessen CPUs, wenn nicht die eigenen, soll AMD denn bitte "pushen"? Die Wettbewerber müssen jetzt SELBER aktiv werden und dieses Feature vernünftig in Hard- und Software umsetzen. Nvidia ist aufgewacht und macht es gerade.

AMD hat dieses Feature nicht erfunden. Es war schon lange da. AMD hat es lediglich herausgekramt aus der Trickkiste und nun ziehen die anderen langsam nach.
Das AMD an dieser Stelle die anderen Schlafmützen zum Fortschritt zwingt, kann man nur mit einer sehr verqueren Denkweise negativ auslegen. ;)

Post #32 von @lematthias ist in dem Zusammenhang übrigens sehr aufschlussreich!
 
Na, dann erinnern wir uns kollektiv an diese Situation, wenn NVidia oder Intel das nächste mal nen Hairworks machen und loben sie dann dafür, statt sie anzugreifen. 8-)
 
Es gibt einen Unterschied zwischen "Unterstützen wir auch" und "Wir bauen ein geschlossenes Stück Käse, was niemand außer uns unterstützt".
Gamework, Nvidias eigene Raytracing Suppe, PhysX, 3D, RTX Effekte... das geht auch alles offen und für alle. Nur will man das nicht, weil man mit dem Vendor Lock-in Geld verdienen will und die Jünger schreien "Hurra!". Na dann unterstützt mal weiter eure eigene geplante Obsoleszenz. Abo-Dienste gibts ja auch schon und die Leute schlucken es wie Bier.
 
Na, dann erinnern wir uns kollektiv an diese Situation, wenn NVidia oder Intel das nächste mal nen Hairworks machen und loben sie dann dafür, statt sie anzugreifen. 8-)
Ein glatter Beweis, dass du diesen offenen Standard intellektuell nicht verstanden hast. Eine PCI-E Spezifikation die schon seit längerem benutzt wird in einem anderen Kontext und du deswegen aus völliger Ahnungslosigkeit hier provozierst und Vergleiche anstellst, mit nicht offene Entwicklungen, die niemand benutzen kann, außer die, die diese Entwicklung gemacht haben.

Sich aber dann wundern, dass es ständig Reibereien in den Foren gibt, nur weil du nicht gewillt bist, zu begreifen und zu lernen.
Sich aber ganz arrogant in eine Position bringen und Beiträge schreiben, die genau das sind, was du gerne kritisieren möchtest.

Möglicherweise hat deswegen @Kommando diesen Satz direkt unter deinen geschrieben.
Anscheinend kannst du nicht darüber nachdenken, warum das so ist.

Hier mal ein Kommentar aus dem ComputerBase Forum von User Teralios, der Ahnung von diesem Thema hat.

Alle die hier jetzt unüberlegt ihre Provokationen ins Forum geblasen haben, sollte mal in sich gehen und sich fragen, ob ihre Kommentare sinnig sind. Bessere wäre es, diese Kommentare zu editieren.
 
3080 mit 12-16GB Vram würde die Karte für 699€ interessant machen, von mir aus auch mit GDDR6 ohne X.
Bin auf die Big Navi Benchmarks gespannt, vor allem 1440p und RT.
Schön, dass Nvidia das aber jetzt auch umsetzt, so wird AMD dieses Feature wohl auch für Intel CPUs freigeben.
Ich war schon versucht die 3080 10 GB für 699 zu kaufen... Vom P/L wäre es fast wie meine jetzige Ti, etwas teurer aber etwas mehr Leistung. Ich bereue es fast, da ich die Karte eventuell nicht mal ausgepackt hätte und für den doppelten Preis hätte verkaufen können. Natürlich hätte das weiteres Leid bedeutet. Mit 12 - 16 GB VRAM wäre die 3080 viel zukunftssicherer gewesen, gern auch als 3070 Ti mit GDDR6 statt GDDR6X - Kennt einer noch die 1070 Ti? Nächstes Jahr werden wir von solchen Karten sicher wieder welche sehen. Eventuell bringt NVIDIA dann gar die 3070 16 GB auf 7nm-Basis. Das eigentliche Problem ist ja eigentlich nur, dass Ampere 40 - 50 % mehr kostet als es sollte. Manche hatten Glück, trotzdem kann man nicht behaupten dass flächendeckend Karten verfügbar sind. Bei den 3090ern beruhigt es sich derzeit schon ein bisschen.

Wenn NVIDIA das auch unterstützen wird, wieso nicht? Das Feature hat ja keine Nachteile wenn man keine kompatible Hardware besitzt. Richtig interessant wird es sowieso erst in den kommenden Generationen, wenn es ausgereift ist. Das war schon immer so. Vulkan / DX12 brauchten auch ihre Zeit, jetzt gerade ist RT dran.
 
Hilft mir ja auch nur teilweise, wenn nVidia das für ihre Karte ermöglicht. Denn dann brauche ich auch ein Board nebst UEFI, in dem das freigeschaltet ist. Ich glaube kaum, dass das für ältere Boards noch kommen wird. Die Hersteller dieser Hardware wollen ja auch wieder verkaufen. Dann halt zwischen 3-11% weniger Leistung. Dafür nicht wieder hunderte von Euronen ausgegeben. Irgendwann ist mal gut.
 
Es gibt noch viele weitere Features die Linux hat und Windows nicht - deswegen setzt Microsoft jetzt auch so viel daran, Mesa auf Windows umzuporten. Das Problem dabei ist, dass viele Spiele und auch viele Treiber *hüstel* Lederjacke *hüstel* sich nicht an die Standards halten und ihre eigene "Version" implementiert haben. Kurz: Mesa wird nie vollständig unter Windows laufen, denn sowohl die Spiele, die sich nicht an die Standards halten, als auch die Treiber, welche diesen nicht-Standard supporten werden von Mesa nie unterstützt.

Ergo wird es nur globale Rundumschläge geben, wie SAM (was unter Linux BAR-Support geschimpft wird - offen und frei für Jedermann), Scheduler Optimirungen, Energieverwaltungs-Tweaks etc... Es gibt unter Linux bereits spezielle "Gaming Kernel", welche die Latte noch ne Stufe höher pushen. Wenn wir uns hier also seitenlang wegen 5% Performance die Köpfe einschlagen, würde ich vorschlagen, einfach mal ne zweite SSD zu kaufen und ein Dual-Boot System anzulegen.

Die Kirschen (und maximale Stabilität - welch Ironie) gibts leider nur mit AMD-GPUs, aber für einen ersten Eindruck sollte es auch mit GPUs von Team grün reichen. ;)
 
Gamework, Nvidias eigene Raytracing Suppe, PhysX, 3D, RTX Effekte... das geht auch alles offen und für alle. Nur will man das nicht, weil man mit dem Vendor Lock-in Geld verdienen will und die Jünger schreien "Hurra!".
Ah, also kann Nvidia den RageMode und Direct Access von AMD nutzen, verstehe.
Dachte, das wäre ne AMD Sache und die Jünger schreien "Hurra!".

Falls es nicht deutlich genug ist:
Das Argument: "Sie müssen es ja nur umsetzen!" gilt für alle Parteien.
Auch AMD könnte Hairworks einfach umsetzen. Auch AMD könnte G-Sync supporten. Auch AMD hätte alle RT Effekte supporten können, bevor sie in DX12 aufgetaucht sind. Auch AMD könnte den Entwicklern Tools für RT zur Verfügung stellen, damit sie nicht auf NVidias Hilfe angewiesen sind.

Das Spiel geht in beide Richtungen.
Dass man AMD für ihre eigenen Süppchen feiert, die anderen aber verflucht, ist schon echt harte Doppelmoral.

Alle Hersteller sollten einfach mal wild pushen und ihr Zeug machen.
Wenn was Gutes dabei rauskommt, sind die anderen halt im Zugzwang das aufzuholen. Bin ich absolut dafür.
Ich bin nur dagegen, dass man da mit zweierlei Maß ran geht und alles, was AMD macht, als toll hinstellt und alles, was die anderen machen ist unfair, doof und blöd.
Als Kunden profitieren wir von ALLEN Innovationen, egal von welchem Hersteller sie kommen. Analog gewinnen wir gar nichts, wenn wir es schön reden, dass "die anderen" nicht nachbessern, wenn eine Seite was Gutes gebracht hat. AMD ist da kein bisserl besonders. Auch sie sollten nachbessern. Auch sie sollten als Vorbild genommen werden für ihre Innovationen.
 
Uhh wenn das kommt ist bei Intel ja wieder ein neuer Sockel mit drölf ganz wichtigen neuen Pins von Nöten ohne die das ganze im BIOS nicht umsetzbar wäre.
 
AMD könnte GSync supporten? Erklär das bitte mal genauer.
 
AMD könnte GSync supporten? Erklär das bitte mal genauer.
Na, was genau willst Du da erklärt haben?
Das ist auch nur Software im Treiber. Die Module in den Monitoren muss AMD dann ja nicht selber bauen oder so was.

Mein Punkt ist:
Wir ERWARTEN hier anscheinend, dass AMD alles toll macht und bashen dann die Konkurrenz, wenn sie es kopieren / nachmachen,... obwohl wir als Kunden darüber happy sein sollten.
Wir ERWARTEN hier aber auch, dass alles, was nicht von AMD kommt, irgendwie böse gegen den Kunden geht und auf keinen Fall kopiert / nachgemacht werden darf,... obwohl wir als Kunden darüber happy sein sollten.

Ich verstehe diese Gedankengänge einfach nicht.
Sollten wir uns nicht über alles freuen, was neu ist und irgendeinen Mehrwert liefert? Egal wie klein er sein mag,... aber jeder noch so kleine Mehrwert ist doch besser als ihn nicht zu haben?
Und analog sollten wir doch jede Firma feiern, die so was macht, nicht nur AMD.
Auch analog sollten wir von jeder Firma erwarten, dass die gute Dinge der anderen kopiert, auch wenn sie AMD heißen.

Wird hier einfach viel zu oft so getan, als könnte AMD nur alles richtig machen und die anderen sind alle böse und doof.
Damit argumentieren wir doch nur gegen den Fortschritt, von dem wir als Kunden profitieren,...

(Um es auch für den letzten deutlich zu machen: Ich hinterfrage hier nicht AMD [die machen ja alles richtig momentan], sondern die Forenfans, die anscheinend null Interesse an Fortschritt haben, wenn er nicht von AMD kommt)
 
Falls es nicht deutlich genug ist:
Das Argument: "Sie müssen es ja nur umsetzen!" gilt für alle Parteien.
falls es immer noch nicht angekomen ist:
es besteht einen unterschied zwischen der implementierung eines offenen standards und darin eine eigene closed-source loesung zu basteln.

fuer geistige traenen wie dich:
- ja, nvidia (und jeder andere hersteller auch) koennen spezifikationen des PCIe standards umsetzen.
- nein, ausser nvidia kann niemand nvidias proprietaere loesungen wie i.e. physix, g-sync, cuda,... anbieten.
 
Zuletzt bearbeitet:
Wäre total korrekt, wenn beide Seiten nicht DUTZENDE Patente des anderen nutzen würden aktuell.
Was hindert AMD daran einfach das G-Sync Patent auch zu nutzen? Nichts.
Und unterschlagen wir mal nicht, dass AMD FreeSync auch größtenteils "ne eigene Sache" ist, die auch nicht open source ist.
Es baut auf dem offenen VESA Standard auf, ist aber keine reine Implementation. Wenn es das wäre, würden alle FreeSync Monitore perfekt mit G-Sync laufen. NVidia supportet den VESA Standard für G-Sync ohne Modul. Und es gibt einige Monitore, die nachweislich Probleme machen damit,... weil FreeSync halt ein AMD Ding ist, dass nicht einfach nur den offenen Standard umsetzt.

Nur weil etwas nicht open Source ist, bedeutet das nicht, dass es nicht benutzt werden kann. Es darf nur nicht ohne Rücksprache verändert werden.
Riesen Unterschied. Nichts hindert AMD daran die Nvidia Dinge zu supporten mit ihrer Hardware. Sie machen es, wie gesagt, bei dutzenden kleineren Techs sowieso. Genauso wie Nvidia. Mehr als die Hälfte aller Treiber und Settings in meinem AMD Board sind Intelsachen. Auch da scheint das kein Problem zu sein.

Warum tun wir so, als wäre Open Source der einzige Weg etwas zu nutzen? Open Source ist nicht die magische Keule, die alles gut macht. Viele Open Source Lösungen leiden darunter sogar, weil auf einmal 100 Branches entstehen und die Nutzerbasis sich so splittet, dass sich support für keinen der Branches mehr rentiert.
 
@Tech Enthusiast
Ach hör doch auf. Du hast völlig unüberlegt die falsche Aussage von @eXtremist, der auch keine Ahnung hatte aufgenommen, um dann damit die User zu diskreditieren, die geschlossene Merkmale kritisieren.
Da kannst du jetzt viel meinen und irgendwelche Geschichten darum basteln.
Dann deine Phantasie, AMD könnte ja auch G-syc und dazu die naive Frage, was AMD daran hindert, dies auch zu nutzen. Du weißt also, dass Nvidia es erlauben würde? Geschlossene Merkmale haben gerade den Sinn, um Konkurrenz auszuschließen, oder man soll teuer dafür bezahlen.

Du schreibst dich hier um Kopf und Kraken.

In den 90er war der Aufschrei groß, als Automobilhersteller anfingen, ihre Komponenten so zu verbauen, dass man selbst für einen Auspuffwechsel teures einzelangefertigtes Werkzeug kaufen musste. Da wollten die Automobilhersteller die freien Werkstätten klein halten, denn nicht jede Werkstatt konnte sich solche Werkzeuge kaufen und dann auch noch möglicherweise für unterschiedliche Fabrikate.
Der Grund, natürlich nur deswegen, damit der Kunde zur Vertragswerkstatt gehen muss und die sind generell teurer.
Oder als die Automobilhersteller gerichtlich vorgingen und die Garantie erlischt sehen wollten, wenn der Kunde zu einer freien Werkstatt während der Garantiezeit ging.

Das sind die Gründe, warum geschlossene Systeme absolut
kritikwürdig sind.
 
Ob Nvidia das zulassen würde, kann keiner von uns sicher sagen. Der Werbeeffekt wäre aber enorm, also vermute ich schon. ;-)
Es geht aber mitnichten um speziell die eine Sache, sondern darum, dass auch geschlossene Standards (von allen drei Teams!) zu dutzenden vorhanden sind und gegenseitig ausgetauscht werden.
Geschlossene Standards haben massive Vorteile was die Entwicklung angeht. Sie lassen sich leichter finanzieren, haben damit eine sicherere Daseinsberechtigung und werden nicht wild gesplittet.

Das pauschal zu verteufeln, ist einfach kurzsichtig und falsch.

Ob das heilige AMD den CPU Zugriff für Nvidia zulassen wird, sehen wir ja dann.
Ich würde da einfach mal nicht drauf wetten, solange AMD einen Gewinn daraus ziehen kann. Aber wenn sie das verhindern, dann ist das sicher ihr gutes Recht in den Augen der Fans. Da wird leicht ne Ausrede gefunden, wieso das bei AMD ok ist, bei den anderen aber die Ausgeburt des Satans. (was ja der ursprüngliche Punkt war hier, die Doppelmoral.)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh