Next-Generation Geometry für Vega offenbar Geschichte

@Nerowings: AMD kann man schon kaufen, den im Low End Markt sind sie preislich durchaus sehr attraktiv (570 und 580).
Für Spiele wie WoW und LoL reichen die ja auch.

Will man aber neueres und mit mehr als FullHD spielen, bringt einem AMD kaum noch etwas. Aber ich kenne das mit dem schön reden, hab ich bei meiner letzten AMD Karte (4x 290X) auch gemacht, aber die Fury konnte ich mir dann beim besten willen nicht mehr schön reden (zumal ich viel vRam brauche, für anderes als spielen).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die sollen jetzt endlich mal GCN begraben.Die Arch WAR mal sehr gut, jetzt ist sie aber einfach ein alter Schinken. Vega hatte schon verloren als sie nur im Kopf von diesem Kodjuri war. Einfach ein Fail... Ich hoffe wirklich das AMD an ner neuen Arch arbeitet, sonst sehe ich schwarz für den zukünftigen GPU Markt --> Monopol
 
besser wrid vega sowieso nichtmehr, shit happens :)

Ich finde die Vega durchaus konkurrenzfähig bis zur 1080. Das P/L liegt auf ähnlichem Niveau. Das AMD dit kein Geld verdient macht die Karte an sich nicht schlechter. Das Funktionen, von denen wahrscheinlich 95% der Nutzer nichtmal wussten das es sie gibt, nicht mehr umgesetzt werden ist nat. ärgerlich. Das hätte die Karte schneller machen können - hat es aber nicht!
Dennoch wie der BF V alpha Test zuletzt gezeigt hat, ist eine Vega64 einer 1080Ti dicht auf den Fersen. Und das ist doch für eine todgesagte Architektur gar nicht mal so schlecht;)
 
du musst sehr blind was den Grafikmarkt angeht, wenn du von dem Geschwafel tatsächlich überzeugt bist. Aber ich kann dich verstehen, hätte ich eine AMD Karte würde ich auch so reden. Denn um derzeit AMD zu kaufen muss man wirklich von AMD überzeugt sein.
Du hast nichts zum Thema beigetragen. War dir das schon während des Schreibens klar? In einem Thread über eine GPU beschäftigt man sich nicht mit Personen, sondern der GPU. Was bist du denn für ein schlechter Troll? Einer noch in der Ausbildung?

@mastergamer
Nein das hast du nicht verstehen wollen. Ich meinte das ist ein Punkt, was auch gilt (TDP). Ergo, Zustimmung. Einfach nur lesen und nicht denken, du kannst schon an Satzzeichen erahnen was der andere meint.
Link fehlt (?)

@hollomen
Das will keiner hören, also ist das automatisch daneben...
 
Zuletzt bearbeitet:
Oder Sie haben wirklich wegen dem Release der PS5 nen Cut gemacht was Features angeht und haben den Rest auf die nächsten Gen verschoben.

Wenn man bedenkt, dass AMD ziemlich genau weiß, wann der Chip für PS5 fertig sein muss. Dazu auch noch bedenkt, wie lange die Hardware entwickelt wird, dann ist das eigentlich eine sehr plausible Erklärung. Wenn jucken die nicht erfüllten Erwartungen im High-End-PC-Gaming, wenn man bald eine PS5 bedient.
 
Zuletzt bearbeitet:
Meine Fury X reicht bei 1080p vollkommen.
es lohnt nicht gegen vega zu tauschen.

Gesendet von meinem XT1580 mit Tapatalk
 
Ich finde die Vega durchaus konkurrenzfähig bis zur 1080. Das P/L liegt auf ähnlichem Niveau.

Das P/L ist nicht auf vergleichbarem Niveau (auch wenn hier sicher die Miner mit Schuld sind). Für das gleiche Niveau müssen neben FPS auch die Frametimes, Stromverbrauch und Features stimmen und gerade bei den letzten 3 Punkten verliert Vega mehr als nur deutlich. Bei nVidia kommt vor allem die ganzen eher exclusiveren Grafikfeatures (Gameworks) hinzu, die mittlerweile doch einiges an Verbreitung gefunden haben (und nun einmal extrem auf nVidia zum Nachteil von AMD optimiert sind). Darauf kann man sicher auch verzichten, sollte sich dann aber im Preis auch wiederspiegeln.
Bei einem Auto geht man ja auch nicht nur nach den PS, sondern auch nach dem Rest der Ausstattung.
Und das die Karte bei einer ALPHA mal etwas besser als sonst abschneidet, macht den Braten nicht ansatzweise Fett. Das kann sich zur Final sehr schnell wieder ändern (und so wie EA mit nVidia zusammenarbeitet, dürfte da noch einiges passieren).
 
Zuletzt bearbeitet:
Will man aber neueres und mit mehr als FullHD spielen, bringt einem AMD kaum noch etwas. Aber ich kenne das mit dem schön reden, hab ich bei meiner letzten AMD Karte (4x 290X) auch gemacht, aber die Fury konnte ich mir dann beim besten willen nicht mehr schön reden (zumal ich viel vRam brauche, für anderes als spielen).
Und was wenn man was neueres in FHD spielen will? Oder soll man das nicht dürfen?

Dir nach dürfte sowas völlig unmöglich sein
|STAR WARS BATTLEFRONT| XFX R7 260X 2GB - YouTube
Star Wars Battlefront - AMD Radeon R7 260x - YouTube
STAR WARS Battlefront [ULTRA] Gameplay - Radeon r7 260x 2Gb, AMD Athlon II x4 630 @3.5GHz, 4Gb RAM - YouTube

Ja genau die (GPU) :d Und dieses harte Vsync erst. Geht garnicht was? :) Die Leute die dadraußen spielen interessiert so ein HighEnd-Freak Geschwafel wie auf Luxx & Co. überhaupt nicht. Wenn du aktive Benutzer mit so einer Meinung auf Luxx, CB, und PCGH zusammenzählst, kommst du auf (wenige) paar Hundert Leute. Insgesamt. Minus die Leute die überall unterwegs sind. Von etlichen etlichen Tausenden die noch am PC zocken. Quantitativ gesehen interessiert die Petrischale in der sich die Obergurus bequem machen, niemanden. So leid mir das tut :)

Du wirst anfangen Sachen vernünftig zu sehen und zu beurteilen, sobald du dich nicht mehr für den Nabel der Welt hälst. Gilt natürlich nicht nur für dich ;) Was interessiert all die Golffahrer was Kevin an seinem GTI bastelt?
Der größte Zocker den ich auf der Arbeit kenne, ganzes Standort mit 4stelligen Belegschaft, kannte Anfang des Jahres Luxx als "jaaa... das ist so ein Komputerforum oder?"
Du kannst also beruhigt wieder zurück auf den Teppich.

p.s::
Bei Forza7, also vernünftiges DX12, sind Frametimes bei Vega konstanter als auf einer 1080Ti. Weiter hab ich mich für das Thema aber noch nicht interessiert.
 
Zuletzt bearbeitet:
Also ich würde meine Asus 1080 A8G sofort gegen eine Asus Vega 64 tauschen.
 
Als jemand der GPUs nur dann im Detail verfolgt, wenn sie für ihn relevant sind,...

... ist dies ggf. ein gutes Zeichen für AMD?

Ich meine, vega war ja mal ein Reinfall. Da will ich nicht drauf rumreiten.
Aber wenn sie jetzt geplante Features und Erweiterungen canceln, deutet das dann nicht darauf hin, dass sie lieber auf ein neues Pferd setzen und es dort ggf. direkt richtig machen?
Am CPU Markt zeigen sie doch wie es geht. Evtl. bekommen sie daher genug Geld um die GPU Sparte weniger kurzfristig anzugehen und eher langfristig zu entwickeln.

Dann ist halt jetzt noch zwei Jahre Durststrecke, aber dann evtl. mit einem Knall zurück auf den Markt, statt einen Aufguß von Vega zu machen?

Bisher war AMD auf GPU Seite nie relevant für mich (oft auch wegen Updatezyklus meines PCs), aber das muss ja nicht so bleiben.
Bin ich da nun zu optimistisch und diese News ist einfach nur negativ auszulegen? Ich hoffe doch nicht. AMD + Intel mit einem Knall in zwei Jahren wären fantastisch für den GPU Markt.
 
Zuletzt bearbeitet:
man hat ein gutes produkt dass gegen eine gtx 1080 durchais konkurrenzfähig ist, von schrott kann keine rede sein.

Kam ja nur nen Jahr später und verbraucht locker flockig 100 - 150W mehr. Geil :fresse:


Oder Sie haben wirklich wegen dem Release der PS5 nen Cut gemacht was Features angeht und haben den Rest auf die nächsten Gen verschoben.

Hilft mir als Kunde aber auch nicht wirklich weiter. Ich wäre ehrlich gesagt ziemlich enttäuscht gewesen, hätte man mich mit solch tollen Features geködert und dann im Endeffekt war es alles nur heiße Luft. Ach wie einem doch Hoffnung gemacht wurde, dass man genau mit diesen Features sich von der Konkurrenz absetzen würde. Die ganzen (roten) Leute habens hier doch andauernd gepredigt. Wir sollen nur auf bessere Software warten und dann würde Vega davon ziehen. Also abseits von den Verbrauchscharts, sehe ich Vega kaum irgendwo irgendwas abhängen. :fresse:

Ach was wurde hier alles geschrieben von wegen, dank HBCC hat eine Vega nicht 8GB, nein, sie hat doppelt so viel Speicher und zwar 16GB!!


Vega ist für Gaming Schrott und sein Geld nicht Wert.

Kann man genauso unterschreiben!


Kosten die nicht % entsprechend weniger als die 1080er, wie sie im Schnitt % weniger FPS als diese liefern?

Öhm, dir ist aber schon bewusst, dass die Vega64 Modelle teurer sind, als die Modelle von ihrem Pendant, die 1080?

PCIe mit GPU AMD (nach Serie): RX Vega 64 Preisvergleich Geizhals Deutschland
PCIe mit GPU NVIDIA (nach Serie): GTX 1080 Preisvergleich Geizhals Deutschland


Witzig wie die ganzen roten wiede raus den Löchern kommen wenn man sie triggert :d

Im Voraus wurde VEGA in den Himmel gelobt und jetzt verteidigt ihr das abgebrannte Haus hinter eurem Rücken, nachdem alle Features wegsterben. Das ist einfach Tatsache, da könnt ihr euch aufplustern wie ihr wollt. Meine Aussage mag überspitzt sein, das macht sie aber nicht falsch. Falsch sind allein eure Ansichten, die Fakten als Schmarn abtun und mich diskreditieren wollt :d

Ich würde fast wetten, dass manche von denen Tränen in den Augen haben :d


Und damit ist die Ankündigung das Vega das kann und plötzlich nicht mehr einfach vom Tisch? Von wegen nVidia lässt man alles durchgehen aber wehe man sagt was gegen AMD.

Bei Nvidia wurde sich über einen angekündigten, aber nicht gelieferten Async Compute fix echauffiert. Hier bei AMD alles halb so wild.


Nein aber wie du bestimmt auch weißt, hat AMD selber gesagt, dass PS in Hardware vorhanden ist und durch die Entwickler unterstützt werden muss.

Naja da gibt es aber das Problem, dass die API dafür nicht zur Verfügung steht, sodass die Entwickler diese gar nicht nutzen können. Auch hieß es von AMD erst "The driver takes care of it for you. Just render as normal."

AMD stellt eigenen Entwicklungspfad für Primitive Shader ein (2. Update) - Hardwareluxx


Weil wenn die ganzen Blockbuster wegen RT endlich vernünftiges DX12 machen (müssen), dann macht das Vega/Polaris mind. eine halbe Klasse besser. Gelegentlich eine ganze. Wogegen Pascal es wohl eher leicht schwieriger haben wird ;)

Glaube ich nicht so ganz. ;)

Comparing DX11 GTX 1080 - YouTube
 
Und was wenn man was neueres in FHD spielen will? Oder soll man das nicht dürfen?

Genau, ignoriere einfach den Beitrag den ich genau davor geschrieben habe, wo ich AMD noch für FullHD als gut (sogar im P/L besser als nVidia) bezeichnet habe. Typisch Fanboy........................ Hauptsache getriggert sein...................... Und zu deinem DX12 Bullshit, von DX12 hast du ja mal so was von keine Ahnung. DX12 ist nahe am Silizium, sprich wenn ein Entwickler nur für nVidia schreibt, funktioniert AMD einfach nur noch schlecht. Auch dein Argument mit den RT Kernen ist Dumm, den was machen die Entwickler dann? Genau, sie schreiben die Engine auf den Chip von nVidia zu (und da es nächer am Chip ist, dürfte AMD dann mit Pech noch mehr im Vergleich zu nVidia verlieren, wie sie schon bei Gameworks verlieren, oder glaubst du echt, das nVidia hier jetzt nur für dich, ihr Zeug so programmieren wird, das es besser auf AMD als auf ihren Chips läuft). In so einer Traumwelt will ich auch mal leben........

Achja, wenn RT genutzt wird (und sich das durchsetzt), dann hat AMD ohne Tensor und RT Kerne einen extremen Nachteil. Die Herkules Karten früher, hatten schon das nachsehen weil denen Hardware T&L gefehlt hat.....
 
Das erste was ich sehe, 1080 fällt leicht zurück gegenüber DX11, Vega bleibt eher konstant. Was ist dann an "leicht schwieriger" falsch? Ich schrieb nicht, daß Pascal damit ganz schön ins Hintertreffen gerät (?) Verstehe ich nicht. Oder hab ich das Video zu kurz geschaut?

@Betabrot
"ist näher am Silizium" :) Sorry. Du mußt Ahnung haben! Man verzeihe. Hast du mir da aber erzählt, DX12 ist einfach nur shice, weil man viel mehr auf die jeweilige GPU eingehen muss? Und wenn die Entwickler anfangen die RTX zu befeuern, dann werden sich nicht nur die Polaris und die Vegas ganz schön umschauen, sondern auch die Pascals? Ist so ein Müll nicht das was man mit einer API eigentlich verhindern möchte?

Und schon alleine das Video was Paddy verlinkt hat, wie haben die Entwickler das denn also in DX12 hinbekommen, das Vega minimal schneller als 1080 wird? Jeder programmiert doch primär für NV oder? :)
Und du willst kein Troll sein? Wie willst du das jetzt noch hinbekommen?

DX12 ist übrigens näher am Spielekode und am GPU-Treiber. Am Silizium selbst ist eine OS-API nur dann näher, wenn es selbst die Treiber für das Silizium mitbringt. Dann kann das schon gleich quasi in die API mit rein. Sowas wie USB2.0 in Win7 usw. Die Art in der DX12 dadurch näher am Silizium ist, spielt keine Geige welches Silizium das ist. Fantasier hier nicht den Thread voll Junge.
Denk einfach selbst nach und zieh dir nicht dauernd nur diese ulkigen Jubelfolien rein.
 
Zuletzt bearbeitet:
Kommen wieder die ganzen roten und grünen Wienerla aus allen Löchern gekrochen mit ihren Minibalken

@Redaktion macht hier dicht, da kommt nix dabei rum ausser Gesabbel oder seid ihr auf das Gesabbel angewiesen,
früher wars ja noch witzig aber inzwischen langweilts nur noch, da gehts auf Boerse um einiges strenger zu, und das soll was heißen :coffee2:
 
Und zu deinem DX12 Bullshit, von DX12 hast du ja mal so was von keine Ahnung. DX12 ist nahe am Silizium, sprich wenn ein Entwickler nur für nVidia schreibt, funktioniert AMD einfach nur noch schlecht. .

Nein BessereHälfte hat da schon recht, wenn sie schreibt, dass wenn Nvidia auf DX12 setzt auch AMD davon profitieren kann, denn die Gesetze der API gelten für beide Hersteller!
 
Achja, wenn RT genutzt wird (und sich das durchsetzt), dann hat AMD ohne Tensor und RT Kerne einen extremen Nachteil. Die Herkules Karten früher, hatten schon das nachsehen weil denen Hardware T&L gefehlt hat.....

RT wird die nächsten paar Generationen nur Eyecandy ohne Mehrwert sein weil die Karten schlicht viiiiiiiiel zu langsam sind. In den Demos sind die Beschränkungen auf wenige "Texturen" ja schon zu sehen. Dazu ist es mies aufgelöst.

Zum Thema: Failga ist schon wirklich eine unendliche Geschichte an sonderbaren Einzelfällen. Die Karte ist eine Mimose aber mit feintuning auf 1070TI bzw. 1080 Niveau. Die 2xxx wir bei NV eh nicht alt. 7nm steht schon an. Nach Zen kommen womöglich auch wieder ein paar Entwickler in den GPU Bereich.
 
Kommen wieder die ganzen roten und grünen Wienerla aus allen Löchern gekrochen mit ihren Minibalken
Aber ehrlich. ein Glück, daß ich schon #39 geschrieben habe. Sonst müßte ich mir den Schuh mitanziehen ;)

@Redaktion macht hier dicht, da kommt nix dabei rum ausser Gesabbel oder seid ihr auf das Gesabbel angewiesen
Wenn ich raten müßte, war da jetzt irgendwas dabei was dir gen strich läuft. Nur was? du hast doch eine 1080Ti... hmm... Wo lag ich richtig?! Spannend spannend :d
 
Zuletzt bearbeitet:
Sind die Beispiele nicht ausreichend, so daß man auch noch das Fazit von Steve dazu braucht? Ja ich guck mir das gleich/nachher mal komplett an. Wenn man draus ohne Steves Fazit nicht selbst schlau werden kann, dann mach ich das mal.

Ein kompetentes Fazit ist immer wichtig. Sonst denkt man sich womöglich noch das Falsche oder so :hmm:
 
Zuletzt bearbeitet:
Vega in Verbindung mit Freesync ist in FHD und wohl auch in 1440p ganz brauchbar, nichts destotrotz war Vega fürs Gaming kein Geniestreich, man erreicht mit der Brechstange (Verbrauch) nach über 1 Jahr die 2tschnellste Karte der Konkurrenz, bringt wieder mal min 1/3 der wie immer eigentlich sehr guten Rohleistung nicht ingame und streicht dann noch die Features der neuen Architektur, die das eventuell durch eine bessere Auslastung hätten verbessern können (primitive shaders mit der kompletten ngg engine) - was soll man dazu noch sagen. Es bleibt wirklich zu hoffen das RTX von Nvidia wenigstens dazu taugt das mehr direkt für DX12 entwickelte Games kommen und Vega das wirklich auch leistungsmässig ausnützen kann(auch bei Amd bedeuted DX12 nicht automisch eine bessere Leistung) und doch zumindest an die 1080ti im Schnitt rankommt um Nvidia wenigstens ein bisschen die Stirn zu bieten.

sogesehen muß man ja fast schon froh sein über die absurden Preise von Turing denn ohne die würden wohl die Preise für Pascal mittlerweile bereits niedriger liegen und dann gibt es kaum mehr einen Anreiz doch noch zu Vega oder Polaris zu greifen.

Momentan hat man bei den Grakas echt nur die Auswahl zwischen Pest und Cholera, die einen bekommen es einfach nicht hin ihre Rohleistung mal wirklich gut in fps umzuwandeln und die anderen haben Preivorstellungen das einem Ottonormalverbraucher Hören und Sehen vergeht...

ich hoffe einfach mal das Amd aus Ryzen und Epyc sowie mit den Minern soviel Geld in die Kassen gespült bekommt, das es wieder mal ein vernüftiges R&D Team für Gaming Grakas möglich macht, das dann ähnlich Ryzen das beste aus den eigenen Entwicklungen und Ideen mit dem besten der Konkurrenz kombinieren und daraus einen neue Grakaarchitektur etablieren kann, die Nvidia mal wieder wirklich durch alle Leistungsklassen das Leben schwer macht.

sonst bleibt nur noch Intel als Hoffnung (so ungern ich das sage) aber die werden wohl wenn es wirklich Gaming Grakas werden und die Leistung passt den Teufel tun und einen großartigen Preiskampf möglichst verhindern...
 
Zuletzt bearbeitet:
So schauts aus!

Schön das man hier auch mal wieder post lesen kann, die erfrischend objekt anmuten. :)
 
Sind die Beispiele nicht ausreichend, so daß man auch noch das Fazit von Steve dazu braucht? Ja ich guck mir das gleich/nachher mal komplett an. Wenn man draus ohne Steves Fazit nicht selbst schlau werden kann, dann mach ich das mal.

Ein kompetentes Fazit ist immer wichtig. Sonst denkt man sich womöglich noch das Falsche oder so :hmm:

Warum schaust du dir das Video denn nicht direkt vollständig an, bevor du deinen Senf dazu gibst. Es sind nur kurze 6min. Wenn du keine Zeit hast, dann antworte doch später. :)

Hättest du dir alle Vergleiche angesehen, dann wäre dir wohl aufgefallen, dass nicht nur Nvidia mal Probleme bei Dx12 hat. Mal haben beide Probleme, dann nur Nvidia, dann nur AMD. Die Ergebnisse sind relativ durchwachsen und es gibt keinen, der klar besser ist. Dies entspricht nicht ganz so deiner Aussage: "Weil wenn die ganzen Blockbuster wegen RT endlich vernünftiges DX12 machen (müssen), dann macht das Vega/Polaris mind. eine halbe Klasse besser. Gelegentlich eine ganze. Wogegen Pascal es wohl eher leicht schwieriger haben wird ". :wink:


PS: Es wurden auch keine Gamrworks Titel gebencht. ;)
 
Zuletzt bearbeitet:
Warum schaust du [...]
Na toll. Grad geschaut, und das nun gelesen. Jetzt hab ich beides ;)

@ilovebytes
Wenn man nicht dauernd nur zu den anderen schaut, sondern sozusagen was für die eigene Gefolgschaft tun wollte, dann ist die Leistung zwischen der 580 und den Vegas schon nicht zu verachten. Finde ich... Daß man damit die 1080Ti nicht angreifen will, das kommunizierte man schon länger im Vorfeld.
 
Das P/L ist nicht auf vergleichbarem Niveau (auch wenn hier sicher die Miner mit Schuld sind). Für das gleiche Niveau müssen neben FPS auch die Frametimes, Stromverbrauch und Features stimmen und gerade bei den letzten 3 Punkten verliert Vega mehr als nur deutlich. Bei nVidia kommt vor allem die ganzen eher exclusiveren Grafikfeatures (Gameworks) hinzu, die mittlerweile doch einiges an Verbreitung gefunden haben (und nun einmal extrem auf nVidia zum Nachteil von AMD optimiert sind). Darauf kann man sicher auch verzichten, sollte sich dann aber im Preis auch wiederspiegeln.
Bei einem Auto geht man ja auch nicht nur nach den PS, sondern auch nach dem Rest der Ausstattung.
Und das die Karte bei einer ALPHA mal etwas besser als sonst abschneidet, macht den Braten nicht ansatzweise Fett. Das kann sich zur Final sehr schnell wieder ändern (und so wie EA mit nVidia zusammenarbeitet, dürfte da noch einiges passieren).

Wann hast du das letzte Mal in den Preisvergleich geschaut? Die Vega 64 Saphire gibts um 520 € als gutes Custom Modell. Die Mondpreise sind zum Glück vorbei. Das betraf in der Tat AMD mehr als NV aber auch dort waren die Preise völlig aus dem Ruder.
 
Zuletzt bearbeitet:
je nachdem wie man misst und mit einem oder manchmal zwei zugedrückten augen, das stimmt :)



genau. und warum ist das so? Ich sags dir, weil wir bei AMD sind. Und das hat keinen anderen Grund. Wäre das hier eine News bzgl Nvidia gewesen, hätten wir bereits 6 Seiten Shitstorm hier. Genau das ist der Unterschied. Die AMD Fanboys aktzeptieren schlichtweg ALLES und feuern wo es geht gegen Nvidia, aber wenn er eigene Misthaufen anfängt zu stinken ist das nicht wild. Und dann wundert sich einer das HWLUXX keiner mehr ernst nimmt.

Mir doch egal was User mit Rot/Grün Schwäche als Aufhänger nehmen um ihre Farbenblindheit zu rechtfertigen . Steh ich drüber , die typischen Verdächtigen blocken Schaft lesbare Threads ;)
 
Schreck .. wo bleibt da nur der Wundertreiber? Wird Zeit, dass jeder endlich erkennt, dass Vega Schrott ist. 50% dessen was versprochen wurde ist nicht da ...
Warum immer diese Provokation?

Ich bin mit meiner VEGA 64 OC sehr zufrieden. Der fine wine macht sich immer mehr bemerkbar und ich bin mir zu 1000% sicher daß das auch die nächste Jahre so weitergehen wird. :love:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh