Intel bald mit HT schon am 4core i3!!

Da oben sagtest du noch, es geht nichts über HighCoreCount... Sogar dick und fett markiert. Ein Widerspruch zu deiner eigenen Aussage ein paar Zeilen weiter oben.

Ja was denn nun!?
Getreu dem Motto, nur genügend Behauptungen aufstellen, eine wird schon stimmen!? Und sich dann damit zu schmücken, "ja hab ich doch gesagt"!?

Genau das ist auch die Erfahrung in meiner Firma.

Das Problem ist, egal welche Erfahrung du gemacht hast und wie sicher du dir bist bei deiner Aussage, beim Thema AMD vs. Intel oder AMD vs. NV wird es IMMER irgendwelche Typen geben, die auf Basis vom Hörensagen, Wunschdenken oder Einbildung irgendwas besser wissen. Eigentlich arg bedenklich...
Ich kapier einfach nicht, was das bezwecken will. Vor allem, was hat die Person von dieser Behauptung!? Weder nen Vorteil, noch nen Nachteil. Der präferierte Hersteller hat auch nix von... Man lügt sich nur selbst in die Tasche.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tja, getreu dem Motto "was interessiert mich mein Geschwätz von vorhin"

HWK Threads sind immer so... :popcorn:
 
Da oben sagtest du noch, es geht nichts über HighCoreCount... Sogar dick und fett markiert. Ein Widerspruch zu deiner eigenen Aussage ein paar Zeilen weiter oben.
Ja - und den Rest, den ich davor schrieb, direkt unter den Tisch fallen lassen? :rolleyes:

Ich begann den Text mit "das ist so nicht ganz richtig" und endete "es geht nichts über HighCoreCount". Dazwischen findet man die Erläuterung, dass es durchaus anders ist, als der zuvor geschriebene Beitrag zu erkennen gab:
Insbesondere CAD-Programme großer Hersteller profitieren kaum von mehr Kernen.
(...)
Beispielsweise sind die mit 4 Kernen und 3,2 GHz Takt schneller als mit 8 Kernen und 3 GHz Takt.
Autodesk's 3ds max profitiert in vielen Szenarien von HighCoreCount - wie viele andere Autodesk-Programme, die auf die MentalRay-Engine setzen. Die lechzt geradezu nach Kernen.

Und MentalRay ist eine der am häufigsten verwendeten Engines im Designbereich.

Wie du siehst, ist es also nicht nur fatal, wie von dir, "CAD" falsch zu verstehen, sondern auch noch die Verwendung von verschiedenen Engines komplett auszublenden.

Wenn ich also sage, dass "nichts über HighCoreCount" geht, stimmt das - denn in den Szenarios, wo alles über Takt geht, sind die Setups mit besonders vielen Kernen kein nennenswerter Leistungsverlust - in Szenarios, in denen Kerne gefordert werden, sind sie jedoch deutlich überlegen.

Man steht mit "HighCoreCount" also bedeutend breitbeiniger da als mit "Takt, Takt, Takt".

Wenn man nur ein sehr beschränktes Szenario fährt, kann ein HighCoreCount unsinnig sein - dann ist "Takt, Takt, Takt" sinnvoller. Aber das ist eine sehr spezielle Sichtweise - und keinesfalls eine pauschale Aussage, wie sie passat3233 getroffen hat und von dir unterstützt wurde.
 
Autodesk's 3ds max profitiert in vielen Szenarien von HighCoreCount - wie viele andere Autodesk-Programme, die auf die MentalRay-Engine setzen. Die lechzt geradezu nach Kernen.

Und MentalRay ist eine der am häufigsten verwendeten Engines im Designbereich.

Wie du siehst, ist es also nicht nur fatal, wie von dir, "CAD" falsch zu verstehen, sondern auch noch die Verwendung von verschiedenen Engines komplett auszublenden.

Nicht einmal Autodesk selbst sieht 3ds max und Maya als CAD-Software.
Und es ist auch keine.
CAD von Autodesk ist Inventor und AutoCAD.
3ds max und Maya beschreibt Autodesk als "Künstlerische Design-Tools für die Medien- und Unterhaltungsbranche".

CAD: Solidworks, Inventor, AutoCAD, CATIA, Solid Edge, Pro/Engineer, etc.
 
Zuletzt bearbeitet:
Schön ein paar "Trolle" die mit Schmutz um sich werfen. Will mit machen. :d

Das CAD Software nicht von eine hohen Kern Anzahl (6+) profitiert sollte klar sein.
Bis auf AutoCAD wurde bisher aber keine weitere CAD Software benannt. Alles andere (Catia, SE, PE etc.) ist CAE Software. Das heißt du Konstruierst und Berechnest das Bauteil/Assembly.
Und jeder der schon mal Bauteile/Assembly berechnet wird euch sagen, dass man nie genug CPU/Kerne haben kann.
 
@Hardwarekenner: mal abgesehen davon, dass der i3 ohne turbo und mit kastriertem cache und anderen einsparungen gegenüber dem i7 daherkommt, wieso muss sich amd warm anziehen, wenn intel ein i3 getauftes pendant zum r5 1400 bringt? schau mal auf die preisgestaltung, wer da wem nachzieht. selbst ein hoher werkstakt seitens intel kann vom älteren R5 dank oc-fähigkeit, die dem i3 fehlt, wett gemacht werden. intel kann ja mit dem takt nicht so hoch gehen, dass der i3 den i5 überflügelt. dann ist intel im mittleren preissegment also auf augenhöhe mit den kleinen R5. ist zwar nett, aber von warm anziehen kann da doch keine rede sein. allein wenn ich sehe, dass ein aktueller i7 hexcore sich teilweise mit einem weitaus günstigerem r5 hexcore messen lassen muss... zwar muss sich intel nicht mehr hinter ryzen verstecken, aber andersrum muss amd das auch nicht vor coffeelake. noch hat intel den takt auf seiner seite, aber das wars dann eigentlich auch schon. wenn ryzen II da noch ne schippe draufpacken kann (da wurde ja schon was von amd angedeutet), muss sich wohl eher intel warm anziehen weil ihnen die argumente für ihre hohen preise ausgehen.
ich kann da derzeit jedenfalls kein problem für amd entdecken.
 
Zuletzt bearbeitet:
wenn ryzen II da noch ne schippe draufpacken kann (da wurde ja schon was von amd angedeutet), muss sich wohl eher intel warm anziehen weil ihnen die argumente für ihre hohen preise ausgehen.

Sobald AMD mit Intel gleichziehen kann, werden sie es auch preislich tun ;)
 
So so, Hypertransport bald am i3. Wer hätte das gedacht... ^
 
@mastergamer: kommt drauf an. wenn sie marktanteile gewinnen wollen, werden sie im preiskampf bleiben. siehe athlon XP/athlon 64. amd war sogar führend und dennoch günstiger.

eine hier im eröffnungspost unterstrellte bedrohung durch i3 mit quad + ht sehe ich jedenfalls nicht. sowas hat amd doch schon ab 148 € im programm. intel kommt dann mit einem pendant und bedroht mit dem auch noch die eigene gehobene mittelklasse in form von i5 mit 6 threads gegen 8 i3 threads...
 
@mastergamer: kommt drauf an. wenn sie marktanteile gewinnen wollen, werden sie im preiskampf bleiben. siehe athlon XP/athlon 64. amd war sogar führend und dennoch günstiger.

Jo, damals war es glücklicherweise so. Aber wenn ich R9 290 vs. GTX970 bzw. Vega vs. Pascal sehe... da kann ich nichts von einem besseren P/L Verhältnis erkennen.
 
Athlon XP/A64 und Preiskampf in einem Absatz!? Habt ihr damals geschlafen???

Mit der Ankündigung des A64 hat Intel den ersten P4 EE, als hals über Kopf umgebauten Xeon Gallatin DIE gebracht und AMD nen Athlon 64 FX. Das waren die ersten 1000€ Consumer CPUs. Sowas gabs VORHER in der Form überhaupt nicht, dass die Hersteller in der 1000€ Preisklasse ein eigenes Produkt so wie damals platzierten...
Preiskampf :stupid: Aber klar, ggü. den 1000€ Top Modellen sah das was drunter war natürlich alles "günstig" und nach Preiskampf aus :banana:
Gab ja schließlich fast 1000€ Performance für deutlich weniger Geld. Und mit OC konnte man das sogar noch verbessern... Na huch? Das hört man ja heute immernoch!?

Schon interessant wie sehr die Vergangenheit doch verschwimmt in den Köpfen der späteren Gen... Lang Lang ists her. Und auch, wie gut das Prinzip immernoch fruchtet...
 
@Phantomias88: naja der letzte 8350 mit 8 threads war nicht sonderlich bedrohlich... :fresse:

@mastergamer: beim vega ist die herstellung allerdings auch teurer als bei pascal. bei ryzen sieht das gegenüber coffeelake angeblich umgekehrt aus... aber ist eh nur spekulation, warten wir ab was kommt :)

aber i3 mit 8 threads find ich schon gut. das ganze noch als k-cpu und ich bin durchaus interessiert :d
oder eben ein ryzen II der sich ordentlich takten lässt... wäre auch spannend für mich. hauptsache günstig, ausreichend threads und vor allem: oc-monster :d

@fdsonne: wo war denn ein athlon XP teuer im vergleich zu pentium 4? :confused:
und athlon 64 waren auch nicht grad hochpreisig im vergleich. nur als FX-edition für enthusiasten, aber die waren mehr aushängeschilder. kann mich noch erinnern, dass redaktionen ungefragt mit FX-cpus versorgt wurden, die noch gar nicht angekündigt waren. kp ob die je in großen stückzahlen produziert worden sind oder mehr n pr-gag waren. nen 64-FX hatte ich jedenfalls nie. wohl nen opteron, aber das ist ja dann wieder "threadripper-klasse" sprich semi-pro-hardware.

ich hab die ganze netburst-ära über nur amd besessen weil die einfach mehr wumms für deutlich weniger kohle geliefert haben.

wie dem auch sei, ein i3-quad mit ht wird kaum der untergang von amd sein ^^
 
Zuletzt bearbeitet:
Mit OC kommst du heutzutage garnicht mehr an die Topmodelle ran. Wettbewerbstechnisch ist da noch jede Menge Luft nach oben.
 
Schön ein paar "Trolle" die mit Schmutz um sich werfen. Will mit machen. :d

Das CAD Software nicht von eine hohen Kern Anzahl (6+) profitiert sollte klar sein.
Bis auf AutoCAD wurde bisher aber keine weitere CAD Software benannt. Alles andere (Catia, SE, PE etc.) ist CAE Software. Das heißt du Konstruierst und Berechnest das Bauteil/Assembly.
Und jeder der schon mal Bauteile/Assembly berechnet wird euch sagen, dass man nie genug CPU/Kerne haben kann.

Ich weiß ja nicht wie du deine CAD/CAE Software benutzt, aber ich modelliere hauptsächlich und rendere/rechne nicht. CFD/FEM/Fotorendering macht bei mir vielleicht 5% der Nutzungszeit aus, wenn überhaupt. Und das normale modellieren + Zeichnungen erstellen ist halt nicht wirklich multithreaded...

Übrigens kann ich zumindest von Solidworks sagen, das selbst beim Rechnen mehr Kerne nicht unbedingt besser sind. SWX ist denkbar schlecht Multithreaded...
 
Mit OC kommst du heutzutage garnicht mehr an die Topmodelle ran.
nur wos auf die threadzahl ankommt. ist immer ne frage welche ansprüche und einsatzgebiete man hat. gibt genug spiele und teils noch anwendungen, in denen ein i7 7700k @ max oc alles toppen kann. klar, gegen mehr kerne kannst du nicht mehr an, wenn diese genutzt werden, aber ich denke mit 8 threads kann man für den kleinen geldbeutel noch immer ordentliche zockermaschinen basteln, die nicht selten ins gpu-limit rennen.
 
@fdsonne: wo war denn ein athlon XP teuer im vergleich zu pentium 4? :confused:
und athlon 64 waren auch nicht grad hochpreisig im vergleich. nur als FX-edition für enthusiasten, aber die waren mehr aushängeschilder. kann mich noch erinnern, dass redaktionen ungefragt mit FX-cpus versorgt wurden, die noch gar nicht angekündigt waren. kp ob die je in großen stückzahlen produziert worden sind oder mehr n pr-gag waren. nen 64-FX hatte ich jedenfalls nie. wohl nen opteron, aber das ist ja dann wieder "threadripper-klasse" sprich semi-pro-hardware.

Kommt drauf an, welchen du meinst... A-XP gabs ne ganze Zeit lang. Und teurer sagte ich ja eigentlich auch gar nicht...
Mal als kleine Gedankenstütze:
Athlon XP 2500+, 2800+ und 3000+ im Test: Der neue Kern (Seite 23) - ComputerBase
700€ Ladenpreis für nen XP-3000+ Athlon :wink: um mal ein Beispiel zu nennen. Sogar nen 10er teurer als das 3,06GHz P4 Ding mit HT!
Deswegen meinte ich ja, 1000€ ganz oben lassen die Preise drunter günstiger in den Köpfen erscheinen ;)

Gekauft hat da halt keiner, eher nen 2500+ respektive die P4 Mittelklasse...
Der Markt war meines Erachtens nach damals noch viel Wechselhafter, einfach weil die Technik viel schneller alterte. Bei 1-2C only ist das halt natur der Sache, wenn man Leistung primär durch Takt, später auch durch IPC + Takt + Leistungsaufnahme erkauft. Kann natürlich auch sein, dass deswegen der Eindruck eines Preiskampfes entsteht, der heute ja mehr oder weniger fehlt bzw. von 2011 bis 17 ganz fehlte...
Heute gehts über Cores. Nutzt halt nur dem was, der die Software mitbringt. Und das krankt leider wirklich massiv im Mainstream, weswegen diese Mainstreamer auch auf ihren immer gleich breiten CPUs sitzen blieben und noch bleiben werden, auch wenn gern hier was anderes behauptet wird. Ist halt realitätsfern bei derart hohem Mobile Anteil von massivem Multithreading-Durchbruch auszugehen obwohl da gerade mal 4T bis in eher wenigen Fällen 8T CPUs genutzt werden -> und es bis heute gerade mal ne Ankündigung auf 12T gibt, aber keinerlei Produkte :fresse:
 
Jo, damals war es glücklicherweise so. Aber wenn ich R9 290 vs. GTX970 bzw. Vega vs. Pascal sehe... da kann ich nichts von einem besseren P/L Verhältnis erkennen.

Ersteinmal war der Kontrahent der R9 290 die GTX780, welche mittlwerweile ja regelrecht zersägt wird.
Aber gut, auch die R9 390 ist ja nun teilweise bis zu 50-80% schneller, da nunmal 8GB VRAM mehr sind als 3,5GB. Wer hätte das nur gedacht.
Call of Duty: WWII im Benchmark (Seite 2) - ComputerBase
Wolfenstein 2 im ersten Technik-Test: Shooterfest mit Vega-Stärke, Vulkan only! [Update mit GTX 1070 Ti]

Und zu Vega. Tja das Ding ist noch so Beta, dass einige Features noch garnicht aktiv sind. Dazu der HBCC, welcher wieder mehr VRAM bietet. Aber wer braucht schon mehr VRAM und tolle Features, welche die Langlebigkeit erhöhen. Ist ja nicht so, dass man die Grafikkarten immer länger nutzen könnte. "Fun Fact": Die 7970 mit 6GB überholt in Wolfenstein die GTX980 da dieser die 4GB VRAM ausgehen. Nicht irgendwo in der Unspielbarkeit, sondern bei 63 fps!

Sicherlich ein extremes Beispiel, da mehere Generationen dawischen liegen, aber abgesehen von der Fury mit HBM1 gabs immer mehr VRAM oder mehr Leistung bei gleichem Preispunkt bei AMD.

Ach ja und dann wäre noch die Geschichte mit Freesync und Gsync. Kostet ja auch 250€ mehr auf der Monitorseite.

Also ja, das P/L-Verhältnis bei AMD ist echt furchtbar... :fresse2:
 
Zuletzt bearbeitet:
Nicht einmal Autodesk selbst sieht 3ds max und Maya als CAD-Software.
Wenn der Hersteller spezifische"re" Software für den gezielten Einsatz vorsieht und entwickelt, wäre er schön blöd, wenn er diese nicht entsprechend bewirbt.

Dennoch drehst du dich an dieser Stelle - auf verlorenem Posten - im Kreis.

CAD ist CAD und wird entsprechend definiert. Da kannst du dich meinetwegen auf die Nase stellen. Software für Computer-Aided Design wird nicht von dir definiert, sondern der Allgemeinheit.
 
CAD ist CAD und wird entsprechend definiert. Da kannst du dich meinetwegen auf die Nase stellen. Software für Computer-Aided Design wird nicht von dir definiert, sondern der Allgemeinheit.

Stimmt.
Aber auch nicht von DIR.
Mit deiner Meinung, das 3DS max und Maya CAD-Software ist, stehst du alleine da.
Die Allgemeinheit sieht das nicht als CAD-Software!
Wikipedia Deutsch CAD-Software:
Liste von CAD-Programmen – Wikipedia
Wikipedia Englisch CAD-Software:
Comparison of computer-aided design editors - Wikipedia

Auch in allen anderen Quellen finde ich 3DS max und Maya und ähnliche Software nicht.
Denn es ist schlicht KEIN CAD!
 
Dann ist Paint/Paintbrush aus Windows seit 1.0 halt auch CAD, Wordpad und vor allem nicht zu vergessen auch Notepad auch, weil ich kann ja Computer unterstützt "designen" :wall: Lass ihn doch seine Denke, er wird sowieso nicht von abrücken. Die ganze Diskussion ist so sinnfrei, er wird NIEMALS NIE solche Software nutzen, maßt sich aber an zu definieren was wo dazu gehört und was nicht.
Ist halt wie immer. An irgend nem Nebenkriegsplatz aufhängen, weil man keine Argumente hat...

Ursprünglich gings ja mal um die Coreskalierung dieser Art von Software und nicht um das, was CAD ist oder nicht. Wäre er selbst in der Position, entsprechende Hardware einzukaufen um diese Art von Software zu betreiben, wäre da für ihn auch ein Unterschied, einfach weil es völlig andere Dimensionen sind... -> wie bei jedem der solche Software nutzt eben auch. Wenn ich die CAD Zeichner hier im Haus nach ner 3D Animation frage, schauen die mich an wie Schwein ins Uhrwerk. Rendern haben die ggf. mal gehört, aber das wars auch schon. Die malen damit stupide 2D Stuff in Grundrisspläne für Elektroinstallationen ein und "bauen" Verteilungen oder besser, Schemen von diesen Verteilungen damit. 2D only, kein Rendern, kein Rechnen, nix...

Sein einziges Argument der Notwendigkeit von HighCore CPUs für 3D Design-Tools ist weiterhin das Rendern, dummerweise stand "Rendern" nie zur Debatte... Soll sich halt jeder selbst ein Urteil drüber bilden, ob er mit seiner CAD Software rendert oder vllt doch eher was anderes tut. Tzk da oben hat ja schonmal durchblicken lassen, wie viel Anteil das bei ihm in etwa ausmacht.
Es wäre so einfach, wenn man sich eingestehen würde, dass das gebrachte Beispiel eben primär den Bereich der 3D-Visualisierung und -Animationsprogramme abdeckt und damit völlig unpassend ist.
 
"Die Liste von CAD-Programmen weist einige CAD-Programme..."

:lol:

Die Liste ist allgemein gültig und abschließend. :d


Auch in allen anderen Quellen finde ich 3DS max und Maya und ähnliche Software nicht.
Denn es ist schlicht KEIN CAD!
Genau. Weil du nirgends irgendwas Geschriebenes findest, wo steht "3ds max = CAD", ist es für dich kein CAD. :d

Schon doof, dass in der grabCAD-Datenbank zig Modelle, Zeichnungen & Designs zu finden sind, die man aber mal locker unter klassischem CAD subsumieren kann:
https://grabcad.com/library/software/autodesk-3ds-max

Also nur weil DU 3ds max nicht als klassisches CAD betrachtest, heißt das noch lange nicht, dass es kein CAD-Programm ist.
 
"warm anziehen"? Intel hat doch nur im HPC und Workstationsegment jetzt Konkurrenz und die nutzen keine i3!
 
Athlon XP/A64 und Preiskampf in einem Absatz!? Habt ihr damals geschlafen???

Mit der Ankündigung des A64 hat Intel den ersten P4 EE, als hals über Kopf umgebauten Xeon Gallatin DIE gebracht und AMD nen Athlon 64 FX. Das waren die ersten 1000€ Consumer CPUs. Sowas gabs VORHER in der Form überhaupt nicht, dass die Hersteller in der 1000€ Preisklasse ein eigenes Produkt so wie damals platzierten...
Preiskampf :stupid: Aber klar, ggü. den 1000€ Top Modellen sah das was drunter war natürlich alles "günstig" und nach Preiskampf aus :banana:
Gab ja schließlich fast 1000€ Performance für deutlich weniger Geld. Und mit OC konnte man das sogar noch verbessern... Na huch? Das hört man ja heute immernoch!?

Schon interessant wie sehr die Vergangenheit doch verschwimmt in den Köpfen der späteren Gen... Lang Lang ists her. Und auch, wie gut das Prinzip immernoch fruchtet...

Ja, du hast was verpasst. Abseits vom FX waren die meisten Athlon 64 extrem günstig zu bekommen. Günstiger, als ein Pentium 4. Und dabei in fast allen Spielen und Anwendungen schneller.

Kannst ja selbst die Preislisten durchgehen.

Downloads
 
Bei Minute 15.28 eine sehr interessante aussage: „Intel Z390 chipset due in H2 2018, presumably alone with 8 core Coffee Lake CPU“

Leo Says Ep4: - Intel screw the pooch! - YouTube

Wenn das wirklich zutreffen sollte ( Minute 8.21 ) , kann Intel sich sehr warm anziehen, egal was sie bringen. Das Bild im Hintergrund muss ein absolutes Fake sein. Spätestens am 16.01. werden wir sehen ob was dran ist, dann soll man ja vorbestellen können und so lange dauert es ja nicht mehr. Nächstes Jahr wird sehr interessant und teuer. Vor allem, da noch gar keine Leaks von den neuen AMD Prozessoren im Umlauf sind, die nur halbwegs realistisch sind. Ich glaube diese Sachen erst, wenn die ersten verlässlichen Reviews und Benchmarks erscheinen.

Hier mal die Ryzen Diskussion darüber:
Ryzen 2 slide in KitGuruTech video - AnandTech Forums
 
Das Probelm ist das Ryzen die einzig wirklich brauchbare Alternative für Gamer seit spätestens 2011 von AMD ist. Leute die die A64 oder sogar JIHUB Ära nicht miterlebt haben tuen sich schwer nen AMD zu kaufen, zumal Intel wenns ums absolute Gaming Performance z.Z. geht nicht zu schlagen ist.

Für mich persönlcih als 5820K Nutzer ist AMD nur aus Bastelneugier weil für das gelieferte relativ preiswert interessant. Ich bin gespannt ob Zen+ wirklich ein Winchester 2.0 wird oder nur ganz gut für den Preis.

O.T. Da werden wieder Erinnerungen wach P3 700 vom Kumpel nach 8 Wochen Ferienjob in München gegen meinen Athlon 800 Slot A im OC Battle XD wird mal wieder Zeit für solche Verhältnisse.
 
Zuletzt bearbeitet:
Parasolid - Wikipedia
recht informativ und ja bin auch Konstrukteur alle Tools mit dieser Technologie setzen hauptsächlich auf IPC-Leistung
erst wenn FEM oder Renderdingensbums Snapshot der wie es in NX heiẞt läuft kommen auch mehr Kerne ins Spiel.
Catia hatte ich im L&R Studium in Aachen müsst mal schauen ob die Modellierung noch auf CG-Engine setzt also gibt unterschiede
Modellierkern – Wikipedia
Bei RUAG Ammotec hatten wir z.B was ganz spezielles zur Entwicklung von Projektilen was super auf damaligen 5860er 8-Kerner lief, aber musst vergessen auch wie das Tool hieß laut meinem Aufhebungsvertrags damals
Es ist aber immer wieder lustig wie man sich über sowas streiten kann, es fehlt Rechenpower sei es IPC oder Kernmäßig, und es wird immer so sein haha
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh