Altlasten beseitigen: Intel will hin zum 64-Bit-only-Mode

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es gäbe ja immer noch die Möglichkeit einer reinen Emulation
Wenn diese transparent wäre, könnte man auch mit einer Emulation leben, die alten Programme die mal für 8, 16 und teils auch 32 Bit geschrieben wurden, liefen damals ja auch viel langsameren CPUs und von daher sollte die Performance da weniger kritisch sein. Wichtig ist aber eben, dass die alte Software weiterhin läuft und wenn nicht, wird es so manche Überraschungen geben, wenn Leute feststellen wo noch überall so ein alter Programmcode verwendet wird, ohne dass sich vorher jemand dessen bewusst war! Wenn dann eine Neuprogrammierung nötig wird, würde man sicher auch über einen Umstieg auf eine andere CPU Architektur nachdenken und dies kann Intel nicht wollen.

Aber wenn eine neue Prozessorarchitektur dafür wirklich um so 40-80% schneller wäre
Wie sollte die Architektur durch den Endfall der Kompatibilität so viel schneller werden? Die Kerne werden etwas kleiner, wobei dies durch die Integration einer Emulation auch wieder zunichte gemacht werden könnte.
 
Wie sollte die Architektur durch den Endfall der Kompatibilität so viel schneller werden? Die Kerne werden etwas kleiner, wobei dies durch die Integration einer Emulation auch wieder zunichte gemacht werden könnte.

Natürlich wird die Architektur deshalb nicht nennenswert schneller, und deswegen finde ich es auch unsinnig sie 8 / 16 Bit Kompatibelität ganz abzuschaffen und die 32 Bit Kompatibelität einzuschränken.

Erst wenn ohnehin ein Technologiesprung geplant wäre wie zuletzt bei der Einführung von Pentium Pro, Pentium IV oder Itanium würde ich es okay finden die Kompatibelität zu opfern.
 
Erst wenn ohnehin ein Technologiesprung geplant wäre wie zuletzt bei der Einführung von Pentium Pro, Pentium IV oder Itanium würde ich es okay finden die Kompatibelität zu opfern.
merkste was? keiner davon hat sich durchgesetzt. ;)
2003 kam der athlon64 raus, 2025 gibt es noch immer 32-bit anwendungen. abwärtskompatiblität ist extrem wichtig. nicht jede computerverwenung ist gaming. es gibt fertigungsstraßen für milliarden, die nicht mal eben so verschrottet und neu entwickelt werden, weil microsoft grad ein neues windows rausgebracht hat. in der industrie findet man selbst heute noch vereinzelt win-NT im einsatz. die geldautomatensysteme der banken haben vor noch gar nicht so langer zeit auf win-XP-basis gearbeitet. never change a running system ;)
 
Zuletzt bearbeitet:
Joa, letztens irgendwo gesehen, dass remote auf ein Win-XP zugegriffen wurde, kreative Lösung, wsl. gar nicht so blöd.
 
Erst wenn ohnehin ein Technologiesprung geplant wäre wie zuletzt bei der Einführung von Pentium Pro, Pentium IV oder Itanium würde ich es okay finden die Kompatibelität zu opfern.
Was hat das Eine mit dem anderen zu tun? Wenn man die Kompatibilität opfert, kann Mehrperformance durch einen Technologiesprung die Nachteile dadurch für diejenigen die sie brauchen, auch nicht kompensieren. Wenn deren Anwendungen dann nicht mehr laufen, müssen sie auf eine andere Architektur wechseln und dies bedeutet, dann auch die Software neu zu schreiben, was sehr aufwendig ist, also teuer und trotz aller Tests immer mit einem Risiko verbunden. Itanium hat sich deshalb ja auch nicht wirklich durchgesetzt, weil AMD eben die bessere Lösung zum Wechsel auf 64 Bit hatte und die hat sich durchgesetzt, so sehr das auch Intel sie dann übernommen hat. Wenn aber Intel und AMD irgendwann die Kompatibilität rauswerfen, dann könnte die Antwort auf welche Architektur gewechselt wird, auch eine andere als x86 sein.

Dann ist immer noch die Frage wer überhaupt betroffen ist, denn heute läuft alles problemlos und so wie vor dem Jahr 2000 keiner genau wusste was alles Probleme machen könnte, kann heute auch keiner sagen wo überall noch alter Code drin steckt der betroffen wäre.
 
Erst wenn ohnehin ein Technologiesprung geplant wäre wie zuletzt bei der Einführung von Pentium Pro, Pentium IV oder Itanium würde ich es okay finden die Kompatibelität zu opfern.
Was für ein Technologiesprung?
Pentium Pro war nichts weiter als ein höher getakter Pentium, der zu einem Premium Preis verkauft wurde. Daraus ging später der Xeon und im Geiste die EE hervor.
Pentium IV mit ihrer Netburst Architektur, war der Vorläufer für die Intel 14th Gen aka die Brechstange. Diese Brechstange brachte aber eine Menge Nachteile mit sich.
Itanium war nicht wirklich neu. Nur die ISA war statt CISC mit 16/32/64bit, war es VLIW mit nur 64bit. Was ebenfall viele Nachteile mit sich brachte.
 
Nö, der Pentium Pro hat eine völlig andere Architektur als der Pentium.
Der Pentium ist ein CISC-Prozessor, der Pentium Pro dagegen ein Hybrid aus CISC- und RISC-Prozessor.
Pentium II, III, M und Core sind eine Weiterentwicklung des Pentium Pro und nicht des Pentium!
Es gab für den Pentium Pro auch einen Overdrive-Prozessor. Das war im Grunde ein Pentium II, dessen L2-Cache aber mit vollem Prozessortakt lief anstatt wie beim normalen Pentium 2 mit halbem Prozessortakt.

Weglassen der Altlasten macht den DIE kleiner und den Prozessor auch sparsamer..
 
merkste was? keiner davon hat sich durchgesetzt. ;)
Gefloppt ist nur der Itanium.

Der Pentium 4 oder als Doppelkernvariante Pentium D hat schon lange Zeit den Markt bestimmt, bevor er von den vom Pentium III abstammenden Core Prozessoren verdrängt wurde.

Und der Pentium Pro hatte zwar als Pentium Pro ein Schattendasein in einigen Workstations, wurde dann aber als Pentium II und III richtig erfolgreich. Sogar die heutigen Core i und Core Ultra Prozessoren basieren noch darauf.

Pentium II, III, M und Core sind eine Weiterentwicklung des Pentium Pro und nicht des Pentium!
Eben.

Weglassen der Altlasten macht den DIE kleiner und den Prozessor auch sparsamer..
Aber nicht viel und kaum der Rede wert.

Entscheidend für die Diegrösse sind vorallem der Fertigungsprozess, bei dem Multi-Tile CPUs vorallem der Fertigungsprozess es I/O-Tiles. Sowie die Grössee des 2nd and 3rd-Level Cache.

Und für den Stromverbrauch vorallem die Taktung. Da habe wir z.B. einmal beim Core i9-14900KS stolze 150W TDP / 253W Peak aber beim Core i9-14900T nur 35W TDP / 106W Peak bei identischer Core-Zahl, identischer iGPU und identischen Cachegrössen nur durch die unterschiedliche Taktung. Das macht den Unterschied.

Auch wenn ma durch die Altlasten vielleicht so 2W bei den T-Modelle und 6W bei den KS-Modellen einsparen könnte, wären das einfach irrelevante Peanuts.
 
Noch etwas vergessen:
Wenn man Sachen weglässt, dann sinkt auch der Aufwand bei der Fertigung etwas und der Ausschuß ist auch tendenziell kleiner, da das, was weggelassen wird, wenn es nicht weggelassen wird, auch funktionieren muß.
Habe ich 100.000 Transistoren, müssen auch 100.000 Transistoren funktionieren, habe ich nur 90.000, müssen auch nur 90.000 funktionieren.
Dadurch sinken dann auch die Produktionskosten etwas.
Und je nachdem, wie der Hersteller den Prozessor designt hat, ist das auch mehr.
Bei AMD ist bekannt, das die 64 bit Register auch bei 32 Bit genutzt werden. Die Bits 33-64 werden bei 32 Bit einfach mit 0 aufgefüllt.
Aber denkbar wäre auch, das ein Prozessor getrennte 32-bit und 64 bit-Register hat.
Bei älteren Prozessoren gabs so etwas durchaus, das die z.B. 8 bit und 16 bit Register haben anstatt für 8 bit die 16 bit Register zu nutzen.
 
Was hat das Eine mit dem anderen zu tun? Wenn man die Kompatibilität opfert, kann Mehrperformance durch einen Technologiesprung die Nachteile dadurch für diejenigen die sie brauchen, auch nicht kompensieren.
Das aktuelle Windows kann bereits keine Win32 Programme mehr out-of-the-box ausführen. Für Win16 oder Win32s Programme braucht man definitiv einen Emulator. Microsoft hat aus den Entwicklerwerkzeugen bereits 1996 den Support für die Win32s API rausgeworfen. Wir sprechen also über Programme die annährend 30 Jahre alt sind.

Intel will nun den Support für 16Bit rauswerfen, d.h. Win16 und Win32s gehen dann nicht mehr auf der Hardware ohne Emulator. Win32 Programme oder 32Bit virtualisierte OS kannst Du weiterhin direkt ausführen. D.h. fast alles aus den letzten 30 Jahren läuft noch ohne Emulator. Und für den wirklich alten Krempeln gibt es funktionierende Emulatoren.
 
Microsoft hat aus den Entwicklerwerkzeugen bereits 1996 den Support für die Win32s API rausgeworfen.
Möglich, aber man kann immer noch dafür entwickeln:
Win32s ist außerdem nur die API für Microsoft Windows 3.1 und 3.11 und deren Unterstützung auf den Entwicklerwerkzeugen zu entfernen, bedeutet ja nicht, dass man die Anwendungen die diese nutzen, nicht mehr laufen. Das Problem mit den Emulatoren ist dann aber oft, dass man bestimmte HW Zugriffe nicht mehr machen kann. Klar wäre der beste Weg die alten Anwendungen und APIs neu zu schreiben, aber dies kostet viel Geld, ohne einen direkten Vorteil zu bieten und wird daher nicht gemacht, solange es irgendwie vermeidbar ist.

Man sollte übrigens auch nicht vergessen, dass es neben den PCs auch den Embedded Markt gibt und dort dürfte das Problem viel größer sein.
 
Dann muß der Embedded-Markt eben zu entsprechender Hardware greifen.
Beispielsweise wurde der AMD Am5x86 (ein 486er!) bis vor wenigen Jahren noch für den Embedded-Markt produziert.
Und der kam 1995 auf den Markt!
Für den Embedded-Bereich produzieren Intel und AMD noch uralte Prozessoren.
Daher muß man bei neuen Prozessoren auf alte Embedded-Software keine Rücksicht nehmen.
Zudem sehr alte Embedded-Software auf modernen Prozessoren eh nicht mehr läuft, weil sie wegen der hohen Geschwindigkeit der modernen Prozessoren in Timingprobleme läuft und schlicht nicht mehr startet oder reproduzierbar abstürzt.
 
Man sollte übrigens auch nicht vergessen, dass es neben den PCs auch den Embedded Markt gibt und dort dürfte das Problem viel größer sein.
Ich glaube, das muss man differenzierter betrachten. Vorallem im Embeddedbereich.

Dort läuft alte Software auf alter Hardware und neue Software auf neuer Hardware. Da ist Software und Hardware quasi sowieo verdongelt. Wenn eine alte Hardware stirbt, kannst du sowieso nicht die gleiche Software auf neuer Hardware laufen lassen. Du brauchst dann eine Ersatzhardware, die ebenso alt ist. Die gibts ja vorallem im Embeddedbereich auch ewig und diese "Altgeräte" verschwinden ja nicht, nur weil es neue neue Hardware gibt. Die Hersteller solcher Hardware haben teilweise Ersatzteilverfügbarkeitsgarantie/verpflichtung bis 30 Jahre. Zumindest sind mir da 30 Jahre ein durchaus geläufiger Zeitraum. Und richtig, Zeug das auf Hardware aus den 90ern aufbaut, läuft da jetzt aktuell auch gerade massig aus. Heisst diese Geräte werden sowieso getauscht, Hardware wie Software, spätestens dann wenn sie mal kaputt gehen.

In den letzten 15 Jahren hatte ich auch keine einzige Embeddedhardware in der Hand oder auch nur davon gehört, die überhaupt auf x86/amd64 setzt. Der ganze Bereich dürfte also eigentlich schon lange nichtmehr von irgendwas betroffen sein, was Intel oder AMD jetzt auf x86/amd64 treibt. Der ist ziemlich fest in der Hand von ARM-CPUs. Ausnahmen bestätigen wie immer die Regel. ;)
 
Nö, der Pentium Pro hat eine völlig andere Architektur als der Pentium.
Der Pentium ist ein CISC-Prozessor, der Pentium Pro dagegen ein Hybrid aus CISC- und RISC-Prozessor.
Pentium II, III, M und Core sind eine Weiterentwicklung des Pentium Pro und nicht des Pentium!
Es gab für den Pentium Pro auch einen Overdrive-Prozessor. Das war im Grunde ein Pentium II, dessen L2-Cache aber mit vollem Prozessortakt lief anstatt wie beim normalen Pentium 2 mit halbem Prozessortakt.
Ahm.... nö. Denn schon seit i286/i386 ist CISC im Bereich x86 schon ein Hybrid aus CISC und RISC (ist heute immer noch so. Übrigens RISC CPU (ARM, RISC-V) sind RISC/CISC Hybriden). Bei Pro wurden jetzt nur einige Teile des Instruction Sets komplett zu RISC. Neu waren auch Out-of-Order Excutions und die Speculative Execution. Die später noch allen auf die Füsse fallen sollten.

Nein, siehe oben

Auch nicht ganz richtig. Beim PII, hast du recht. Beim PIII nicht mehr ganz so. Der M basiert zwar auf einem PIII, dieser wurde extrem modifiziert und auf Energieeffizienz getrimmt. Und hatte kaum noch was mit dem eigentlichen P Pro zu tun. Das gleich gilt für die Core CPUs, die sich auch noch mal deutlich von dem M unterschieden. Klar sie haben einige Teile/Designideen und Instructions mit genommen. Vieles wurde auch aus gutem Grund weg gelassen. Und mit heutigem Wissen, sogar noch mehr.

Die gab es schon seit i486, nicht nur für P Pro.

Weglassen der Altlasten macht den DIE kleiner und den Prozessor auch sparsamer..
Wirklich? Wenn es wirklich so einfach, warum wurde es dann noch nicht gemacht? Weil in der Realität, es keine bzw. nur minimalste Effekte hat. Weder im Bereich eingesparte Fläche auf dem CPU Die und auch nicht bei der Energieeffizienz. Es wird mehr bringen die Transistoren zu verkleinern, was ebenfalls Limits hat. Es wird mehr bringen die CPU Die größer zu machen, was ebenfalls Limits hat.

Dieses Thema mit dem Altlasten entfernen tauch seit Jahrzehnten immer wieder auf und verschwindet ganz schnell wieder. Weil das entfernen mehr Probleme verursacht als das es Vorteile bringt.
 
Das aktuelle Windows kann bereits keine Win32 Programme mehr out-of-the-box ausführen. Für Win16 oder Win32s Programme braucht man definitiv einen Emulator. Microsoft hat aus den Entwicklerwerkzeugen bereits 1996 den Support für die Win32s API rausgeworfen. Wir sprechen also über Programme die annährend 30 Jahre alt sind.

Intel will nun den Support für 16Bit rauswerfen, d.h. Win16 und Win32s gehen dann nicht mehr auf der Hardware ohne Emulator. Win32 Programme oder 32Bit virtualisierte OS kannst Du weiterhin direkt ausführen. D.h. fast alles aus den letzten 30 Jahren läuft noch ohne Emulator. Und für den wirklich alten Krempeln gibt es funktionierende Emulatoren.
Die 64 Bit Versionen von Windows XP / Vista / 7 / 8 / 8.1 / 10 sowie Windows 11 das es eh nur als 64 Bit Version gibt, kann sowohl 64 Bit Software als auch 32 Bit Software nativ ausführen, jedoch keine 16 Bit Software für Windows 3.1 / 3.11 und keine MS-DOS Programme mehr. Sondern nur noch über Emulator.

Die 32 Bit Versionen können aber bis Windows 10 auch 16 Bit Software für Windows 3.1 / 3.11 und ebenso MS-DOS Programme nativ ohne Emulator ausführen.

Zwar ist die 32 Bit Version von Windows 10 schon am 30.9.2024 aus dem Support gefallen, und untersützt nur ca. 3,6 GB RAM (den Rest kann man aber als RAMDrive verwenden), aber im Prinzip kann man damit noch immer ganz passabel arbeiten.
 
Gefloppt ist nur der Itanium.

Der Pentium 4 oder als Doppelkernvariante Pentium D hat schon lange Zeit den Markt bestimmt, bevor er von den vom Pentium III abstammenden Core Prozessoren verdrängt wurde.
mit anderen worten: netburst ist gefloppt. die architektur taugte nichts und war eine sackgasse.
 
mit anderen worten: netburst ist gefloppt. die architektur taugte nichts und war eine sackgasse.
Die Netburst-Architektur hatte zwar einige Nachteile, das vorallem die FPU Leistung nicht so optimal war und wegen dem Takt die TDP relativ hoch war. Trotzdem war sie aber Jahre lang die führende Architektur.

Und für viele Casuals war der Pentium D zugleich auch der letzte Desktop den sie besessen haben, z.B. Pentium 60 -> Pentium 223 MMX -> Pentium III 450 -> Pentium 4 1300 -> Pentium D 805

Das erste Notebook war dann vielleicht ein Core Duo T2050 mit GeForce Go 7400 was dann aber den Pentium D 805 nur ergänzen aber nicht ersetzen konnte. Erst das zweite Noteboob mit einem Core 2 Quad Q9000 und GeForce 9400M hat dann den Desktop in die Rente geschickt.

Und heute besitzt man ein 2021er Gigabyte Windows Notebook mit Core i5-10500H und GeForce RTX 3050 und ein 2020er Apple MacBook Air mit Core i3-1000NG4 und Iris Plus iGPU.
 
hat dann den Desktop in die Rente geschickt.
Deinen Desktop vielleicht, aber die Desktops leben immer noch und werden uns auch noch lange erhalten bleiben!
Und heute besitzt man ein 2021er Gigabyte Windows Notebook mit Core i5-10500H und GeForce RTX 3050 und ein 2020er Apple MacBook Air mit Core i3-1000NG4 und Iris Plus iGPU.
Du vielleicht, ich nicht und die meisten anderen auch nicht. Aber das es jenseits deines Bauchnabels noch eine groß, dir offenbar unbekannte Welt gibt, der Gedanke scheint dir nie gekommen zu sein.
 
Natürlich gibt es noch Desktops, das sehe ich hier ja täglich. Allerdings haben sie schon sehr an Bedeutung verloren und sind irgendwie "Special Interesst" geworden.

Ich fined jetzt auf die Schnelle keine offizielle Statistik, und ich bin mir nichtmal sicher ob es überhaupt eine gibt. Aber in meinem Umfeld sieht es zur Verbreitung von x86 Geräten eher so aus:

besitzen mindestens ein beliebiges x86 Gerät: ca. 85%

besitzen mindestens ein x86 Notebook: ca. 70%
besitzen eine x86 Spielekonsole: ca. 15%
besitzen einen x86 Desktop: ca. 15%

Und umgekehrt gibt es eben in meinem Umfeld auch jetzt schon ca. 15% die garkein einziges x86 Gerät mehr besitzt sondern nur noch: MacBook und/oder Mac mini und/oder Windows ARM Notebook + SmartTV(s) + Smartphone(s) + ggf. Tablet + ggf. Nintendo Switch und das sind ja Alles Geräte die ganz ohne x86 auskommen.
 
Also bei uns in der Firma haben alle eine Desktop und nur Leute die reisen müssen, ein Notebook mit einer Dockingstation, damit sie im Büro damit wie an einem Desktop arbeiten können, alles x86 und so kenne ich dies auch von anderen Firmen. Vereinzelt gibt es auch mal für Leute die nur Office Anwendungen brauchen und in entsprechend höheren Positionen sind, auch mal ein Apple Notebook, aber die meisten wollen dies, weil der IT Support das Windows total überwacht, laufend für alle die Updates aller möglichen SW einspielt und die Kisten dann dauernd beschäftigt sind und zwangsweise rebootet werden. Apple User entkommen dem und ebenso die Linux Nutzer, die immer mehr werden, aber nicht jeder kann auf Windows verzichte, da es nicht von jeder SW die benötigt wird, auch eine Linux oder Apple Alternative gibt.
 
Die Netburst-Architektur hatte zwar einige Nachteile, das vorallem die FPU Leistung nicht so optimal war und wegen dem Takt die TDP relativ hoch war. Trotzdem war sie aber Jahre lang die führende Architektur.
manche können sich auch den letzten Schrott schönreden. einige nachteile? leistung nicht ganz so optimal? damit bist du ganz klar anwärter auf den titel "untertreibung des jahrhunderts"
und führende architektur? wie kommst du denn auf das schmale brett? die führende architektur zu der zeit war zuerst athlon XP, später dann athlon 64 und zum schluss athlon X2 bis intel netburst endlich in die tonne getreten hat und mit core2 wieder in führung gegangen ist. selbst im hause intel war netburst nie die führende architektur; tualatin-s, centrino/core waren netburst zu jeder zeit und in jeder disziplin haushoch überlegen bis auf hohe taktraten. das war das einizige was netburst gut konnte. resultierte nur halt nicht in brauchbarer rechenleistung sondern in massiver abwärme.
 
und führende architektur? wie kommst du denn auf das schmale brett? die führende architektur zu der zeit war zuerst athlon XP, später dann athlon 64 und zum schluss athlon X2 bis intel netburst endlich in die tonne getreten hat und mit core2 wieder in führung gegangen ist. selbst im hause intel war netburst nie die führende architektur; tualatin-s, centrino/core waren netburst zu jeder zeit und in jeder disziplin haushoch überlegen bis auf hohe taktraten. das war das einizige was netburst gut konnte. resultierte nur halt nicht in brauchbarer rechenleistung sondern in massiver abwärme.

Ich selbst hab noch nie ein System mit AMD Prozesossor besessen, hab allerdings schon mal vor Jahren drann gedacht mir ein System mit AMD FX-6100 zu bauen wenn ich mich richtig erinnere. Und jetzt in letzter Zeit hab ich mal daran gedacht mir ein System mit AMD Ryzen 7 8700F oder 8700G zu bauen aus Interesse an der Technik.

Soweit ich mich erinnere war der Tualatin prinzipiell für seine Zeit ein guter Prozessor aber ziemlich bedeutungslos und wurde fast nur für Workstations und Server verwendet, weil er relativ teuer und dann auch noch spezielle Mainboards mit speziellen Chipsätzen brauchte. Auch wenn er wie Coppermine Sockel 370 hatte konnte man die meisten Mainboards nicht verwenden.

Pentium M mit oder ohne Centrino Chipsatz war sehr leistungsschwach, viel schwächer als die Mobilversionen von Pentium III und 4. Sondern war vorallem für sehr kleine und energiesparende Subnotebooks.

Core Duo und Core 2 Duo / Quad waren wirklich besser, aber die kamen eben erst Jahre später.

Also bei uns in der Firma haben alle eine Desktop und nur Leute die reisen müssen, ein Notebook mit einer Dockingstation, damit sie im Büro damit wie an einem Desktop arbeiten können, alles x86 und so kenne ich dies auch von anderen Firmen. Vereinzelt gibt es auch mal für Leute die nur Office Anwendungen brauchen und in entsprechend höheren Positionen sind, auch mal ein Apple Notebook, aber die meisten wollen dies, weil der IT Support das Windows total überwacht, laufend für alle die Updates aller möglichen SW einspielt und die Kisten dann dauernd beschäftigt sind und zwangsweise rebootet werden. Apple User entkommen dem und ebenso die Linux Nutzer, die immer mehr werden, aber nicht jeder kann auf Windows verzichte, da es nicht von jeder SW die benötigt wird, auch eine Linux oder Apple Alternative gibt.
Es gibt ja genug billige Office-Businessnotebooks mit 16.1" bis 18.5" Display und Prozessor irgendwas zwischen Core i3-1315U und Core i7-1360P und iGPU.
 
Es werden doch nicht irgendwelche Billig-Notebooks genommen, sondern nur solche von Lenovo (früher war es mal Dell) und die haben 3 Jahre vor Ort Garantie, wie dies in größeren Unternehmen halt üblich ist und danach werden die Rechner getauscht.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh