Altlasten beseitigen: Intel will hin zum 64-Bit-only-Mode

Per se sind doch alle 8bit,16bit,24bit,32bit etc. Anwendungen auf 64bit Hardware emulierbar. Der klassische Windowsemulator geht aber nicht bis Windows 1.0 zurück soweit ich weiß, mittlerweile ist aber auch eine VM Sandbox möglich bei Microsoft Windows, falls Windows Defender die Retro Anwendung deiner Wahl für einen Trojanar hält :fresse:.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Per se sind doch alle 8bit,16bit,24bit,32bit etc. Anwendungen auf 64bit Hardware emulierbar. Der klassische Windowsemulator geht aber nicht bis Windows 1.0 zurück soweit ich weiß, mittlerweile ist aber auch eine VM Sandbox möglich bei Microsoft Windows, falls Windows Defender die Retro Anwendung deiner Wahl für einen Trojanar hält :fresse:.
Emulieren kann man alles!
Apple macht das schon ewig und fährt sehr gut damit. Mit Rosetta hat man einen CPU Emulator womit man Intel/x86/x64 Programme unter einer ARM CPU laufen lassen kann. Dabei integriert sich Rosetta so tief in das System, dass nur die CPU Emuliert wird und dabei die Software nativ auf das System zugreifen kann.

Leider sind alle Versuche ein funktionierendes Windows auf ARM zu präsentieren, gescheitert. MS hat immer nur eine langsame CPU Emulation präsentiert und x86/x64 Software läuft einfach nur langsam auf ARM.
Native Windowsprogramme für ARM gibt es fast keine. Leider alles eine tote Ente!
 
Hm, ich dachte das sich bei Windows on ARM einiges getan hat; native Software gibt es durchaus, auch wenn die Auswahl sicher noch begrenzt ist. Wie sich die Hardware letztlich entwickelt bleibt abzuwarten; hier mal ein Beitrag, der versucht, etwas Licht ins dunkel zu bringen...

EDIT: Hier steht auch noch was dazu...
 
Zuletzt bearbeitet:
8Bit -> Dosbox
16Bit -> Dosbox
32Bit-> 64Bit Windows nativ, der 32Bit Modus wird NIE abgeschaltet.

Windows 1.0 läuft auch im Browser: https://copy.sh/v86/?profile=windows1
:giggle:

Der ganze Fred ist Sinnbefreit.
Ne ne, ohne Dosbox.
Emulation zwar ist gut hat aber auch erhebliche Nachteile. Gerade bei alter Software. Und gerade diese Abwärtskompatibilität, ist ja eine, wenn nicht so gar die, große Stärke des x86.
Ich habe Windows 1.0 in einer VM. Auch 2.0 und 3.0. :sneaky:
Ich wunder mich warum es nicht so eine Challenge wie bei Doom, mit Win1.0 gibt. Wahrscheinlich ist Doom einfach cooler.

---

Windows on ARM ist nun wahrlich nichts neues. Das gab es schon mal, nannte sich nur Nokia Lumia. Hat MS nur eingestellt weil sie an einem bestimmten Punkt nur 3% Marktanteil hatten. Und haben damit einer Menge Firmen und Geschäftsleuten, eins vor den Kopf gestoßen (um es mal freundlich zu formulieren). Ob das heutige Win on ARM ein Erfolg wird ist fraglich. Zum einen wegen der Lumia Geschichte zum anderen ist auf ARM, Android und iOS die Dominanten Systeme. Und gerade mit der enormen Verbreitung von Chrome OS (Android) an Schulen. Werden ganze Generationen an Andriod, zukünftig, gewöhnt sein. Ich denke mal sie machen es weil sie auf dem x86 Markt immer mehr Marktanteile verlieren (Desktop ausgenommen, aber wohl auch in Zukunft) und noch ist ARM dominant auf dem Mobil Markt. Ach ja und Apple macht es ja auch (M1, M2 etc.).
 
Zuletzt bearbeitet:
Ne ne, ohne Dosbox.
Emulation zwar ist gut hat aber auch erhebliche Nachteile. Gerade bei alter Software. Und gerade diese Abwärtskompatibilität, ist ja eine, wenn nicht so gar die, große Stärke des x86.
Apple hat gezeigt, dass man gar keine abwärtskompatibilität braucht. Die steigen einfach von x86 auf ARM um und sagen, in 2 Jahren gibt es kein Rosetta und keine x86 Apple Gerät mehr, wenn ihr eure Software weiter verkaufen wollt, dann compiliert die neu. Und das machen die Hersteller dann auch.
Bei Windows wird das einfach nicht passieren, da man heute noch Windows 3.1 Programme unter Windows 11 laufen lassen kann. Diese alte Software kann man gar nicht neu kompilieren. MS hat hier den Absprung nicht geschafft. Intel aber genau so wenig. Und so sitzen wir vor CPUs die im Grunde vor 40 Jahren erfunden wurden und seit dem nur weiter beschleunigt wurden. Ein 386er von damals würde komplett ausreichen Windows 11 laufen zu lassen. (Würde man die CPU auf 5GHz laufen lassen)

Nicht die Abwärtkompatibilität hällt x86 am Laufen, sondern ihre günstige und schnelle Hardware.
 
Apple hat gezeigt, dass man gar keine abwärtskompatibilität braucht. Die steigen einfach von x86 auf ARM um und sagen, in 2 Jahren gibt es kein Rosetta und keine x86 Apple Gerät mehr, wenn ihr eure Software weiter verkaufen wollt, dann compiliert die neu. Und das machen die Hersteller dann auch.
Und allen denen sowas nicht passt, haben keine Apple mehr und vermutlich sowieso nie Apple HW gehabt. Die sind im Computerbereich sowieso schon sehr lange nur noch ein Nischenanbieter und man kann es daher nicht auf die x86 Welt übertragen.
Diese alte Software kann man gar nicht neu kompilieren.
Eben, trotzdem gibt es immer noch nicht wenig die diese alte Software weiter nutzen und nicht selten brauchen um Hardware (Maschinen) damit zu betreiben, deren Kosten die des Steuerungsrechners bei weitem übersteigen und noch perfekt funktionieren. Dies vergessen leider viele Leute hier im Forum die nur an ihren PC und Gaming denken.

MS hat hier den Absprung nicht geschafft. Intel aber genau so wenig.
So mögen einfach Geister dies sehen, die eben nur an ihren PC denken und nicht darüber hinaus. Gerade Computer Hardware hält aber nicht ewig und muss daher nach einiger Zeit ersetzt werden und dann ist Abwärtskompatibilität gefragt, wenn man die alte SW braucht, die eben nicht mal eben neu kompiliert werden kann, mal ganz davon ab, dass gerade früher nicht weniger auch Assembler und oft als Inline Assembler verwendet haben, gerne von Hand optimiert um an kritischen Stellen das Maximum an Performance rauszuholen.
Und so sitzen wir vor CPUs die im Grunde vor 40 Jahren erfunden wurden und seit dem nur weiter beschleunigt wurden.
Die erste ARM CPU erschien 1985 und damit ist ARM auch schon 38 Jahre alt und wurde in der Zeit immer weiter beschleunigt. Das Argument ist also total daneben, nur weil etwas schon lange existiert, ist es ja nicht automatisch schlechter oder schlechter als etwas was neu erfunden wurde.
Nicht die Abwärtkompatibilität hällt x86 am Laufen, sondern ihre günstige und schnelle Hardware.
Sollte Intel die Abwärtskompatibilität wirklich beenden, werden wir das ja bald sehen.
 
Eben, trotzdem gibt es immer noch nicht wenig die diese alte Software weiter nutzen und nicht selten brauchen um Hardware (Maschinen) damit zu betreiben, deren Kosten die des Steuerungsrechners bei weitem übersteigen und noch perfekt funktionieren. Dies vergessen leider viele Leute hier im Forum die nur an ihren PC und Gaming denken.
Richtig, zum Gesamtmarkt des x86 ist der Gamingbereich klein und in diesem der Selbstbaumarkt winzig.
Oft geht es auch gar nicht darum ob du die Software neu kompilieren kannst. Sonder existiert die Firma die dir die Anlage eingebaut hat, überhaupt noch. Und selbst wenn arbeiten die entsprechenden Leute (die sie Programiert haben) dort überhaupt noch. Und eventuell, Leben sie Überhaupt noch.

Ein, wenn auch sehr extremes Beispiel, dürfte Voyager 1 sein. Dort sucht die NASA noch heute Programmierer die FORTAN oder COBOL, sehr gut können.
 
Dazu kommt: Selbst wenn die Firma in der Lage wäre den alten Quellcode noch neu zu compilieren, will sie das? Denn erstens wäre es ein Risiko ob dann trotzdem noch alles wie gedacht läuft, es müsste also getestet werden was den Aufwand weiter erhöht und spätestens dann dürfte es für die Firma viel interessanter sein dem Altkunden direkt ihr neustes Geräte zu verkaufen, statt ihnen zu helfen die alte Anlage weiter betreiben zu können.
 
Intels Änderungen sehen vor, dass es weiterhin den 32Bit Compatibility Mode geben soll. D.h. man wird auf einem 64Bit OS mit 64Bit Treibern auch weiterhin 32Bit Programme laufen lassen können. Was entfernt werden soll, ist die Möglichkeit ein 16Bit oder 32Bit OS zu booten, und die Möglichkeit noch 16Bit Programme ausführen zu können. Nachlesen kann man das im Detail bei Intel. Zur Erinnerung mit Windows 3.1 wurde die Win32s API eingeführt. Programme für Win32s und Win32 (mit Windows NT eingeführt) wären somit weiterhin auf einem 64Bit Windows nutzbar.

Was wegfallen würde sind Win16 Programme sowie DOS Programme. Die müsste man dann in einem Emulator ausführen.
 
Jetzt ist langsam der richtige Zeitpunkt, die alten Zöpfe abzuscheiden. Intel hat ja schon mal einen Versuch mit dem Intel Itanium gestartet, allerdings ging es in die Hose. Zu dem Zeitpunkt waren viel zu viele Anwendungen und Betriebssysteme in 32Bit geschrieben und in Verwendung. Die Leistung war nicht ausreichend um die 32 Bit Anwendungen andersweitig auszuführen(Emulieren(2001-2002)). Deshalb war es so die typische "Die richtige Idee zum falschen Zeitpunkt" Situation.
Genauso wie es mit IBMs "Big Berta" 4K Monitor um 2003 herum, OLED in Jahr 1990er, VR in 1980er Jahre usw.
 
@Luigi9212
Deshalb war es so die typische "Die richtige Idee zum falschen Zeitpunkt" Situation.
Auf was bitte basiert diese flachgründige These? Das war absolut keine richtige Idee. Sonst hätte sich das Ding wenigstens da durchgesetzt wo man schon damals keine Nöten hatte 32bit zu versorgen und wofür es primär gedacht war: Im Serverraum. Da ist das aber auch krachend gescheitert.

Heute wird das nicht mehr passieren. Es gibt eine "x86 advisory group" und Intel ist da nicht mehr der Kaiser, sondern nur einer der Hautpteilnehmer...
 
Zuletzt bearbeitet:
@Luigi9212

Auf was bitte basiert diese flachgründige These? Das war absolut keine richtige Idee. Sonst hätte sich das Ding wenigstens da durchgesetzt wo man schon damals keine Nöten hatte 32bit zu versorgen und wofür es primär gedacht war: Im Serverraum. Da ist das aber auch krachend gescheitert.

Heute wird das nicht mehr passieren. Es gibt eine "x86 advisory group" und Intel ist da nicht mehr der Kaiser, sondern nur einer der Hautpteilnehmer...
Wie wäre es mal sich selbst zu informieren. Ich verstehe nicht, wie man sich so in der Wortwahl vergreifen kann.
https://de.wikipedia.org/wiki/Intel_Itanium (unter dem Abschnitt Probleme ist sehr gut beschrieben.) Logik hilft bei solchen Dingen ganz gut.
Uns werden übrigens viele Sachen für neu verkauft, obwohl es schon alt ist, wie meine oben genannten Beispiele. Die man ebenfalls sehr leicht googlen kann oder auf Youtube finden kann.
Danke für die unverschähmte Antwort.
Der Name "Zeitmangel" ist wohl Programm
 
Die Leistung war nicht ausreichend um die 32 Bit Anwendungen andersweitig auszuführen(Emulieren(2001-2002)). Deshalb war es so die typische "Die richtige Idee zum falschen Zeitpunkt" Situation.
Die Idee wäre auch heute noch falsch. Vermutlich sogar noch falscher, weil es heute noch viel mehr Software gibt, die damit eben nicht kompatibel wäre.
Itanium war eine komplett andere Architektur, selbst wenn man Itanium mit 32bit konzipiert hätte, wäre keine Software kompatibel gewesen. Das ist wie heute mit x86/amd64-CPUs und ARM-CPUs.

Weniger wegen den 64bit, sondern weil es eben eine komplett andere Architektur war, hätte man eben wirklich emulieren müssen und hätte nicht einfach "mappen" können oder sowas. Und dafür hat dann in der Tat die Leistung gefehlt, bzw. wenn man die Leistung für Emulation aufgewendet hat, war das Ding am Ende dennoch wieder langsamer als damals gängige x86-CPUs. Also konnte man gleich x86-CPUs nehmen, man hatte damit effektiv trotzdem höhere Leistung und hat um Welten weniger gekostet.

VR in 1980er Jahre usw.
VR funktioniert heute immernoch nach dem gleichen Funktionsprinzip wie die Geräte in den 80er Jahren auch. Die Technik war damals nur zu schlecht um das massentauglich zu kriegen. Displays zu schlecht, Rechenleistung Mangelware, Preis zu hoch. Man musste bis heute aber nichts komplett neu erfinden wie man das bei Itanium versucht hat.

Auch die Monitortechnik ist noch die gleiche wie bei IBMs Big Bertha. Das war damals nur einfach noch zu teuer, direkt vergleichbar wie wenn man heute einen 16K Monitor vorstellt.

Eher mit Itanium vergleichbar wären vielleicht diese Rückprojektions-TV-Geräte die es mal eine Zeitlang gab. Das war eine gänzlich andere Technik, die aber auch wieder verschwunden ist, weil andere bestehende Techniken in die gleichen (Größen)Dimensionen vorgedrungen sind und dabei praktischer und günstiger waren und noch dazu besser funktionierten.
 
Wie wäre es mal sich selbst zu informieren. Ich verstehe nicht, wie man sich so in der Wortwahl vergreifen kann.
Was hast du an dem Wikitext denn nicht verstanden? Es steht exakt beschrieben warum die Idee komplett Banane war.
"Insbesondere kam es zu einer Entkopplung zwischen Befehlssatz einer CPU und der Ausführung von Code, die das Grundkonzept des Itaniums ad absurdum führte. Es war im Endeffekt sogar so, dass sich die klassischen CPUs selbst besser an die gegebene Software anpassen konnten (siehe Out-of-order execution, Registerumbenennung, SIMD, Speculative execution, Sprungvorhersage und Prefetching) als der Itanium mit seiner starren Optimierung während der Übersetzungszeit, in der man alles über das Zielsystem wissen musste, inklusive der Zugriffszeiten auf den Hauptspeicher."

Bingo. Schachmatt.
DER x86-Entwickler der nicht voraussehen konnte wie die x86-Entwicklung paar Jahre später aussehen könnte? Da waren Sachen wie OoO execution, Prefetching und die Sprungvorhersage für Intel noch nichtmal am Horizont zu sehen? Na dann.

Deine 32bit Erlahmung hat da vielleicht 1/5 zu beigetragen. Absolut Ausschlaggebend war der zweite Punkt. Die Idee war schon während ihrer Entstehung hirnverbrannt. Wesentlich mehr übrigens als Pentium4. Da hat man wenigstens den bekloppten Gedanken dahinter irgendwie nachvollziehen können. Bei Itanium hat außer Intel - und den damals genauso seltsamen Entscheidern bei HP - NIEMAND an die Chance geglaubt so einen Wunder-SciFi-Alien-Compiler herstellen zu können.

Das war vom Anfang an absurd. The EPIC fail of Itanic.

edit:
"Altlasten" zu beseitigen ist Innovation-PR. Da gibt es nichts was wirklich stört, nachdem man einmal mit A20-Gate aufgeräumt hat. Aus der technischen Sicht kompletter Mumpitz.
 
Zuletzt bearbeitet:
Jetzt ist langsam der richtige Zeitpunkt, die alten Zöpfe abzuscheiden.

Die Idee wäre auch heute noch falsch. Vermutlich sogar noch falscher, weil es heute noch viel mehr Software gibt, die damit eben nicht kompatibel wäre.

Ich glaub auch das es heute noch falscher wäre als damals. Einerseits kommt es garnicht so so selten vor das man es noch mit 32 Bit Software oder gar 16 Bit Software aus der Windows 3.1 / 3.11 Zeit zu tun hat.

Anderseits hab ich den Eindruck das sich das x86 Zeitalter almählich eh seinen Ende entgegen neigt. Apple hat sich ja schon wieder komplett von x86 verabschiedet, und auch in der Windows Welt etablieren sich zunehmend mehr und mehr ARM Geräte zum Beispiel mit Qualcomm Snapdragon X Elite. In China stehen die Loongson CPUs mit LoongsonArch in den Startlöchern und auch RISC-V steht schon in den Startlöchern.

Ich könnte mir gut vorstellen das in ca. 10 Jahren x86 eh keine grosse Rolle bei Neugeräten mehr spielen wird, sondern wir bei Neugeräten dann eher 50% ARM, 30% RISC-V und 20% LoongArch haben werden.
 
Ich glaub auch das es heute noch falscher wäre als damals. Einerseits kommt es garnicht so so selten vor das man es noch mit 32 Bit Software oder gar 16 Bit Software aus der Windows 3.1 / 3.11 Zeit zu tun hat.
Eben und die Frage ist, wie viele Leute die dann zum Umstieg gezwungen wären, weiter auf x86 setzen werden oder nicht direkt zu ARM wechseln, da es gerade im Embedded Bereich viele treffen dürfte. Dagegen steht die Frage was man damit an Komplexität einsparen würde.
Ich könnte mir gut vorstellen das in ca. 10 Jahren x86 eh keine grosse Rolle bei Neugeräten mehr spielen wird, sondern wir bei Neugeräten dann eher 50% ARM, 30% RISC-V und 20% LoongArch haben werden.
Das glaube ich kaum, denn wie lange schon versuchen verschiedene Hersteller ARM im Serverbereich zu etablieren? Außer in Nischen für sehr spezielle Anwendungen haben sie nie Fuß fassen können und auch in der Windows Welt sind es eher die kleinen, mobilen Geräte wo ARM zum Einsatz kommt, selbst für die Konsolen setzen MS und Sony immer noch auf x86. ARM und RISC haben gewaltige Stückzahlen wenn es um die Kerne geht, da diese in vielen Controllern stecken, genau wie die alten Power-PC, 8085 und diverse andere uralte Architekturen, an die sich kaum noch jemand erinnert. Es spielt aber keine Rolle wie viele ARM Kerne in den Controllern der SSDs stecken, wenn die Programme die der User startet, dann auf einer x86 CPU laufen.
 
"Altlasten" zu beseitigen ist Innovation-PR.
Ehrlich gesagt weiß ich nichtmal, was man in einer CPU eigentlich alles weglassen könnte, wenn man den 32bit-Support komplett fallen lässt?

Haben aktuelle CPUs überhaupt noch nur-32-Bit Register, 32Bit-ALUs oder sowas? Oder läuft da mittlerweile alles, auch wenns nur 32bit ist, einfach in 64bit... bleibt halt die Hälfte des "Raums" ungenutzt, aber stört dann ja im Endeffekt auch niemanden?

GPUs sind zwar nicht absolut vergleichbar, aber da ist ja das Thema, das die zT noch ALUs/FPUs mit wirklich in Hardware nur 32bit (bzw. sogar noch 16Bit) integriert haben.
Wie war das? Bei NVidia sind beinahe alle Recheneinheiten FP64/32, während bei AMD noch dedizierte 32bit Recheneinheiten vorhanden sind, die entsprechend nur 32bit rechnen können, weswegen NVidia bei reinen FP64-Berechnungen besser abschneidet, weil die einfach (deutlich) mehr Recheneinheiten haben die 64bit können?
Aber das GPUs noch dedizierte 16/32Bit Recheneinheiten haben, erklärt sich afaik dadurch das 32Bit-Einheiten weniger Die-Platz brauchen, man kann also mehr (als doppelt soviel) 32Bit Einheiten auf die gleiche Die-Fläche packen, als 64bit Einheiten. Das dumme ist nur, die können dann halt wirklich nur 32bit rechnen. Aber bei typischen GPU-Anwendungen wie z.B. Gaming, braucht man oft gar keine (oder nur wenig) 64bit, wodurch es in diesem Anwendungsfall durchaus sinnvoll sein kann, mehr 32bit Kerne zu haben, als weniger Kerne die 32 und 64 Bit können.
 
Ehrlich gesagt weiß ich nichtmal, was man in einer CPU eigentlich alles weglassen könnte, wenn man den 32bit-Support komplett fallen lässt?
Wer dazu andere zahlen hat, GERNE. Meiner eigenen bisherigen Einschätzung nach könnte man damit bis zu 0,11% der Fläche sparen bzw. für anderes verwenden, allgemein bis max. 0,18% Leistungssteigerung erzielen und auch die TDP bei gleicher Leistung um nahezu 0,1W senken :hmm:
 
Zuletzt bearbeitet:
Das glaube ich kaum, denn wie lange schon versuchen verschiedene Hersteller ARM im Serverbereich zu etablieren? Außer in Nischen für sehr spezielle Anwendungen haben sie nie Fuß fassen können und auch in der Windows Welt sind es eher die kleinen, mobilen Geräte wo ARM zum Einsatz kommt, selbst für die Konsolen setzen MS und Sony immer noch auf x86.

Bei Servern kommt es sehr drauf an um was für eine Art von Server es geht. Aber wenn es um Webserver wie Apache oder SQL geht dann geht das mir ARM genausogut wie mit x86. Bei anderen Dingen kannn es natürlich anders sein.

Aber auch Home&Office schlägt sich zumindest ARM bei Apple ganze gut. Mit einem z.B. 2022er MacBook Air und 2024er iPad Air jeweils mit Apple M2 Prozessor ist man durchaus gamingtauglich und gefühlt nicht weit weg von einem Intel Core i5 13420H oder AMD Ryzen 5 8645HS mit jeweils Nvidia GeForce RTX 4050 also das was man heutzutage in der 849-999€ Gaming-Laptop-Klasse bekommt.
 
Es hängt eben auch immer von der SW ab, wenn die eben nur auf x86 oder nur auf ARM (bzw. eben nur für Apple) verfügbar ist, dann ergibt sich daraus schon fast zwangsläufig, welche HW genommen wird. Klar kann man inzwischen auch einiges simulieren, aber wie sieht dann die Performance aus? Vom Verschwinden von x86 gehe ich nicht aus, dafür ist die Architektur einfach zu stark verbreitet und hat mit AMD und Intel zwei Firmen die sie massiv vorantreiben, zugleich aber eben auch zusammenarbeiten, einmal über das schon lange vorhandene Patentaustauschabkommen und neuerdings in der x86 Ecosystem Advisory Group. Da sind neben AMD und Intel auch noch andere Firmen dabei, deren CEO sich sehr optimistisch zur Zukunft der x86 Architektur geäußert haben und die dazu dienen soll, die zukünftige Entwicklung besser abzustimmen, auch mit den Anwendern. Es bringt eben nichts, wenn einer der beide CPU Hersteller wieder Befehlserweiterungen wie damals AMDs 3DNow bringt oder Intels IA-64 (Itanium) Ansatz für den Übergang auf 64 Bit, die der andere nicht übernimmt und die daher nie eine nennenswerte Nutzung erfahren und irgendwann verschwinden werden, womit keinem geholfen ist.
 
Die Idee wäre auch heute noch falsch. Vermutlich sogar noch falscher, weil es heute noch viel mehr Software gibt, die damit eben nicht kompatibel wäre.
Itanium war eine komplett andere Architektur, selbst wenn man Itanium mit 32bit konzipiert hätte, wäre keine Software kompatibel gewesen. Das ist wie heute mit x86/amd64-CPUs und ARM-CPUs.
Das ist falsch. Der erste Itanium hatte explizit die Möglichkeit 32Bit IA-32 Code (x86) direkt auf einem x86 Core auszuführen, und dazu natürlich noch IA-64 Code (Itanium). Nur hat sich sehr schnell herausgestellt, dass der verbaute x86 Core so langsam war, dass der von HP geschriebene Recompiler IA-32 Code sehr viel effizienter in IA-64 Code übersetzte als der vorhandene IA-32 Core ihn ausführen konnte. Deshalb gab es ab dem Itanium-II auch keinen x86 Core mehr, ab da gab es nur noch den Recompiler.

HP selbst benötigte unbedingt den Recompiler, weil HP die HP-UX von HP-PA RISC auf IA-64 portierte, und alter HP-PA Code auch weiterhin auf Itanium laufen musste. Der Recompiler lieferte sehr viel bessere Performance als ein simpler Emulator.

Weniger wegen den 64bit, sondern weil es eben eine komplett andere Architektur war, hätte man eben wirklich emulieren müssen und hätte nicht einfach "mappen" können oder sowas. Und dafür hat dann in der Tat die Leistung gefehlt, bzw. wenn man die Leistung für Emulation aufgewendet hat, war das Ding am Ende dennoch wieder langsamer als damals gängige x86-CPUs.
Es gab von Intel keine andere 64Bit Plattform. Intel hatte durch sehr geschickte Produktpolitik viele RISC Plattformen eliminiert, in dem sie Kooperation bei der Portierung von diversen UNICES auf Itanium behilflich waren. Dadurch verschwanden Alpha (DEC -> Compaq -> HP), MIPS (SGI), HP-PA (HP) vom Markt. Nur IBM hat sich zwar am Itanium beteiligt, aber die eigene Power Plattform weiterentwickelt.

AMD hat dann durch die Ankündigung von AMD64 Itanium zu Grabe getragen. Dadurch wurde es nicht mehr notwendig von x86 auf IA-64 wechseln zu müssen.
 
IA64 war ja ersmal eh nur für Server und grosse Workstations, aber was Intel wenn IA64 dort ein Erfolg gewesen wäre für kleinere Workstations, PCs und Notebooks gemacht hätte, war ja noch relativ unklar.
 
Ehrlich gesagt weiß ich nichtmal, was man in einer CPU eigentlich alles weglassen könnte, wenn man den 32bit-Support komplett fallen lässt?
Eine ganze Menge
Der Punkt ist x86 bzw. x86-64 ist ganz wildes Sammelsurium von (total veralteten) Dingen ist.
  1. 8086/8088 ist Assembler Sourcecode kompatibel zu 8085 – eine reine 8Bit CPU. Daher kann jede 8086/8088 CPU auch reine 8Bit Programme ausführen und beherrscht einen reinen 16Bit Adressmodus. In diesem Modus sind nur jeweils 64kB Blöcke im Speicher ansprechbar. Läuft der Zeiger über kommt man wieder an den Anfang des 64kB Blocks.
  2. Nutzt man hingegen „long Pointer“ d.h. 20Bit Zeiger (16Bit Zeiger plus 4 Bit Indexregister) dann kann man die kompletten 1MB Speicher der 8086/8088 ansprechen. D.h. wenn man mit der Zeigeradresse an das Ende eines 64kB Blocks kommt, springt man in den nächsten 64kB Block.
  3. 80286 führt neben den vorher (8086/8088) bekannten Real Mode (jeweils mit 16Bit oder 20Bit Zeiger), den 80286 Protected Mode ein. Auch dieser ist nur ein 16Bit Modus. D.h. man kann mehrere 1MB große Speichersegmente haben. Der Gesamtspeicher ist maximal 16MB groß. Bekanntestes Betriebssystem was den 286 Protected Mode nutzte war Xenix.
  4. Mit dem 80386 wird der 386 Protected Mode eingeführt mit Ring 0, Ring 1, Ring 2 und Ring 3. Ring 0 ist für den Kernel, Ring 3 ist für Anwendungen, Ring 1 und Ring 2 sind für eingeschränkte Treiber, die keinen Hardwarezugriff haben sollen. Andere CPUs haben solche Unterscheidungen nicht, die kennen nur Kernelmode und Usermode. Dazu kommt der x86 Virtual Mode, um alte DOS Programme nun im vergrößerten 32Bit Adressraum in einer DOS Box betreiben zu können. Ab dem 80386 wird der Speicher im Protected Mode nicht mehr nur in Segmente geteilt sondern in Pages. Die übliche Page Size war damals 4kB. Dadurch kann man Pages aus dem Arbeitsspeicher auf die Festplatte auslagern.
  5. x87 FPU Die Seit dem 8087 verfügbare FPU arbeitet mit 8 Registern als Stack (man kann die Register nicht direkt ansprechen sondern kann nur Werte auf den Stack legen und von dort herunterholen), und kennt die Datentypen Single, Double und Extended Precision (entspricht 32Bit, 64Bit und 80Bit).
  6. Mit dem Pentium MMX wird der MMX Befehlssatz eingeführt. Die FPU Register werden nur als SIMD Integer Register direkt ansprechbar, aber nur als Integer Register.
  7. Mit dem Pentium III kommt SSE und damit weitere 8 128Bit Register dazu. Die späteren SSE Varianten erweitern nur den Befehlsumfang, fügen aber keine weiteren Register dazu. Mit SSE ist es nun möglich anstatt der x87 FPU nur noch die SSE Einheit zu nutzen, und somit deutlich effizienteren FPU Code schreiben/generieren zu können.
  8. MMX, SSE und das später eingeführte AVX sind in der RISC Philosophie designed. D.h. es gibt dedizierte Load-/Store-Befehle, so dass die eigentliche Datenbefehle keine Zugriffe auf den Cache mehr auslösen können. Dadurch wird die spekulative Ausführung von Code drastisch vereinfacht und das Cache Design vereinfacht.
  9. Intel hat APX vorgestellt, so dass weitere GPR Register zur Verfügung stehen. Bei 32Bit x86 gab es nur 8, AMD64 führte 8 weitere ein, und nun will Intel das auf 32 erhöhen.
Also, wenn man dem Vorschlag von Intel folgt und viele der Altlasten rauswirft vereinfacht sich das CPU Design und gleichzeitig werden viele Dinge als Standard eingebaut. Die Punkte 1 bis 5 fallen dann weg. Die CPU bootet dann immer im Ring 0 64Bit und erlaubt nur noch Ring 3 32Bit und Ring 3 64Bit Anwendungen. Die klassische FPU wird aus der CPU geworfen, und durch eine MMX/SSE/AVX-10 Einheit ersetzt. Durch APX wird die Registerzahl der GPRs auf 32 erhöht. Auch bei den GPRs wird der Weg zur Load-Store-Architektur eingeschlagen (d.h. die CPU wird RISC-artiger). Das vereinfacht das Design und reduziert die Wahrscheinlichkeit von Exploits.
 
Na dann scheint es lohnenswert zu sein, wenn man die alten Zöpfe mal abschneidet. Scheint ja sogar noch viel mehr als nur 32bit "abschneiden" zu sein, du redest ja, wenn ich das richtig verstehe sogar noch zum Teil von 8 und 16Bit-Kompatibilität.
 
Aber alte Kompatibelität opfern ohne gleichzeitig was sensationell Neues einzuführen wird von den Leuten ot als sehr Nachteilig empunden. Wenn gleichzeitig es sensationell Neues kommen würde, wie damals der Itanium, wäre es eher anders.

Anderseits gibt es ja schon die ersten ARM Notebooks, und wenn jetzt auch x86 die Kompatibelität abschafft, dann ist das Risiko umso grösser als mehr Leute gleich zu ARM, RISC-V oder LoongsonArch wechseln.
 
Aber alte Kompatibelität opfern ohne gleichzeitig was sensationell Neues einzuführen wird von den Leuten ot als sehr Nachteilig empunden. Wenn gleichzeitig es sensationell Neues kommen würde, wie damals der Itanium, wäre es eher anders.
Du bist einfach unbelehrbar und noch dazu beratungsreistent, oder?
Aktuelle CPUs sind 32 und 64bit kompatibel. Die meiste Software gibts mittlerweile in 64bit. Wenn man jetzt 32bit abschneidet, würde lediglich Software die nur in 32bit Verfügbar ist nichtmehr laufen. Das wäre dann ggf. auch mal ein Signal an die Softwareentwickler, das sie ihre veraltete 32bit Software, sofern sie meinen das diese auch auf aktueller Hardware noch laufen sollte, halt mal updaten sollten. Die müssen in den meisten Fällen deswegen nichtmal großartig was umprogrammieren, sondern ihren existenten Sourcecode lediglich durch einen 64bit Compiler durchtreten.

Und was genau hast du an deinem hochgeliebtem Itanium gefressen? Itanium ist eine komplett andere Architektur, wie hier jetzt doch schon 15mal geschrieben wurde. Itanium unterscheidet sich nicht nur dadurch das es 64bit ist. Auch AMD64 Software würde auf einem Itanium NICHT laufen.
Auch ARM kann mittlerweile 64bit, ist aber trotzdem nicht kompatibel mit AMD64.
Wie genau kann mir dir begreiflich machen, das Itanium NICHT gleichbedeutend mit 64bit ist? Itanium war 64bit, ja, aber nicht alles was 64bit ist ist Itanium. Und es braucht heutzutage auch nichts mehr einen Itanium um 64bit sein zu können.

Anderseits gibt es ja schon die ersten ARM Notebooks, und wenn jetzt auch x86 die Kompatibelität abschafft,
Ich sag ja, du verstehst überhaupt nichts. Es wird nicht x86-kompatibilität abgeschafft, sondern lediglich der 32bit Teil davon.

dann ist das Risiko umso grösser als mehr Leute gleich zu ARM, RISC-V oder LoongsonArch wechseln.
Und was genau wäre so schlimm daran, wenn sie das tun würden? Vielleicht isses ja sogar die bessere Technik?
Abgesehen davon das Risc-V und das andere praktisch sowieso schon in der Bedeutungslosigkeit verschwunden ist... wer weiß überhaupt (noch) was "LoongsonArch" ist? Benutzt das überhaupt irgendwer?

Wie es scheint hast du einfach absolut keine Ahnung wie Software und CPU überhaupt zusammenhängt?! Du würfelst einfach alles querbeet durcheinander.
 
Zuletzt bearbeitet:
Wenn gleichzeitig es sensationell Neues kommen würde, wie damals der Itanium, wäre es eher anders.
Nein, es wäre wie die Itanium ein Misserfolg, da dies sensationelle Neue eben kein Ersatz für die entfallene Kompatibilität ist, die alten Programm laufen halt dann einfach nicht mehr und dies ist ein großes Problem, über welches die tollsten Neuerungen nicht hinwegtrösten können.
 
Ein 386er von damals würde komplett ausreichen Windows 11 laufen zu lassen. (Würde man die CPU auf 5GHz laufen lassen)
nope, win11 läuft nur auf 64-bit cpus und irgendwie schwebt mir auch was vor, dass man bei intel ab kaby lake und bei amd ab glaub zen2 kein win7 mehr nativ laufen lassen könnte... in VM ist das natürlich nach wie vor kein problem, aber das ist ja geschummelt ;)
das ist allerdings unabhängig von 32/64-bit, da hat man wohl einfach so nen riegel vorgeschoben. da aber selbst win10 noch in 32-bit verfügbar ist und erst ab win11 ausschließlich noch 64-bit-cpus unterstützt werden, wird das wohl noch ein wenig dauern, bis man von 32-bit weg ist...
 
Zuletzt bearbeitet:
Aktuelle x86 CPUs sind auch noch 16Bit kompatibel. Nur das A20 Gate ist nicht mehr vorhanden, so dass ganz alte DOS Versionen nicht mehr lauffähig sind.
Das finde ich auch voll okay, denn niemand will mehr ein ganz altes DOS installieren.

Aber mittels Rufus oder WinToUSB erstelltes Windows 8.1 oder 10 Livesystem in der 32 Bit Version booten, und darauf dann entweder 16 Bit Anwendungen aus der Windows 3.1 / 3.11 Zeit oder MS-DOS Anwendungen starten, kommt durchaus noch vor.

Nein, es wäre wie die Itanium ein Misserfolg, da dies sensationelle Neue eben kein Ersatz für die entfallene Kompatibilität ist, die alten Programm laufen halt dann einfach nicht mehr und dies ist ein großes Problem, über welches die tollsten Neuerungen nicht hinwegtrösten können.
Es gäbe ja immer noch die Möglichkeit einer reinen Emulation, die aber natürlich schon etwas aufwendigr ist, also einfach ein Windows 8.1 oder 10 in der 32 Bit Version als Livesystem zu booten.

Aber wenn eine neue Prozessorarchitektur dafür wirklich um so 40-80% schneller wäre, könnte man sagen man nimmt es in Kauf das man dafür in den sauren Apfel beisst, und den Umweg über die reine Emulation geht.

Aber wenn der Vorwärtsschritt dann trotzdem so klein bleibt wie von Alder Lake & Raptor Lake (Refresh) zu Arrow Lake, dann würde es wohl schon ein Misserfolg.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh