Die Leistung war nicht ausreichend um die 32 Bit Anwendungen andersweitig auszuführen(Emulieren(2001-2002)). Deshalb war es so die typische "Die richtige Idee zum falschen Zeitpunkt" Situation.
Die Idee wäre auch heute noch falsch. Vermutlich sogar noch falscher, weil es heute noch viel mehr Software gibt, die damit eben nicht kompatibel wäre.
Itanium war eine komplett andere Architektur, selbst wenn man Itanium mit 32bit konzipiert hätte, wäre keine Software kompatibel gewesen. Das ist wie heute mit x86/amd64-CPUs und ARM-CPUs.
Weniger wegen den 64bit, sondern weil es eben eine komplett andere Architektur war, hätte man eben wirklich emulieren müssen und hätte nicht einfach "mappen" können oder sowas. Und dafür hat dann in der Tat die Leistung gefehlt, bzw. wenn man die Leistung für Emulation aufgewendet hat, war das Ding am Ende dennoch wieder langsamer als damals gängige x86-CPUs. Also konnte man gleich x86-CPUs nehmen, man hatte damit effektiv trotzdem höhere Leistung und hat um Welten weniger gekostet.
VR funktioniert heute immernoch nach dem gleichen Funktionsprinzip wie die Geräte in den 80er Jahren auch. Die Technik war damals nur zu schlecht um das massentauglich zu kriegen. Displays zu schlecht, Rechenleistung Mangelware, Preis zu hoch. Man musste bis heute aber nichts komplett neu erfinden wie man das bei Itanium versucht hat.
Auch die Monitortechnik ist noch die gleiche wie bei IBMs Big Bertha. Das war damals nur einfach noch zu teuer, direkt vergleichbar wie wenn man heute einen 16K Monitor vorstellt.
Eher mit Itanium vergleichbar wären vielleicht diese Rückprojektions-TV-Geräte die es mal eine Zeitlang gab. Das war eine gänzlich andere Technik, die aber auch wieder verschwunden ist, weil andere bestehende Techniken in die gleichen (Größen)Dimensionen vorgedrungen sind und dabei praktischer und günstiger waren und noch dazu besser funktionierten.