Werbung
Der frühere Forschungschef von OpenAI, Ilya Sutskever, hat ein neues Unternehmen gegründet und kündigte an, eine neue "sichere Superintelligenz" (Safe Superintelligence) entwickeln zu wollen. Diese soll sich fundamental von ChatGPT unterscheiden und zudem besonders leistungsfähig sein.
Sutskever wird als einer der führenden Köpfe bei der Entwicklung künstlicher Intelligenz weltweit gehandelt. Ihn unterstützen dabei Daniel Gross, welcher zuvor bei Apple an künstlicher Intelligenz gearbeitet hat, und Daniel Levy, welcher seinerseits bei OpenAI tätig war.
Mit dem Fokus auf die sichere Superintelligenz will sich das neue Unternehmen dem kommerziellen Druck und dem Wettlauf mit anderen KI-Laboren entziehen. "Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird - und es davor nichts anderes herausbringen wird", äußerte Sutskever gegenüber Bloomberg. Zentraler Antrieb von Sutskever ist dabei die branchenweite Diskussion, ob KI-Systeme, sofern sie leistungsstark und eigenständig genug sind, für Menschen gefährlich werden können.
Wie genau das neue Unternehmen allerdings diese "sichere KI" entwickeln will, bleibt fürs Erste recht vage. Der Ankündigung nach möchte man technische Elemente bereits im Vorfeld in das KI-System integrieren, statt diese erst im Nachhinein zu implementieren.
Damit soll die Vision des Start-ups quasi einer Rückkehr zu den Wurzeln von OpenAI gleichkommen. OpenAI kam einige Jahre nach der Gründung zu dem Schluss, dass man sich ohne ein kommerzielles Produkt nicht über Wasser halten könne.
Sutskever und OpenAI-Chef Sam Altman pflegen zudem nicht das beste Verhältnis zueinander. So war dieser im vergangenen Jahr an dem überraschenden Rauswurf von Altman beteiligt, welcher dann nur wenige Tage später durch Druck des Großinvestors Microsoft wieder rückgängig gemacht wurde. Sutskever blieb danach zunächst im Hintergrund und verließ OpenAI dann im Mai.