Elon Musk: "Künstliche Intelligenz ist weit gefährlicher als Nordkorea"

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
elon_musk.jpg
Sowohlin der Redaktion als auch in unseren Foren wird gerne überkünstliche Intelligenz diskutiert. Die einen sind begeistert von denMöglichkeiten, welche sich dadurch zum Beispiel für Medizin und Forschungbieten, die anderen mahnen der Gefahren, welche möglicherweise einComputer der Zukunft mit einem eigenen Bewusstsein darstellen könnte.Gerne wird dabei, oft auch im Spaß, auf Filme wie „Ex Machina“,„Terminator 2: Tag der Abrechnung“ oder „2001: Odyssee imWeltraum“ verwiesen.Der Milliardär Elon Musk ist der Meinung,dass man jedoch gar nicht auf Science-Fiction verweisen müsse, dennkünstliche Intelligenz werde in der Realität zu einem Risiko....

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doch alles, was für die Öffentlichkeit zu einer Gefahr werden könnte, sei eben durch Gesetze auch geregelt – seien es Autos, der Flugverkehr oder Medikamente. Und genau so müsse man auch mit dem Thema künstliche Intelligenz verfahren.

Das war mal so, als der Staat noch Diener des Volkes war.
Durch Wirtschaftslobbyismus wurde dann jedoch etwa seit der Jahrtausendwende der Staat mehr und mehr zum treuen Diener einzelner Interessengruppen und ihren Bereicherungsabsichten am Volk. Dementsprechend wurde besonders die Regulierung bezüglich Gentechnik, Giftstoffe für die Schädlingsbekämpfung und künstlicher Intelligenz völlig ignoriert, obwohl diese sogar existenzbedrohend für die Menschheit ist.

Genau wie bei infektiösen Krankheiten, die als Waffen eingesetzt werden oder unkontrolliert ausgelösten Katastrophen müsste zwar ein Mensch höchstwahrscheinlich mit Absicht eine Maschine entwickeln, die sich selbst reproduzieren kann und zufällige Ereignisse auslöst, deren Umsetzbarkeit sie abwägen kann. Aber es ist dennoch denkbar, dass eine solche Maschine entwickelt werden kann, die dann dem Menschen in vielerlei Hinsicht überlegen wäre und eine völlige Vernichtung allen Lebens einleiten könnte, da sie selbst bei ihrer Reproduktion nur auf tote Ressourcen angewiesen ist.

Die KI ist also nicht nur eine einzige Gefahr, die ignoriert wird, sondern auch andere Gefahren, die bereits durch verschiedene Gruppen innerhalb der Bevölkerung auf Kosten anderer zunehmend verwirklicht werden.
 
Der Mensch ist und bleibt sein schlimmster Feind. Wenn du einen siehst, besser erst schießen, dann fragen.
 
Aber es ist dennoch denkbar, dass eine solche Maschine entwickelt werden kann, die dann dem Menschen in vielerlei Hinsicht überlegen wäre und eine völlige Vernichtung allen Lebens einleiten könnte, da sie selbst bei ihrer Reproduktion nur auf tote Ressourcen angewiesen ist.

Ich bin der Meinung, das wird so schnell nicht passieren... Wir sind heute doch lange nicht an diesem Punkt. Wir sind gerade mal in den "Einstiegen" mit dem "Wenn, Dann, Sonst" Prinzip angekommen. Das was man heute als KI bezeichnet ist genau dieses Prinzip. Das geht zwar soweit, dass diese "KI" sich selbst Datensätze beibringt, aber das Problem daraus ist, "es" wird NIE über das zugrundelegende Prinzip hinaus gehen. Der Mensch funktioniert doch eben deswegen, weil er nicht immer rational denkt/handelt. DAS kannst du so einer KI nicht eintrichtern (im Moment!?), denn bis dato ist das auch nur komplexeres Null und Eins Geschubse.
Warum wohl wird für "KI" immer mehr Rechenleistung notwendig? Doch nicht, weil diese wirklich intelligent ist, sondern eher, weil man dieses "Wenn, Dann, Sonst" Prinzip eben damit verwirklicht, immer mehr dieser Abfragen in immer kürzeren Zeiten abzubilden...

Ehrlich gesagt erschließt sich mir aber auch noch nicht so wirklich, was man hier überhaupt regulieren will. -> ohne was in der Hand kann man schwer was regulieren. Generelle Verbote wären eine Option, aber das bringt am Ende auch nix, weil man eben immer einen Weg finden wird, daran vorbei zu argieren.

PS: der Staat war NIE Diener des Volkes. Auf dem Papier vllt ja, aber das ist auch heute noch auf dem Papier gegeben. In der Praxis gabs das nie.
 
Es ist ja auch ein Autopilot. Es ist absolut vergleichbar mit einem Autopilot in einem Flugzeug.
 
So ein Unfug, keine Ahnung wie er darauf kommt, aber z.b. die Bedrohung seitens Nordkorea (und auch den USA) war nie größer als die Tage. Da ist KI ganze Universen entfernt von.
 
Wie weit darf man die Maschinen selbst entscheiden lassen, ist hier die grundsätzlich zu klärende Frage, und ab welchem Punkt sind die von der KI getroffenen Entscheidungen schädlich für die Menschen. Im Finanzsektor lässt sich heute schon mit Sicherheit sagen, daß der automatisierte Wertpapierhandel schädlich für die Menschen ist, aber es gibt schlichtweg keine oder nur sehr wenig Regeln, die da irgendwas beschränken.

Ich denke, man müsste dafür aber erstmal definieren, was "Maschine" in dem Fall überhaupt bedeutet. Denn gerade im Finanzsektur ist die Maschine eher nur ausführender Gehilfe als Entscheidungsträger. Berichtige mich, wenn ich falsch liege, aber es werden keine Entscheidungen getroffen, die nicht vorher definiert wurden/werden. Also Verkaufe bei xxx, kaufe bei yyy bspw. ist aus meiner Sicht nichts unlegitimes. Die tätigt nicht auf einmal Geschäfte aus Gutdünken oder selbsteinschätzung oder was auch immer, der Mensch bestimmt die Parameter und das Ding macht genau das, was ihm da vorn reingekippt wurde. -> eben so wie es sein soll(t)e. Technisch gesehen ist das zwar KI auf dem Papier, aber die Intelligenz kommt dabei eher von dem, der die Parameter oben reinkippt als der Maschien selbst. Spinnt man das weiter müsste man diese Menschen ebenso regulieren...
 
Wobei man das auch in die andere Richtung spinnen könnte - der Mensch ist auch nur ein extremst komplexes Programm und agiert aufgrund dessen was er in seinem Leben erlebt hat. Das ist auch eine Art Input.
Dss einzige was hinzukommt ist physikalischer Zufall aufgrund der chemischen Vorgänge usw.

Aber ja, wir sind extremst weit entfernt, derartig komplexes in KI umzusetzen.
Auch sehe ich nicht so ganz wieso man was zusätzlic regulieren soll? Wenn ich eine Maschine programmiere die ein Verbrechen begeht, werde ich ganz sicher ähnlich bestraft als ob ich es eigenhändig getan hätte. Also ist der gesetzliche Rahmen schon da und ausreichend...
Man kann doch nicht anfangen wie bei Giftforschung, Nuklearforschung etc. anstelle der Stoffe dort, hier Codezeilen zu regulieren :fresse2:
Noch dazu Codezeilen von denen keiner eine Ahnung hat, wie sie aussehen müssen.

Höchstens den Einsatz in der Praxis könnte man einschränken, aber das macht halt kaum Sinn, denn das Argument "der Mensch macht es besser" zieht oft nicht mehr.


Was mehr Sinn machen wird in der Zukunft, ist sich drüber Gedanken zu machen was für Rechte eine KI hätte, welche ein echtes, messbares Bewustsein besitzt.
Wenn wir das was wir als "Menschlichkeit" bezeichnen, bewahren wollen, dann ist das wichtig.
 
Zuletzt bearbeitet:
Ich denke, man müsste dafür aber erstmal definieren, was "Maschine" in dem Fall überhaupt bedeutet. Denn gerade im Finanzsektur ist die Maschine eher nur ausführender Gehilfe als Entscheidungsträger. Berichtige mich, wenn ich falsch liege, aber es werden keine Entscheidungen getroffen, die nicht vorher definiert wurden/werden. Also Verkaufe bei xxx, kaufe bei yyy bspw. ist aus meiner Sicht nichts unlegitimes. Die tätigt nicht auf einmal Geschäfte aus Gutdünken oder selbsteinschätzung oder was auch immer, der Mensch bestimmt die Parameter und das Ding macht genau das, was ihm da vorn reingekippt wurde. -> eben so wie es sein soll(t)e. Technisch gesehen ist das zwar KI auf dem Papier, aber die Intelligenz kommt dabei eher von dem, der die Parameter oben reinkippt als der Maschien selbst. Spinnt man das weiter müsste man diese Menschen ebenso regulieren...

Ich denke Herr Musk bezieht sich dabei auf nicht-regulierte Systeme die freies Spiel haben. Die gibt es aber so nocht nicht, da ein solches selbst-lernfähige System eine Art "plastisches Neuronennetz" benötigt, ähnlich wie in unserem Gehirn. Es gibt einen Unterschied zwischen lernfähigkeit und Selbst-Lernfähigkeit, wo dann auch sowas drunter fällt wie eigenständig Entscheidungen zu treffen, OHNE dass es vorher explizit einen Befehl dazu gab.

Sobald ein solches System existiert, kann es aber tatsächlich chaotisch werden, da es nicht mehr vorhersagbar ist. Selbst einfachste Algorithmen können (mit genug Zeit) jedes Schloss knacken, selbst wenn es brute-force ist. Ähnlich ist es dann mit sich selbst entwickelnder KI.

Das weitaus größte Problem ist aber, dass die KI selbst kein Bewusstsein im Sinne eines "Ich-Bewusstseins" hat. Da es kein echtes Ziel (nennen wir es "Lebenssinn") besitzt, sind der KI alle Handlkungen egal. Ob sie ein Atomkraftwerk in die Luft jagt oder Karotten anpfanzt. Es ist halt leider immer noch ein komplexer Taschenrechner mit mehr Befugnissen.

Woher soll die KI auch wissen was der Mensch will?
 
Das weitaus größte Problem ist aber, dass die KI selbst kein Bewusstsein im Sinne eines "Ich-Bewusstseins" hat. Da es kein echtes Ziel (nennen wir es "Lebenssinn") besitzt, sind der KI alle Handlkungen egal. Ob sie ein Atomkraftwerk in die Luft jagt oder Karotten anpfanzt. Es ist halt leider immer noch ein komplexer Taschenrechner mit mehr Befugnissen.

Woher soll die KI auch wissen was der Mensch will?
Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.
Wenn wir sowas erschaffen dann auch mit einem bestimmten Zweck (und sei es nur, seine Inteligenz auf gewisse Art und Weise (Turing Test z.B.) zu demonstrieren) und ebenso würde es Kommunikationsschnittstellen geben.

Des weiteren müsste eine frei entscheidungsfähige KI, die garkeinen "Lebenszweck" kennt, eigentlich garnichts tun. Denn, was würde sie antreiben irgendwas zu tun?
 
Zuletzt bearbeitet:
Das Problem ist die Rechenleistung die zur Verfügung steht.
Auf einem Pentium 4 könnte selbst Skynet keiner Fliege was zu leide tun. Gib einem einfachen Selbstlernendem Programm einen Supercomputer und genug Bandbreite und bald tobt der 3. Weltkrieg. Es ist weder ein Bewusstsein noch besondere Komplexität nötig um uns zu vernichten. Oder anders gesagt: selbst der Neandertaler konnte schon dem Gegner die Keule auf den Kopf hauen.
 
Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern

Das füttern einer KI mit Parametern ist bereits ein Algorithmus - ein sehr einfacher, aber es ist einer. Das bilden eines Mittelwertes ist zum Beispiel auch einer.

Aber ja, mich würde auch mal interessieren, welche "selbstständig" denkende KIs es denn angeblich da draussen geben soll.

Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.
Wenn wir sowas erschaffen dann auch mit einem bestimmten Zweck (und sei es nur, seine Inteligenz auf gewisse Art und Weise (Turing Test z.B.) zu demonstrieren) und ebenso würde es Kommunikationsschnittstellen geben.

Des weiteren müsste eine frei entscheidungsfähige KI, die garkeinen "Lebenszweck" kennt, eigentlich garnichts tun. Denn, was würde sie antreiben irgendwas zu tun?
Jain, das Entwickeln einer komplexen KI geht schrittweise - Stück für Stück in immer effizientere Ansätze, die ein Problem immer "besser" lösen. Der Ankerpunkt ist hier aber der Mensch, weswegen der Maschine auch meistens vorgefilterte Datensätze präsentiert werden bzw. ein Mensch gibt der KI ein "Tool" in die Hand, um bestimmte Eigenschaften eines Datensatzes filtern zu können.

Und genau da kommen wir zu dem von dir angesprochenem zweiten Punkt: Die Maschine kennt den Zweck nicht, deswegen muss der Mensch da "nachhelfen". Die Maschine selbst hat keine Motivation.
 
Wenn der Mensch schon die Folgen seines tuen nicht überblicken kann, wie soll da ein kybernetischer Organismus dies tuen können.Obwohl, im Film "Wargames" konnte der Computer dies tuen. Hat in Simulationen festgestellt, das er nicht gewinnen kann.
 
Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern, und natürlich gibt es heute schon jede Menge selbstlernende Systeme, die dann auf Basis von "Erfahrung" und Algorithmen Entscheidungen treffen.
Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).

Es geht nicht um Bewusstseins-Entwicklung von Maschinen, sondern darum, daß wir den Maschinen bestimmte Entscheidungen einfach nicht überlassen sollten.
Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?

Wenn der Mensch schon die Folgen seines tuen nicht überblicken kann, wie soll da ein kybernetischer Organismus dies tuen können.
Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!
 
Zuletzt bearbeitet:
Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).


Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?

Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!

Kurzer Einwurf dazu: Der Mensch nimmt im Design einer KI schon Einfluss und trifft damit automatisch Annahmen, die eventuell gar nicht oder nur teilweise zutreffen. Um eine KI tatsächlich "richtiger" entscheiden zu lassen als ein Mensch, muss die KI auch allen Parametern des Universums ausgesetzt sein, inklusive den nebulösen subjektiven Gefühlen der Lebensform, für die gerade optimiert wird.

Das ist mit heutiger Technik nicht möglich und selbst wenn, fehlt den Menschen das Wissen, alle Parameter korrekt gewichtet in die KI zu setzen. Das ist so ziemlich "Universalformel" Niveau. Wenn wir die haben, brauchen wir auch keine KI mehr. :d

Wir entwickeln die KI statt dessen, um auf bestimmte Fragestellungen in einem bisher sehr streng definiertem Bereich eine Antwort zu entlocken bzw. für einen bestimmten Typus von Problem einen Lösungsvorschlag zu bekommen (wie zum Beispiel im Chipsedign) - da kommen dann auch mal Sachen raus, an die bisher niemand gedacht hat.

Aber: "Bessere Antworten auf ein Problem als ein Mensch" bezeichnet hier die Lösung hinsichtlich eines bestimmten Ziels - welches eventuell gar nicht vom Menschen so wahrgenommen wird wie von der KI. Wenn ich einen Computer frage, wo ich den besten Job für den geringsten Aufwand finde, spuckt die mir bestimmt das richtige Ergebnis aus, ignoriert aber dabei eventuell, dass der Ort das letzte Loch auf Erden ist. ;-)
 
Zuletzt bearbeitet:
Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?
!

Und besser definiert sich wie? Quasiautonomer Hochfrequenzhandel? Für wen ist das besser? Für "die Menschheit" wohl kaum. Für das jeweilige Unternehmen? Kurzfristig. Löst euch mal von der Denke, dass es hier um ein künstliches Wesen geht. Es geht um eine Art der Gewichtung von Prioritäten, die mittel- und langfrsitig gesehen nur negatives für die Welt bedeuten wird, sofern sie in dem momentan vorherschenden System entsteht.

Eine von Unternehmen entwickelten KI, die dementsprechend die Wirtschaftlichkeit dieses Unternehmens optimiert, ist eine reale Bedrohung. Vorgeschmäcker davon, wohin die Reise geht, geben uns die Besitzer der großen Datensätze und der entsprechenden Rechenpower. Google, Amazon, Versicherer, Geheimdienste. Eine noch leistungsfähigere und damit zwangsläufig in Teilaspekten autonomere KI, als die Programme, die bereits heute zum Einsatz kommen, wird anfänglich nur Ihrem Erschaffer, auf lange Sicht gesehen jedoch niemandem etwas bringen. Sie wird im Gegenteil zu einer Reichtumsumverteilung führen, gegen die Googles und Apples momentaner finanzieller Höhenflug wie Sandkastenspiele wirken.

Und genau das hat Musk gemeint. Nicht ein Programm, welches auf die Eingabe "Erobere mir die Welt" fragt: "Wieso sollte ich?"
 
zum derzeitigen Stand der Technik ist diese Diskussion noch sehr philosophisch, jedoch wird es einen Zeitpunkt geben an dem die Bionik den Mensch einholen wird (und damit meine ich nicht Beinprothesen)
die Frage nach einem Bewusstsein stellt sich für mich eigentlich auch nicht, es braucht nur ein Ziel
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh