HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.862
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Doch alles, was für die Öffentlichkeit zu einer Gefahr werden könnte, sei eben durch Gesetze auch geregelt – seien es Autos, der Flugverkehr oder Medikamente. Und genau so müsse man auch mit dem Thema künstliche Intelligenz verfahren.
Aber es ist dennoch denkbar, dass eine solche Maschine entwickelt werden kann, die dann dem Menschen in vielerlei Hinsicht überlegen wäre und eine völlige Vernichtung allen Lebens einleiten könnte, da sie selbst bei ihrer Reproduktion nur auf tote Ressourcen angewiesen ist.
Wie weit darf man die Maschinen selbst entscheiden lassen, ist hier die grundsätzlich zu klärende Frage, und ab welchem Punkt sind die von der KI getroffenen Entscheidungen schädlich für die Menschen. Im Finanzsektor lässt sich heute schon mit Sicherheit sagen, daß der automatisierte Wertpapierhandel schädlich für die Menschen ist, aber es gibt schlichtweg keine oder nur sehr wenig Regeln, die da irgendwas beschränken.
Es ist ja auch ein Autopilot. Es ist absolut vergleichbar mit einem Autopilot in einem Flugzeug.
Ich denke, man müsste dafür aber erstmal definieren, was "Maschine" in dem Fall überhaupt bedeutet. Denn gerade im Finanzsektur ist die Maschine eher nur ausführender Gehilfe als Entscheidungsträger. Berichtige mich, wenn ich falsch liege, aber es werden keine Entscheidungen getroffen, die nicht vorher definiert wurden/werden. Also Verkaufe bei xxx, kaufe bei yyy bspw. ist aus meiner Sicht nichts unlegitimes. Die tätigt nicht auf einmal Geschäfte aus Gutdünken oder selbsteinschätzung oder was auch immer, der Mensch bestimmt die Parameter und das Ding macht genau das, was ihm da vorn reingekippt wurde. -> eben so wie es sein soll(t)e. Technisch gesehen ist das zwar KI auf dem Papier, aber die Intelligenz kommt dabei eher von dem, der die Parameter oben reinkippt als der Maschien selbst. Spinnt man das weiter müsste man diese Menschen ebenso regulieren...
Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.Das weitaus größte Problem ist aber, dass die KI selbst kein Bewusstsein im Sinne eines "Ich-Bewusstseins" hat. Da es kein echtes Ziel (nennen wir es "Lebenssinn") besitzt, sind der KI alle Handlkungen egal. Ob sie ein Atomkraftwerk in die Luft jagt oder Karotten anpfanzt. Es ist halt leider immer noch ein komplexer Taschenrechner mit mehr Befugnissen.
Woher soll die KI auch wissen was der Mensch will?
Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern
Jain, das Entwickeln einer komplexen KI geht schrittweise - Stück für Stück in immer effizientere Ansätze, die ein Problem immer "besser" lösen. Der Ankerpunkt ist hier aber der Mensch, weswegen der Maschine auch meistens vorgefilterte Datensätze präsentiert werden bzw. ein Mensch gibt der KI ein "Tool" in die Hand, um bestimmte Eigenschaften eines Datensatzes filtern zu können.Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.
Wenn wir sowas erschaffen dann auch mit einem bestimmten Zweck (und sei es nur, seine Inteligenz auf gewisse Art und Weise (Turing Test z.B.) zu demonstrieren) und ebenso würde es Kommunikationsschnittstellen geben.
Des weiteren müsste eine frei entscheidungsfähige KI, die garkeinen "Lebenszweck" kennt, eigentlich garnichts tun. Denn, was würde sie antreiben irgendwas zu tun?
Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern, und natürlich gibt es heute schon jede Menge selbstlernende Systeme, die dann auf Basis von "Erfahrung" und Algorithmen Entscheidungen treffen.
Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?Es geht nicht um Bewusstseins-Entwicklung von Maschinen, sondern darum, daß wir den Maschinen bestimmte Entscheidungen einfach nicht überlassen sollten.
Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!Wenn der Mensch schon die Folgen seines tuen nicht überblicken kann, wie soll da ein kybernetischer Organismus dies tuen können.
Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).
Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?
Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!
Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?
!