NVIDIA-CEO Jen-Hsun Huang wünscht sich möglichst breiten Zugriff auf künstliche Intelligenz

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.553
NVIDIA-CEO Jen-Hsun Huang wünscht sich möglichst breiten Zugriff auf künstliche Intelligenz
nvidia.jpg
NVIDIAist sehr engagiert im Bereich künstliche Intelligenz: Schon seitJahren spricht der CEO des Herstellers, Jen-Hsun Huang, auf Messenund Konferenzen über die Potentiale. Klar ist natürlich, dasspotentielle Entwickler bzw. Partner aus NVIDIAs Sicht auch GPUs desHerstellers nutzen sollten. In München sprach Huang nun auf derGPU-Konferenz des Unternehmens bereits in einem Interview über seineAnsichten zur Zukunft von KI.So befragte man Huang etwa auch zumaktuellen Streit um die Gefahren künstlicher...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
„Hier bei NVIDIA sind wir der Ansicht, dass der beste Weg, um Technik in die richtigen Hände zu bringen, eine Demokratisierung ist. Deswegen sind NVIDIAs GPU-Technologien sowie CUDA offen."
CUDA ist inzwischen echt offen? So wie OpenCL?
Eigentlich gilt NVidia als Inbegriff eines verschlossenen Unternehmens...


Aber zum thema - es ist kaum vermeidbar dass solche Technologie auch missbraucht wird. Sie deswegen einzsuchränken wäre aber blödsinnig und würde auch nicht funktionieren, denn wir reden hier nicht von Waffen, sondern von kopierbarer Software.
 
Zuletzt bearbeitet:
Ich bin auch ein freund von KI man könnte so viel gutes tun DNA codes usw berechnene vllt sogar Krebs/HIV besigen? doch wenn KI so schlau wird denke das es sogar soweit geht für Cyber Krieg also Rüsten Staaten die KI auf für ihre Kreigs Zwecke nur wenn die KI zu Schlau wird warum sollte sie jemanden dienen der "dümmer"ist dem Menschen...
 
@sft211
Lass dich nicht von Holywood veräppeln ;)
Wir sind noch sehr, SEHR weit von einer KI entfernt die Gefühle hat, oder sonst irgendeine Form von freiem Willen!
Selbst wenn dies irgendwann möglich ist - in den allermeisten Anwendungen, wäre ein freier Wille kontraproduktiv. Soetwas würde man also nur für entsprechende Systeme einsetzen, die das auch brauchen.
Also z.B. Androiden von denen man erwartet sich wie Menschen oder Tiere zu verhalten, aber nicht für Produktionsstätten oder in der Wissenschaft.
 
Ob eine KI freien Willen, oder sogar Gefühle hat ist erstmal egal - wichtig ist welche Aufgabe und Möglichkeiten diese zu Erfüllen man ihr gibt.
Davon abgesehen, wird sie wie immer zuallererst für das Militär benutzt werden - ob das so gut ist muss jeder für sich selbst beantworten.
 
Ein freier Wille ist nicht nötig um die Menschheit zu vernichten. Das ist ein Irrglaube der meisten Menschen.
Dieser KI scheiss wird uns irgendwann um die Ohren fliegen. Vielleicht in 10 Jahren, vielleicht in 20. Sicher ist nur das es passieren wird.
 
Ob eine KI freien Willen, oder sogar Gefühle hat ist erstmal egal - wichtig ist welche Aufgabe und Möglichkeiten diese zu Erfüllen man ihr gibt.
Davon abgesehen, wird sie wie immer zuallererst für das Militär benutzt werden - ob das so gut ist muss jeder für sich selbst beantworten.
Naja, ohne einen freien willen würde ich mal sagen dass es nicht zu einer unkontrolierten Bedrohung für die Menscheit, oder sonstwas derartiges werden kann, denn im Umkehrschluss heisst das ja, dass ein Mensch, den Willen steuert.
Daher wird sie nicht von selbst entscheiden, uns zu schaden, o.ä.

Sehr viele Technologien sind zuerst im Militär zum Einsatz gekommen. Ist doof aber so ist das halt...
Heisse ich natürlich auch nicht prinzipiell gut, aber das ist besser als kein Fortschritt.


Btw. ganz ehrlich, es ist z.B. nicht möglich Daten auf Anhieb von nem Mac, auf nen Android phone, Daten zu übertragen. Und da soll eine KI die Welt übernehmen können? Nee :d


Ein freier Wille ist nicht nötig um die Menschheit zu vernichten. Das ist ein Irrglaube der meisten Menschen.
Dieser KI scheiss wird uns irgendwann um die Ohren fliegen. Vielleicht in 10 Jahren, vielleicht in 20. Sicher ist nur das es passieren wird.
Hast du auch Argumente zu deiner bloßen Behauptung?
Prinzipiell die Macht, uns nahezu auszulöschen haben wir schon seit den Achtzigern. Daran ändert sich auch nichts mehr.
 
Zuletzt bearbeitet:
Hast du auch Argumente zu deiner bloßen Behauptung?
Prinzipiell die Macht, uns nahezu auszulöschen haben wir schon seit den Achtzigern. Daran ändert sich auch nichts mehr.
Elon Musk sagt es und sobald es tatsächlich eintritt, werden er und viele andere Leute sagen: "Habe ich es euch doch gesagt!".

Auch du hast keine Glaskugel @DT.
 
Zuletzt bearbeitet von einem Moderator:
Eine Intelligenz ohne Gewissen und Emotionen wie Mitgefühl entscheidet Rational und unterteil nur in schwarz und weiß.

So ticken auch Straftäter oder Diktatoren... wollen wir das wirklich?
 
Zuletzt bearbeitet:
Beide haben bestimmt Emotionen, sind ja auch Menschen, wenn auch schlechte. Die Aktionen von Kim Jong-un geschehen doch nur aus reiner Laune heraus.
 
Eine Intelligenz ohne Gewissen und Emotionen wie Mitgefühl entscheidet Rational und unterteil nur in schwarz und weiß.

So ticken auch Straftäter oder Diktatoren... wollen wir das wirklich?
Der Kontext ist relevant: Hat die KI die Aufgabe, für das Wohl aller zu sorgen, dann ist eine ich-bezogene Denkweise NICHT rational!

Eine rational denkende Führung wäre definitiv das was wir als Menscheit brauchen und wollen sollten.


Btw. nenn mir doch Fälle wo "Mitgefühl und Gewissen", eine unter den Großteil der Betrachtungswinkel, "bessere" Antwort/Lösung liefert, als logische Schlussfolgerung auf Basis der selben Informationen.

Elon Musk sagt es und sobald es tatsächlich eintritt, werden er und viele andere Leute sagen: "Habe ich es euch doch gesagt!".

Auch du hast keine Glaskugel @DT.
Der entwickelt selber an KI und kauft Hardware von NV für die Teslas >_>
Tesla Motors Partnership | NVIDIA Automotive

Eine Glaskugel habe ich nicht, aber grade deswegen basiere ich meine Entscheidungen nicht darauf was schlimmstenfalls passieren könnte (wobei ich als Software dev, einigermaßen einschätzen kann, was möglich ist).
 
Zuletzt bearbeitet:
Btw. nenn mir doch Fälle wo "Mitgefühl und Gewissen", eine unter den Großteil der Betrachtungswinkel, "bessere" Antwort/Lösung liefert, als logische Schlussfolgerung auf Basis der selben Informationen.
Ehrlich jetzt?
Machen nicht diese Eigenschaften eine Gesellschaft erst möglich, bzw. Rücksicht auf Minderheiten?

"bessere" Antwort/Lösung liefert, als logische Schlussfolgerung
Warum? Ein Kompromiss muss nicht die bessere Lösung sein und Logisch?
Es gibt keinen "richtigen" oder "falschen" Weg...

Eine Intelegenz ohne diese Eigenschaften wird die Gesellschaft über das Individuum stellen und damit würden Menschen aus dem Raster fallen.
Behinderte zum Beispiel, oder andere Benachteiligte...
 
Eine rational denkende Führung wäre definitiv das was wir als Menscheit brauchen und wollen sollten.
Ach deswegen nimmst du Kapitalgesellschaften oft in Schutz.

Erinnern wir uns aber zurück an's Studium. Rationalität ist nicht alles. Nachhaltigkeit und Ethik sind auch wichtig. Optimaler wäre es dann, je nach Situation rational oder ethisch zu entscheiden.
 
Ich denke mitgefühl und gewissen sind vor allem bei wesen wichtig die grundlegend erstmal egozentrisch sind um den zusammenhalt zu ermöglichen. Natürlich kann niemand zu 100% sagen was passieren wird, aber die gegenargumentationen hier, vermenschlichen die KI stark. Die Motivationen und einer selbstbestimmten KI werden aber wohl eher nicht für einen menschen nachvollziehbar sein.
 
Richtig. In erster Linie Aufgrund unserer Schwächen, brauchen wir überhaupt selbst Ethik etc. um als Gesellschaft zu funktionieren...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh