Chips designen Chips: Machine Learning übernimmt das Floorplanning

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
googleai.jpg
Mit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob man später daraus ein stetig schnellere Entwicklung machen kann? Komplexere Probleme werden von schnelleren Chips bearbeitet, die Entwicklung wird Komplexer, die Chips wieder schneller usw. und sofort :d
 
KI ist nicht so intelligent wie viele immer denken.
eigentlich ist das nur releativ grundlegendes mathe. aber das dafuer 'on a large scale'.
 
„Grundlegendes Mathe“ ist alles im Ingenieurbereich. Mit diesem Totschlagargument kannst jede Diskussion gewinnen.:lol:

Nein, das hier ist Routing auf einer sehr komplexen Ebene. Mit vielen Einschränkungen wird solch Berechnung umso komplexer.
Ob das am Ende wirklich schneller ist, wär natürlich sehr interessant, wenn Google sagt, es senkt die Kosten, meint es nur, die Planer sitzen weniger Zeit an der Verknüpfung.
 
Das lustige an diesen ganzen "Google macht Machine Learning für Anwendungen außerhalb ihres Business" ist, dass in den entsprechenden Industrien i.d.R. schon seit 20-30a daran geforscht wird und das durchschnittliche Ergebnis auch auf Augenhöhe mit Google ist. In der Community kommt man aber mit der Abdeckung von pathologischen Sonderfälle nicht mehr wirklich weit, Google kriegt aber Publicity weil sie ja so "disruptive" sind und alle anderen blöd (dass sich hier ein Unternehmen dank seiner Kontrolle über Informationsflüsse im Wesentlichen selbst hypet und als einzige Anlaufstelle für solche Probleme geriert (und damit Macht ansammelt), fällt aber niemandem auf...).
 
KI wird dann gefährlich, wenn der Mensch nicht mehr fähig ist zu unterscheiden, ob gut oder schlecht, wahr oder falsch, .... und wir Menschen neigen zum blinden Gehorsam oder Herdenverhalten. Letztendlich muss der Mensch noch fähig sein den Stecker ziehen zu können. Aber ich denke, solange die Menschheit die Syntax vorgeben, kann es auch hilfreich sein um schneller ans Ziel zu kommen.
:wut:
 
KI wird dann gefährlich, wenn der Mensch nicht mehr fähig ist zu unterscheiden, ob gut oder schlecht, wahr oder falsch, .... und wir Menschen neigen zum blinden Gehorsam oder Herdenverhalten. Letztendlich muss der Mensch noch fähig sein den Stecker ziehen zu können. Aber ich denke, solange die Menschheit die Syntax vorgeben, kann es auch hilfreich sein um schneller ans Ziel zu kommen.
:wut:
Der Mensch ist generell nicht besonders gut darin gut oder schlecht, geschweige denn Wahr oder Falsch zu unterscheiden. Sonst hätten wir keine Politiker wie Trump und Diktaturen in manchen Ländern.
Einfach den Kopf in den Sand stecken macht aber keinerlei Sinn. Ich habe persönlich eher die Hoffnung dass KIs, den Menschen dabei unterstützen können, gut und schlecht zu definieren bzw. wahre Fakten zu schaffen (die dann natürlich von manchen Menschen sowieso bestritten würden, egal wie stark die Datengrundlage ist).

So oder so, die allgemeinen Bestrebungen im Bereich KI sind wirklich das was man als Machine Learning beziechnet. Daraus geht ganz sicher nichts gefährliches hervor. Was man normalerweise ausserhalb der Informatik als "Inteligenz" bezeichnet, zu der Dinge wie Bewustsein, Wille und Anpassbarkeit gehören sind ein ganz anderes Feld. Sicherlich ein spannendes Feld aber bei weitem noch nicht so weit als dass man sich Sorgen machen müsste.
 
Ein Bewusstsein ist nicht nötig, es wäre sogar hinderlich. Es reicht wenn eine Deep Learning AI das falsche lernt oder sie bewusst falsch programmiert wird.
"Wille" ist auch eine typische menschliche Eigenschaft. Eine KI braucht keinen Willen, sie zieht einfach ihr Ding durch, 24/7.
Kommt die KI zum Ergebnis das sie dich töten muss dann wird sie alles dafür tun und nicht eher aufgeben bis ihr Ziel erreicht ist. Das ist kein Willen, das ist Programm.
Wenn ich dir sage räum die Bude auf kannst du dich dafür oder dagegen entscheiden. Sage ich dem Rechner räum die Festplatte auf dann macht er das. So funktioniert Technik. Sich in Sicherheit zu wiegen weil der KI die menschlichen Züge fehlen ist das dümmste was man machen kann.
Skynet hatte im Original auch keinerlei menschliche Züge, Skynet ist auch nicht böse. Auf den Menschen wirkt es so, aus rein logischer Sicht führt der Terminator nur einen Befehl aus, völlig emotions- und empathielos.

Definiert man Intelligenz alleine über das Selbstbewusstsein wird eine Maschine niemals intelligent sein. Das wäre aber in etwa so sinnvoll wie Schnee nur über die Farbe Weiß zu definieren.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh