Smart Cars lassen sich allzu leicht durch manipulierte Verkehrszeichen verwirren

Elmario

Urgestein
Thread Starter
Mitglied seit
21.01.2006
Beiträge
5.267
Ja, gegen Ende der Achtziger hätte man noch Erprobungsphasen von insgesamt ca. 20Jahren vorgeschrieben. Aber da die Welt heute der Industrie gehört, steht es außer Frage, dass die Dinger auf die Straße losgelassen werden mit der Fahrtüchtigkeit einer 85jährigen Parkinsonpatientin mit grauem Star.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
google_robocar.jpg
SmartCars bzw. selbstfahrende Autos sind ein neuer Trend, der dieAutomobilindustrie in den kommenden Jahrzehnten extrem beeinflussendürfte. Auch die Sicherheit spielt dabei natürlich eine großeRolle, denn sollte ein Fahrzeug durch Hacker manipuliert werden,geraten Menschenleben in Gefahr. Doch während die Hersteller dieSysteme der Autos gegen softwarebasierte Angriffe absichern, gibt esviel leichtere Wege die Fahrzeuge zu manipulieren.Forscher ander University of Washington haben einen recht direkten Weg genommen undeinfach Verkehrszeichen manipuliert. Sie klebten dafür Sticker aufVerkehrszeichen, welche die Computer-Vision-Systeme der...

... weiterlesen
 
Die autonomen Fahrzeuge funktionieren auch über Datenbanken. Nicht umsonst sammeln die jetzt schon massiv Daten dafür.
Auch ohne Vandalismus müssen schließlich Probleme wie Verdeckung durch Schnee und Pflanzen berücksichtigt werden usw. Die Entwickler sind sich dessen ganz sicher bewusst.

Zudem gibt es bereits Pläne und Protokolle für digitale Straßenschilder und Ampelanlagen, etc. Erlaubt bessere Vorausplanung usw.

@Elmario
Die Fahrzeuge fahren vorerst sehr vorsichtig und sind sicherer als Menschliche Fahrer im Schnitt.
Also ist es Unsinn was du da schreibst bzw. es wäre unsinn, 20 Jahre Erprobung zu fordern bevor sie überhaupt auf die Straße dürfen. Bzw. wo sonst sollte man die Fahrzeuge sinnvoll erproben?
 
@Elmario
Die Fahrzeuge fahren vorerst sehr vorsichtig und sind sicherer als Menschliche Fahrer im Schnitt.
Also ist es Unsinn was du da schreibst bzw. es wäre unsinn, 20 Jahre Erprobung zu fordern bevor sie überhaupt auf die Straße dürfen. Bzw. wo sonst sollte man die Fahrzeuge sinnvoll erproben?

In zwei identischen Parallelwelten wovon das Produkt dann in einer getestet wird -> man hat den perfekten Vergleich ;)
aber ich sehe es ähnlich zur Zeit gibts direkt vor unserem Kaff ne Umleitung, direkt unterm Ortsschild hängt noch nen fettes 30ger Schild (normal 50) aber 30% der Leute fahren mit 70 durch den Ort wo sie sonst nie durch müssen....

ansonsten Leute die 1L Flaschen Bier/Tetrapack während des fahren in der eine Hand haben oder das Handy....
selbst bei ner kleinen Unebenheit wenn Sie sonst noch gut auf die Straße schauen ist dann die *** vorprogrammiert.

Ich sage nicht die Computer sind perfekt, aber wenn man manche Situationen sieht wäre es teilweise sicher ne gute alternative.
 
https://www.youtube.com/watch?v=EAE0FLLUUGc

Ich hab lieber alle Fahrzeuge autonom, also solche Deppen im Straßenverkehr. Auch wenn der Autopilot nicht perfekt ist, der hat schoin einige Unfälle verhindert und Menschenleben gerettet.

Wie man dagegen sei kann erschließt sich mir nicht.
 
Euer blindes Vertrauen in die Technik, bzw. das was die daran arbeitenden Menschen leisten, führe ich mal auf mangelnde Erfahrung zurück.
Ändert Nichts daran, dass ein Zeiten, wo man noch immer nicht einmal zuverlässige Authentifizierung per Fingerabdruck hinbekommen kann, selbstständig fahrende Autos völlig vermessen sind.
 
Zuletzt bearbeitet:
Auch wenn der Autopilot nicht perfekt ist, der hat schoin einige Unfälle verhindert und Menschenleben gerettet.

Der Autopilot hat auch schon Unfälle verursacht und damit Menschenleben gekostet... - bedenke, jede Medaille hat zwei Seiten.

In der Anfangsphase wird es mehr und nicht weniger Unfälle geben, sei es nur, weil die menschlichen Fahrer auf die "vorsichtige" Fahrweise der per "Autopilot" gesteuerten Fahrzeuge allergisch reagieren werden... - wer am Ende Schuld ist wird nichts an den Tatsachen ändern.
In ferner Zukunft wenn alle Autos per "Autopilot" fahren wird deine Sichtweise wahrscheinlich zutreffen.
 
Euer blindes Vertrauen in die Technik, bzw. das was die daran arbeitenden Menschen leisten, führe ich mal auf mangelnde Erfahrung zurück.

Danke, ich kenne mich damit aus, denn ich arbeite in einem ähnlichen Bereich. Machine-Learning hat seine Grenzen, trotzdem sind die derzeitigen Autopiloten besser als besoffene Idioten, die dich ohne zu bremsen vom Fußgänger-Steig brezeln.

Ändert Nichts daran, dass ein Zeiten, wo man noch immer nicht einmal zuverlässige Authentifizierung per Fingerabdruck hinbekommen kann, selbstständig fahrende Autos völlig vermessen sind.
Du vergleichst also Ramsch-Software, welche von irgendwelchen Praktikanten in Java zusammengehackt wird mit einer KI, die schon Jahrzehnte an Evaluation, Verbesserung und Entwicklung von mehreren tausend Ingenieuren gesehen hat. Okay.

Der Autopilot hat auch schon Unfälle verursacht und damit Menschenleben gekostet... - bedenke, jede Medaille hat zwei Seiten.

In der Anfangsphase wird es mehr und nicht weniger Unfälle geben, sei es nur, weil die menschlichen Fahrer auf die "vorsichtige" Fahrweise der per "Autopilot" gesteuerten Fahrzeuge allergisch reagieren werden... - wer am Ende Schuld ist wird nichts an den Tatsachen ändern.
In ferner Zukunft wenn alle Autos per "Autopilot" fahren wird deine Sichtweise wahrscheinlich zutreffen.

Rentner mit Hut sind da genau so. Trotzdem lassen wir sie auf die Straße.
 
Zuletzt bearbeitet:
Wenn du in diesem Bereich arbeitest, solltest du wissen, dass es fehlerfreie SW nicht gibt...

Du vergleichst also Ramsch-Software, welche von irgendwelchen Praktikanten in Java zusammengehackt wird mit einer KI, die schon Jahrzehnte an Evaluation, Verbesserung und Entwicklung von mehreren tausend Ingenieuren gesehen hat. Okay.

Das kann er ruhig tun, zumal deine "KI" nur für Werbung taugt und nichts mit einer echten KI zu tun hat.
Jahrzehnte an Evaluation und mehreren tausend Ingenieuren würde ich auch etwas überdenken
- Jahrzehnte ist das Mehrfache von zehn und damit mindestens zwanzig...
- Ingenieure selten etwas mit SW zu tun haben und genau diese ist das Problem...

Fakt ist, dass diese Technik derzeit noch nicht ausgereift und die Infrastruktur an diese noch nicht angepasst ist - übrigens wird in Dubei mir Flugtaxis von einem deutschem Start-up getestet und da ist es auch nicht anders.
 
Manipulation sollte demnach in Zukunft direkt unter "versuchten Mord" bestraft werden. Selbst wenn man nur das Schild in der Hand hält und anbringen wollte, es dazu aber nicht kommen konnte.

Man stelle sich nur vor wenn jemand aus einem STOP Schild "50" macht. Etwas anders als versuchter Mord bzw. Mord ist das nicht.

Und an all jene die autonome Fahrzeuge verpotten oder falsch einschätzen... ihr gehört offenbar zu einer alten Generation. Durch autonome Fahrzeuge werden in Zukunft die Unfälle derart stark zurückgehen, das diverse Karosseriebetriebe schließen/schrumpfen können.
 
Zuletzt bearbeitet:
Der Autopilot hat auch schon Unfälle verursacht und damit Menschenleben gekostet... - bedenke, jede Medaille hat zwei Seiten.
Ein einziges bislang und tesla sagt auch dass man weiterhin auf die Straße schauen sollte. Zudem war eigentlich der LKW Fahrer da schuld und es ist nicht grade sicher dass ein normaler Autofahrer den Unfall vermieden hätte.

Wenn du in diesem Bereich arbeitest, solltest du wissen, dass es fehlerfreie SW nicht gibt...
Das würde ich als Softwarerentwickler nicht generell so unterschreiben.
Problem hier ist in erster Linie die Observation weil man bei autonomen Fahrzeugen, es mit der realen Welt zutun hat. In simulierten Welten mit deterministischer Umgebung kann man theoretische Perfektion erreichen wenn die Rechenleistung vorhanden ist, wodurch man nicht auf näherungsweiser Bestimmung angewiesen ist.

Sache ist jedenfalls der Mensch ist auch nicht grade perfekt und dessen Niveau in dieser Hinsicht zu erreichen ist definitiv nicht utopisch.
Noch nicht umfassend erreicht, aber auch nicht utopisch. Weitere 15 jahre (um auf die insgesamt 20 zu kommen) wird es eher nicht dauern.
 
Zuletzt bearbeitet:
Die 20Jahre hat mein Vorposter in die Vergangenheit verlagert, ich habe ihn lediglich darauf hingewiesen.

Aber angenommen die autonomen Fahrzeuge in perfekter Ausführung wären heute schon da, es würde mindestens noch 15Jahre dauern bis die Mehrheit eines hat - wäre dann eben eine Frage des Geldes.

Fakt ist, dass ich nie ein Fahrzeug kaufen werde das ich in Echtzeit überwachen muss und damit bin ich nicht alleine.
Technische Probleme sind mit Sicherheit irgendwann lösbar, ob es auch auf die anderen zutrifft will ich aber bezweifeln.

Trotzdem, eines ohne Lenkrad, nur mit Navi und Haftung durch den Hersteller - Notbremse vorausgesetzt von mir aus gerne.
 
Naja, die Zeit bis dahin wird aber fliessend sein. Schritt für Schritt kann man sich immer mehr entpannen. Bei den Teslas geht das ausserhalb der Stadt schon sehr gut.
Hoffentlich wird auch die Gesetzgebung rechtzeitig mitziehen.
 
@King Loui
Wäre man als Fahrer aber für den Unfall haftbar, wenn man wegen dem manipulierten Schild, es nicht lesen konnte?
Das ist ja am Ende das Selbe wie mit einem Autopiloten.

Natüich können wir von der Software wie vom Menschen erwarten dass er mit dem Schild wie auf den Bildern wie im Artikel, klar kommt weil es natürlich noch erkennbar ist.
 
Naja, die Zeit bis dahin wird aber fliessend sein. Schritt für Schritt kann man sich immer mehr entpannen. Bei den Teslas geht das ausserhalb der Stadt schon sehr gut.
Hoffentlich wird auch die Gesetzgebung rechtzeitig mitziehen.

Da du ja anscheinend in jeden zweiten Post einfließen lassen musst, dass Tesla ja sooo fortschrittlich ist...
Auch die Deutschen OEMs hängen mit ihren Assistenten nicht hinterher, Daimler mit der "neuen" S-Klasse hat definitiv Featuren, die Tesla irgendwann mal haben wird.

Die Tatsache, dass Software und auch vor allem Systeme nicht perfekt sind, ist leider Fakt. Bei der aktuellen Komplexität, die schon "einfache" Assistenten haben, ist die Fehlerfreiheit bei den späteren "intelligenteren" Fahrzeugen eher eine Illussion. Vor allem wenn man einmal selbst erlebt hat, wie eigentlich in dieser Branche entwickelt wird :heul:

Darüber hinaus hat die "Schildmanipulation" nur begrenzte Auswirkungen. Die guten Systeme arbeiten schon heute mit einem Abgleich vor Kartenmaterial und der Schildererkennung. Wenn jetzt auf einmal ein Stoppschild zu einer Geschwindigkeitsbegrenzung wird, dann ist das ein Fall wo das System den Fehler erkennen wird. Wenn nun natürlich in der Baustelle statt 60 das Schild auf "unbegrenzt" geändert wird, ist die Erkennung schon schwieriger.
 
Zuletzt bearbeitet:
Wenn du in diesem Bereich arbeitest, solltest du wissen, dass es fehlerfreie SW nicht gibt...

Jo, und? Selbst Medizinprodukte sind nicht fehlerfrei. Was ist jetzt das Argument? Das es nicht eingesetzt werden soll, bis es nicht 100% sicher ist? Dann darfst du sofort aufhören jegliche Technik zu benutzen.

Oder gehts hier um Zertifikate? Ja, dann darf der TÜV einen Standardtest für Autopiloten entwickeln und wenn der Autopilot den besteht (so ähnlich wie beim Abgas-Test, gelle?) dann ist ja alles Knorke.



Das kann er ruhig tun, zumal deine "KI" nur für Werbung taugt und nichts mit einer echten KI zu tun hat.
Jahrzehnte an Evaluation und mehreren tausend Ingenieuren würde ich auch etwas überdenken
- Jahrzehnte ist das Mehrfache von zehn und damit mindestens zwanzig...
- Ingenieure selten etwas mit SW zu tun haben und genau diese ist das Problem...

Fakt ist, dass diese Technik derzeit noch nicht ausgereift und die Infrastruktur an diese noch nicht angepasst ist - übrigens wird in Dubei mir Flugtaxis von einem deutschem Start-up getestet und da ist es auch nicht anders.

Ich könnte sogar Jahrtausende sagen, wenn ich die Arbeitszeit der Mitarbeiter hinereinander lege. An dieser Stelle müsste ich halt fragen, was dein Bewertungsmaß für "gut genug" ist. Denn ohne eine ordentliche Definition dafür können wir uns den ganzen Tag Sand in die Augen werfen und kommen keinen Schritt weiter.

Ansonsten ist es wohl richtig, dass richtig gute Programmierer am Quelltext arbeiten, während die Software-Ingenieure testen, entwickeln, forschen und evaluieren. Ohne diese Evaluation kann der Programmierer auch nix coden, weil er dann nicht wüsste, ob er den Parameter jetzt auf 0.1 oder auf 0.9 setzen soll. Aber das ist ja auch nicht das Thema hier, denn beim solchen Projekten arbeiten die Leute miteinander und nicht gegeneinander.

Zum Thema ausgereift: Siehe oben - bitte definiere wie du das bewerten würdest. Mit subjektivem "Mag ich nicht, alles doof" kann ich nur antworten "Mag ich, weils schon besser als Rentner mit Hut ist".
 
Zuletzt bearbeitet:
Um mal einen ganz anderen Aspekt wieder aufzugreifen, der bisher nur gestreift wurde:
Warum sollte man dem Fahrzeug zukünftig und in alle Zeit zumuten, dass es optisch Schilder liest, die für menschlische Fahrer gedacht sind und für uns auch ziemlich gut funktionieren (selbst wenn sie dreckig, beklebt, verdreht.... sind).

Die Signale kann man auch mit Georeferenzierung und Gültigkeitsbereich digital übertragen, abgesichert mit Zertifikaten und Signaturen. Das liefert viel umfassendere Informationen, ist viel hilfreicher für das Fahrzeug und dessen Karte, nicht von Sichtbedingungen abhängig.....

Hilft dem menschlichen Fahrer zwar nicht, aber der könnte irgendwann auch gar nicht mehr der Adressat der Info sein - und in der Übergangszeit könnte man auch jedes Schild, das neu aufgestellt oder ersetzt wird, um eine eletronische Version ergänzen.
 
Oder gehts hier um Zertifikate? Ja, dann darf der TÜV einen Standardtest für Autopiloten entwickeln und wenn der Autopilot den besteht (so ähnlich wie beim Abgas-Test, gelle?) dann ist ja alles Knorke.
Soetwas in der Art wird der Staat auf jeden Fall früher oder später aufsetzen müssen und zwar wegen der Haftungsfrage. Nur wenn ein Autopilot eingesetzt wird, der alle Normen erfüllt, kann ein Unfall als unvermeidbar/"höhere Gewalt" angesehen werden, so dass weder Fahrer, noch Entwickler direkt verantwortlich sind.

@Kuzorra
Ja, für sowas wurde erst kürzlich der "pWlan" Standard eingeführt. Allerdings ist das wohl eine Sache wo der Staat 10 jahre und mehr brauchen wird, um auf Trab zu kommen.
Vorerst wird wahrscheinlich alles über Datenbanken laufen. Eventuell wird man sich wenigstens mit den Behörden einigen können dass Änderungen wie z.B. baustellen auch an die Autohersteller übermittelt werden. Ähnlich wie bei Navi Karten.
 
Zuletzt bearbeitet:
[..] Hersteller die Software nicht für jedes Szenario anpassen oder sie gar Fehlerfrei halten kann. Dementsprechend ist es nur konsequent die Haftung auf den Fahrer selbst zu übertragen, denn dieser hat nach wie vor die Hoheit über das Fahrzeug und von diesem geht unmittelbar die Gefährdung aus. Ich halte diesen Ansatz auch dann noch für sinnvoll wenn Computer nachweislich besser als Menschen fahren können. Denn die Frage ob der Fahrer, bei voller Aufmerksamkeit mit den Händen am Lenkrad, tatsächlich besser hätte reagieren können als der Computer, [..]
Tja King Loui, was ist denn dann aber mit Automatisierung der Fahrfunktionen ab Level 3, wenn der Fahrer sich vom Geschehen abwenden darf (das gerne genannte Emailschreiben, Zeitunglesen etc) - dann ist er aus eben nicht mehr Herr des Geschehens, und spätestens dann ist der Ansatz "Haftung beim Fahrer" auch nicht mehr sinnvoll.
Gerade diesen Fall will der karierte Mann aus Bayern aber mit seinem "modernsten Verkehrsrecht der Welt" mit abdecken - allerdings inkl. Haftung beim Fahrer - was ich für zu kurz gesprungen halten. Industriefreundlich ja, kurz- und mittelfristig vielleicht auch noch kein allzu großes Drama, aber in Summe nicht der große Wurf sondern zu einem großen Teil Blendwerk.
 
Richtig. Da muss frûher oder Später eine Regelung her die auf höhere Gewalt hinaus läuft. Den Fahrer allein dafür für alles was das Fahrzeug tut, verantwortlich zu machen, weil er überhaupt in den Wagen eingestiegen ist, ist unsinnig.
Zumindest für Sachschäden gehe ich dafür aus dass die Autohersteller freiwillig die Haftung übernehmen werden, wenn die Software/Hardware schuld ist. Das wäre ein sehr gutes, fast notwendiges Werbeargument.
Das nimmt einem zumindest die Sorgen des Zivilrechts.
Wegen dem Strafrecht wenn jemand verletzt wird, wird sich die Politik hoffentlich etwas nicht fortschrittsbremsendes ausdenken.
 
Hm King Loui, ich glaube wir haben da entweder ein unterschiedliches Verständis, oder wir reden einfach nur etwas aneinander vorbei:
* Wenn ich die Kontrolle abgebe, dann gebe ich auch die Verantwortung (und Haftung) ab - das ist für mich der springende Punkt. *
Nochmal: Der Gesetzestext ist in dieser Form Quatsch - "der Fahrer darf sich abwenden, aber ist quasi ständig verpflichtet zu überwachen" widerspricht sich.
Die Definition der höheren Automatisierungslevel beinhaltet als Kernelement, dass der Fahrer das System eben nicht ständig überwachen muss (Tesla ist Level 2, auch wenn der ungeschickt gewählte Begriff "Autopilot" was anderes suggeriert). Wenn also OEMs ein System als Level3/4/5 bewerben und verkaufen, dass qua Definition nicht ständig überwacht werden muss, aber der Gesetzgeber für eben dieses System die Haftung dem Fahrer umhängt, wenn er das System nicht ständig überwacht, dann passt das nicht zusammen.Da kannst Du noch 3x auf das StVG hinweisen, davon verschwindet der Widerspruch nicht. **
Naja, es ist aber auch nicht fair dafür allein den Hersteller in die Pflicht zu nehmen. Denn immerhin hat der Fahrer ein eminentes Interesse daran befördert zu werden, außerdem geht das Gefährdungspotential nach wie vor von dem konkreten Fahrzeug aus, auf das der Fahrer vollumfänglich einwirken kann, hingegen der Hersteller während der Fahrt keinerlei Einfluss mehr auf das Fahrzeug hat.
Der Hersteller oder (Teil-)Systemlieferant, der das System entwickelt und in den Verkehr gebracht hat ist doch verantwortlich für die Art der Entscheidungsfindung des Fahrzeugs, wenn es automatisiert fährt. Der Hersteller lenkt es natürlich nicht unmittelbar aktiv in jedem Moment selbst, aber der Einfluss des Herstellers steuert das Fahrzeug doch vielmehr, als es der in dem Moment passive Insasse tut. **
Mit Deiner Argumentation bin ich auch schuld, wenn ich in der Straßen/S/U-Bahn verunglücke - da habe ich auch ein Beförderungsinteresse, ggf. keinen menschlichen Fahrer an Board und habe jederzeit die Möglichkeit, "vollumfänglich" die Notbremse zu ziehen.
....und im Bus habe ich zwar einen Fahrer und auch ein Beförderungsinteresse und kann ja dem Fahrer zurufen "da kommt ein LKW von rechts der uns gleich rammt!" - aber soweit ich weiß habe ich keine Teilschuld, wenn ich das unterlasse und meine "teilweisen" Einflussmöglichkeiten nicht ausreichend wahrnehme. **
Die Idee, autonomes Fahren würde es ermöglichen am Steuer zu schlafen, zu lesen usw., ohne das der Fahrer noch irgendeine Form von Verantwortung trägt, ist einfach Quatsch. Dazu müsste schon das Lenkrad entfernt werden und man dürfte kaum noch Einfluss auf die Fahrt selbst haben.
In der langfristigen Perspektive wird das aber die Konsequenz sein, auch wenn Autofahrerdeutschland das heute noch empört von sich weist. In ein paar Generationen wird man sich fragen, warum die unsicheren Vollidioten jemals den Großteil selber gefahren sind, was für ein Risiko und was für eine Zeitverschwendung. Außerdem wird man in einem automatisierten System, das nach einfacheren Regeln funktionieren kann, den irrationalen "Störfaktor Mensch" irgendwann auch nicht mehr tolerieren wollen. Solange der Mensch die überwiegende Mehrheit stellt sind automatisierte Systeme erst unbekannt und auch verboten, dann in der Erprobung unter speziellen Randbedingungen, dann in der Minderheit - andersrum wird der menschliche Fahrer "ausgephast" (Unterzahl, Randerscheinung, nur noch unter speziellen Randbedingungen zulässig, ausgeschlossen). Wer dann noch aus Spaß fahren will geht halt auf die Rennstrecke - da bezahlt man für den Spaß - und die Versicherung - und gut ist. Da hab ich die Kontrolle und muss auch für die Haftung geradestehen. **
Das verstehe ich nicht. Wenn Fahren dadurch sicherer wird ist das doch nur positiv.
Der Straßenverkehr wird ja nicht durch das Gesetz sicherer, sondern durch technischen Fortschritt....und der sollte unter den richtigen Rahmenbedingungen Einzug halten. Da das aber nicht morgen oder übermorgen passiert, sollte man die aktuelle Fassung bis dahin besser nochmal überarbeiten.


Auch wenn das jetzt schon sehr viel länger als geplant ausgefallen ist - das könnte ich alles noch deutlich weiter ausführen ;-)
 
Richtig. Da muss frûher oder Später eine Regelung her die auf höhere Gewalt hinaus läuft. Den Fahrer allein dafür für alles was das Fahrzeug tut, verantwortlich zu machen, weil er überhaupt in den Wagen eingestiegen ist, ist unsinnig.
Zumindest für Sachschäden gehe ich dafür aus dass die Autohersteller freiwillig die Haftung übernehmen werden, wenn die Software/Hardware schuld ist. Das wäre ein sehr gutes, fast notwendiges Werbeargument.
Das nimmt einem zumindest die Sorgen des Zivilrechts.
Wegen dem Strafrecht wenn jemand verletzt wird, wird sich die Politik hoffentlich etwas nicht fortschrittsbremsendes ausdenken.

Es ist ja zur Zeit so, dass der Fahrer trotzdem volle Haftung übernimmt und die einzige Möglichkeit das zu ändern, ist ein "hard lock" mode - also ein Modus, wo der Fahrer nicht eingreifen *darf*. Halt so ähnlich wie bei öffentlichen Vekehrsmitteln oder wenn man in ein Taxi einsteigt. So lange du Kontrolle selbst partiell) über den Wagen hast, bist du immer mit verantwortlich.

Aber nehmen wir mal an, es gibt in Zukunft autos, wo du genau das haben willst. Dann brauchst du keine Fahrerlaubnis mehr und der Innenraum wäre sowas wie eine Mini-Arbeitsplatz/Wohnstube.
 
@Kuzorra
So ist es. Bestehende Gesetze sind für autonomes Fahren ungeeignet.

@Shevchen
Die Mindestdefinition ist recht einfach.
Wenn das autonome System unter allen Bedingungen maximal so viele Fehler macht wie ein menschlicher Fahrer, dann hat es den Test bestanden.
Perfektion erwarte ich gar nicht, aber auch von diesem Zustand sind wir noch viele Jahre entfernt. Unter optimalen Bedingungen funktioniert das schon seit Jahren nahezu perfekt, allerdings gibt es diese überwiegend im Labor.

Das Gesetz wonach der Fahrer die Verantwortung für den Computer übernehmen soll ist auch so eine Sache, ist eigentlich wie bereits angesprochen ab Level 3 einfach obsolet. Natürlich wird das vor allem unsere Regierung anders sehen - da wartet schon ein netter Posten für die Zeit nach der Politik...

Übrigens,
habt ihr euch schon mal überlegt was passieren wird wenn alle nur noch mit Strom fahren? - die schöne Spritsteuer ist dann weg...
 
Es ist ja zur Zeit so, dass der Fahrer trotzdem volle Haftung übernimmt und die einzige Möglichkeit das zu ändern, ist ein "hard lock" mode - also ein Modus, wo der Fahrer nicht eingreifen *darf*. Halt so ähnlich wie bei öffentlichen Vekehrsmitteln oder wenn man in ein Taxi einsteigt. So lange du Kontrolle selbst partiell) über den Wagen hast, bist du immer mit verantwortlich.

Aber nehmen wir mal an, es gibt in Zukunft autos, wo du genau das haben willst. Dann brauchst du keine Fahrerlaubnis mehr und der Innenraum wäre sowas wie eine Mini-Arbeitsplatz/Wohnstube.
Ja, im Moment sind wir ja auch noch nicht bei Fahrzeugen die ausreichend sicher, ohne Menschliche Überwachung sind.
Fahrzeuge wo man das Lenkrad z.B. einklappen kann, sollte es irgendwann geben.

Ob es "viele Jahre" dauern wird? Mal sehen :)

Übrigens,
habt ihr euch schon mal überlegt was passieren wird wenn alle nur noch mit Strom fahren? - die schöne Spritsteuer ist dann weg...
Und der Feinstaub in den Städten glücklicherweise auch!
Ja, wahrscheinlich wird es irgendwann die ein oder andere neue Steuer geben, aber das erst nach einer kritischen Masse von mindestens 15-20% E-Autos.
 
@Shevchen
Die Mindestdefinition ist recht einfach.
Wenn das autonome System unter allen Bedingungen maximal so viele Fehler macht wie ein menschlicher Fahrer, dann hat es den Test bestanden.
Perfektion erwarte ich gar nicht, aber auch von diesem Zustand sind wir noch viele Jahre entfernt. Unter optimalen Bedingungen funktioniert das schon seit Jahren nahezu perfekt, allerdings gibt es diese überwiegend im Labor.

Das Gesetz wonach der Fahrer die Verantwortung für den Computer übernehmen soll ist auch so eine Sache, ist eigentlich wie bereits angesprochen ab Level 3 einfach obsolet. Natürlich wird das vor allem unsere Regierung anders sehen - da wartet schon ein netter Posten für die Zeit nach der Politik...

Übrigens,
habt ihr euch schon mal überlegt was passieren wird wenn alle nur noch mit Strom fahren? - die schöne Spritsteuer ist dann weg...

Okay, dann haben wir hier schon mal eine ähnliche Definition. Ich würde in meiner auch einen "Norm-Menschen" als "grünes" Kriterium einsetzen - nur würden dann wahrscheinlich als Konsequenz alle Rentner mit Hut von der Straße verschwinden (weils dann im Gesetzt ne "Update Pflicht" für Vekehrsteilnehmer geben würde - egal ob Mensch oder KI). :>

Ich würde auch eine Pflichtanpassung des Tests fordern. Technik entwickelt sich rasant weiter, entsprechend müssen auch alle Tests hinsichtlich der Funktionalität, Robustheit und Sicherheit (und ja, ich würde "Hacker" da drauf ansetzen die Dinger zu knacken) weiter entwickelt werden. Wenn der Hersteller pennt und "Adobe Flash" ähnliche Software als Autopiloten rausbringt, dann fliegt es halt hochkant durch den Test.

Nur: Das Problem damit ist nicht die Technik oder Robustheit, sondern der Gesetzgeber. Wenn der Autopilot sich weiterentwickelt, gibt es im Umkehrschluss den Menschen selbst als Gefahrenquelle. In Zukunft würde dann jeder Fahrer automatisch angezeigt werden, wenn er zu weit von der "Norm" abweicht und die Anzahl an Delikten würde durchs Dach schießen. (auf der anderen Seite würde es die Anzahl der "Deppen" innerhalb von wenigen Tagen um 95% reduzieren)

Das ist zwar per se erst einmal nicht schlecht, nur viele dieser Fahrer sind halt aufs Auto angewiesen. Und wenn zu viele davon ihren Job verlieren, weil denen der Schein entzogen worden sind, weint die Wirtschaft wieder usw... Die Konsequenzen gehen halt über einfaches "Toll/Schlecht" hinaus. Aber hier darf dann Lobby gegen Lobby kämpfen und da kanns für uns Bürger nur Gewinner geben, wenn die Parasiten sich selbst bekriegen.

Ja, im Moment sind wir ja auch noch nicht bei Fahrzeugen die ausreichend sicher, ohne Menschliche Überwachung sind.
Fahrzeuge wo man das Lenkrad z.B. einklappen kann, sollte es irgendwann geben.

Ob es "viele Jahre" dauern wird? Mal sehen :)
Die Sache ist, wenn alle Autos KI-gesteuert sind, kommst du auch viel schneller zur Arbeit. Ist aber ne schöne Zukunftsaussicht.


Und der Feinstaub in den Städten glücklicherweise auch!
Ja, wahrscheinlich wird es irgendwann die ein oder andere neue Steuer geben, aber das erst nach einer kritischen Masse von mindestens 15-20% E-Autos.
Wahrscheinlich ne Steuer auf seltene Erden, die in den Batterien eingesetzt werden. Aber dann gibts ganz schnell die Kohlenstoff-Nanoröhrchen-Mesh-Batterien usw...
 
wozu dann ein autonomes fahrzeug?
Vorerst - Die Teslas sind noch nicht "autonom"!
Gibt ja diese Klassifizierung:
Die fünf Level des Autonomen Fahrens Don Dahlmann (der Artikel hat auch ein paar gute Einschätzungen).
Die Teslas sind im Moment bei Stufe 3. Ein paar traditionelle Autobauer haben einige der Elemente davon noch weiter perfektioniert, aber Tesla bietet so in etwa das beste Rundumpaket.
Darüber hinaus behaupten sie, die Fahrzeuge hätten die Hardware für Stufe 4 oder gar 5 und es fehle nur an Software. Ob das stimmen wird, wird sich zeigen müssen.
 
Tesla ist auf Level 2 und muss ständig überwacht werden
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh