Tesla-Untersuchungsausschuss: Fahrer hatte 7 Sekunden zu reagieren

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.125
<p><img src="/images/stories/logos-2015/tesla_motors.png" alt="tesla motors" style="margin: 10px; float: left;" />Die National Highway Traffic Safety Administration oder kurz NHTSA hat den Untersuchungsbericht zu einem tödlichen Unfall im vergangenen Jahr veröffentlicht. Dabei war der Fahrer eines Tesla Model S gegen einen Sattelzug gefahren, der die Fahrbahn kreuzte. Der Autopilot des Model S war aktiv, erkannte den Anhänger aber nicht und interpretierte ihn wohl als Straßenschild, welches über die Fahrbahn gespannt ist.</p>
<p>Der Autopilot machte in diesem Fall also einen Fehler, dennoch fällt der Unfall nicht in die Verantwortung des Autopiloten, sondern in die des Fahrers. Dieser hatte laut Angaben des Untersuchungsberichts sieben Sekunden Zeit, um einzugreifen. Laut NHTSA ist...<br /><br /><a href="/index.php/news/hardware/auto/41665-tesla-untersuchungsausschuss-fahrer-hatte-7-sekunden-zu-reagieren.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist der Sinn des Autopiloten, wenn man die Verkehrssituation 24/7 selber kontrollieren muss? Übt man damit, ein Fahrschullehrer zu sein?
 
frag mal den nächsten Piloten den du triffst ;)
 
7 Sekunden sind nichts, wenn man nicht weiß, dass Gefahr droht. Der Fahrer war abgelenkt, durch was auch immer (Schlaf? Video? Musik?) und er wurde nicht gewarnt, also hatte er keine Zeit. Das System war zu diesem Zeitpunkt mangelhaft, wenn es abbiegende und querstehende LKWs nicht erkennt. Ein größeres Hindernis auf der Straße ist kaum denkbar.

Sicher ist der Fahrer verantwortlich und er hätte jederzeit zum Eingreifen bereit sein müssen. Aber meiner Meinung nach suggerieren Systeme mit solchen Namen eine Sicherheit, die einzelne Leute dazu veranlasst, dem Auto komplett die Regie zu überlassen und das System sollte vor solchem Missbrauch ausreichend geschützt sein. 7 Sekunden mit einem querstehenden LKW ... da hätte auch das System reagieren können.

Und bitte keine Diskussion über Autopiloten in Flugzeugen. Die Fahrausbildung hat nicht die Qualität, wie die eines Piloten. Frag 100 Leute, was ein Autopilot macht und 99 werden antworten: Er kann das Flugzeug alleine fliegen. Daher auch meine Wortwahl "suggerieren".
 
Zuletzt bearbeitet:
Und deshalb nennt man die Systeme auch meist "driver assistance systems". Ich weiß allerdings nicht ob Tesla im speziellen von Autopilot spricht.
 
7 Sekunden sind nichts, wenn man nicht weiß, dass Gefahr droht. Der Fahrer war abgelenkt, durch was auch immer (Schlaf? Video? Musik?) und er wurde nicht gewarnt, also hatte er keine Zeit. Das System war zu diesem Zeitpunkt mangelhaft, wenn es abbiegende und querstehende LKWs nicht erkennt. Ein größeres Hindernis auf der Straße ist kaum denkbar.

Sicher ist der Fahrer verantwortlich und er hätte jederzeit zum Eingreifen bereit sein müssen. Aber meiner Meinung nach suggerieren Systeme mit solchen Namen eine Sicherheit, die einzelne Leute dazu veranlasst, dem Auto komplett die Regie zu überlassen und das System sollte vor solchem Missbrauch ausreichend geschützt sein. 7 Sekunden mit einem querstehenden LKW ... da hätte auch das System reagieren können.

Und bitte keine Diskussion über Autopiloten in Flugzeugen. Die Fahrausbildung hat nicht die Qualität, wie die eines Piloten. Frag 100 Leute, was ein Autopilot macht und 99 werden antworten: Er kann das Flugzeug alleine fliegen. Daher auch meine Wortwahl "suggerieren".


Dann hör auf irgendwas in irgendwelche Begriffe zu suggerieren und hör zu wenn dir der Wagen übergeben wird? Und nicht nur das. Bevor du den Autopilot in deinem Tesla anschalten kannst, darfst du dir erstmal Informationen dazu durchlesen. Wenn du nicht drauf hörst was dir gesagt wird, du dir die Erklärungen nicht durchliest und irgendwo anfängst mit "suggerieren" zu argumentieren bist ganz alleine Du schuld. Niemand sonst.
 
Ja, ich habe geschrieben, dass der Fahrer schuld ist und das System missbraucht hat. Wörtlich sogar.

Liest Du nur die Zeilen, die für Deine pampigen Antworten am besten in den Kram passen?

Und deshalb nennt man die Systeme auch meist "driver assistance systems". Ich weiß allerdings nicht ob Tesla im speziellen von Autopilot spricht.

Und was macht man, wenn man nichts weiß? Nichts sagen, oder sich weiterbilden: https://www.tesla.com/de_DE/autopilot
 
Zuletzt bearbeitet:
Ja, ich habe geschrieben, dass der Fahrer schuld ist und das System missbraucht hat. Wörtlich sogar.

Liest Du nur die Zeilen, die für Deine pampigen Antworten am besten in den Kram passen?



Und was macht man, wenn man nichts weiß? Nichts sagen, oder sich weiterbilden: https://www.tesla.com/de_DE/autopilot


Nein. Habe ich sehr wohl gelesen und verstanden. Aber genauso habe ich verstanden was du über das suggerieren geschrieben hast. Du etwa nicht?
 
Zu der Aussage stehe ich, da sehe ich kein Problem, auch dann nicht, wenn Du eine andere Meinung hast.
 
Unabhängig davon wie der Hersteller das System nennt, man hat in der Regel auch einen gesunden Menschenverstand.
Und wenn man bei einem Autopiloten (der in der kompletten Anfangsphase steckt) anfängt während der Fahrt Filme anzugucken, ist das einfach nur dumme Naivität.

@Mandara: Es erleichtert einem die Fahrt ungemein. Bist du schon mal mit einem automatischen Abstandshalter gefahren? Auch wenn man weiterhin aufmerksam sein sollte/muss, ist es viel entspannter.
 
@Sheena
Solche Systeme sollten, besonders wenn sie "Autopilot" genannt werden, möglichst idiot proof sein. Unfälle, selbst wenn der Fahrer schuld ist, machen sich trotzdem nicht gut für die Unfallstatistik von Tesla.

Ließt du übrigens auch die ganzen kleingedruckten AGBs der Apps, die du auf deinem Smartphone installierst? Oder AGBs von sonstiger Software oder des ISP usw.?


@Chrom X6
Ich habe nur ein stinknormales Auto.
 
Zuletzt bearbeitet von einem Moderator:
@Sheena
Ließt du übrigens auch die ganzen kleingedruckten AGBs der Apps, die du auf deinem Smartphone installierst? Oder AGBs von sonsiger Software oder dem ISP usw?

Das kannst du wirklich nicht vergleichen. Der Unterschied ist dass mich ein fehlerhafter Autopilot töten kann, eine Smartphone-App nicht. Da macht es schon Sinn sich alles ordentlich durchzulesen.
Genauso wirst du wenn Du dir ein Haus kaufst den Vertrag genau durchlesen, und nicht sagen "ach, wenn ich eine App installiere lese ich mir das ja auch nicht durch". :-)
 
die einzelne Leute dazu veranlasst, dem Auto komplett die Regie zu überlassen..

das ist dann wohl Teil der natürlichen Selektion :d

Und der Kauf eines Teslas kann man dann doch nicht so ganz mit dem herunterladen einer App aus dem Store vergleichen.
Laut einem Bekannten dauerte bei ihm die Übernahme seines Model S ca. 1h, bei dem alles bis auf das Letzte erklärt wurde.
Von dem her sollte es eigentlich keine Unklarheiten geben was der Autopilot kann bzw. nicht kann.
 
@Sheena
Solche Systeme sollten, besonders wenn sie "Autopilot" genannt werden, möglichst idiot proof sein. Unfälle, selbst wenn der Fahrer schuld ist, machen sich trotzdem nicht gut für die Unfallstatistik von Tesla.

Ließt du übrigens auch die ganzen kleingedruckten AGBs der Apps, die du auf deinem Smartphone installierst? Oder AGBs von sonstiger Software oder des ISP usw.?

Du meinst die Unfallstatistik wo Tesla besser da steht als herkömmliche Autos? Ja - sieht wirklich übel aus! Und das System ist schon ziemlich Idiotensicher. Ohne dich mit dem Wagen auseinander zusetzen ist es unwahrscheinlich das du den Autopiloten aktiviert bekommst.
Und nein, ich lese mir das kleingedruckte meistens nicht durch. Nur ist es beim Tesla nicht kleingedruckt sondern wird ausreichend groß geschildert, wenn ich mich nicht Irre steht da sogar in roter Schrift groß "Achtung!" oder sowas. Und wie erwähnt - wird es nicht nur per Schrift gekennzeichnet. Du musst es seperat dazu kaufen beim Auto - da gibt es eine Erklärung. Und nochmals bei der Übergabe wird es erklärt. Dreimal wirst du eindeutig gewarnt, dreimal willst du es ignorieren? Sorry, aber wer so Resistent gegen Erklärungen ist oder so Naiv ist, der hat andere Probleme als Teslas Autopiloten. Denn jeder der einen Führerschein hat sollte ein grundlegendes Maß an Intelligenz besitzen. Wer sich dann trotzdem gegen die Erklärungen stellt der packt auch jedes mal erneut auf die heiße Herdplatte und steckt Gegenstände in die Steckdose die dort nicht hingehören.
 
Ganz einfach: Der Tesla war zu schnell (laut Zeugenaussage ~120-150kmh. Ist das möglich im Autopiloten?) und der LKW ist mehr oder weniger unerlaubterweise einfach links abgebogen ohne wirklich sicher zu stellen das von vorne wirklich niemand kommt. Der Tesla wurde übersehen und die Sensoren haben diese Situation nicht richtig erkannt.
Klar ist die Sensorik Kamera/Sonar deshalb auch als fehlerhaft zu deklarieren.

Aber zwei Umstände, das zu schnelle Fahren und der LKW der den Unfall erst überhaupt provoziert hat (er ist NICHT den Vorschriften entsprechend abgebogen) haben diesen Unfall dann erst überhaupt in diesem Ausmaß möglich werden lassen.
Ein LKW kann nicht einfach vor der Nase in den Gegenverkehr abbiegen und sich sagen "der Gegenverkehr wird schon bremsen".

Das es jetzt einen Tesla S erwischt hat und nicht einfach einen anderen ganz normalen Wagen, der auch schnell gewesen wäre, ist wohl purer Zufall und wiegt schwer auf der Marke Tesla.
Ein aufmerksamer Fahrzeugführer mag in dieser Situation durch eine Gefahrenbremsung vielleicht auch entweder aufgefahren oder auf die Leitplanke gefahren sein, aber er hätte eventuell nicht so enden müssen wie der Tesla Fahrer, der einfach schier ungebremst unter den LKW hindruch gedonnert ist..

Die gesamte Situation ist nicht rein vom Tesla Autopiloten entstanden sondern sie ist auch das Resultat eines Fahrfehlers (LKW) eines anderen Menschen ...
Jetzt muss sich Tesla daran setzen außergewöhnliche Situationen besser in den Griff zu bekommen. In Deutschland wurden die Autopiloten durchgiebig getestet und es wurde festgestellt das sich der Autopilot manchmal in einer Art "Blindflug" befindet sobald das System überfordert ist. zB gelbe Markierung auf der Autobahn.
 
Zuletzt bearbeitet:
ist doch dasselbe wie heute schon ein Auto, nicht "idot proof" ist.

Es ist eine Krankheit unserer Zeit, für nix mehr verantwortlich sein zu wollen.
"Das Navi hat mir gesagt ich soll da durch fahren" :stupid:
Sowas gehöre doch bitte der Führerschein entzogen.

Fakt ist, dass ein Assistenzsystem sogar mehr Aufmerksamkeit erfordert.
Gerade weil man nicht immer eingreifen muss, gerade weil die Systeme so lange so gut funktionieren, lässt die eigene Wachsamkeit nach.

Warum glaubt ihr lösen die Metalldetektoren am Flughafen auch Zufallsbasiert aus? Damit sich keine Routine einschleicht...
 
Der Artikel bestätigt eigentlich schon meine Vermutung - der "Autopilot" ist eigentlich dazu gedacht, dass man jedes Mal selbst eine Vollbremsung hinlegt, sodass er es übernehmen kann, wenn man in einem von 1.000 Fällen mal ausnahmsweise nicht erkannt hat, dass man bremsen sollte.

Ich finde es trotzdem fahrlässig, das Teil "Autopilot" zu bezeichnen, weil es suggeriert, dass das Auto zuverlässig ohne Fahrer fahren könnte, und das tut es eben nicht so zuverlässig, wie andere Autos ohne "Autopilot" und mit Fahrer.

Zudem fragt sich natürlich, ob hierzulande dieser Autopilot überhaupt funktionieren würde. In Amerika hat man ewig lange, langweilige, kerzengerade Highways - dass da so viele Unfälle passieren liegt definitiv nicht daran, dass die Leute nicht fahren könnten, oder die Straßen besonders gefährlich werden, sondern weil es dermaßen einschläfernd ist, dass die Aufmerksamkeit extrem beeinträchtigt ist.
Ich kenne es ja selber - ist mal eine längere Autobahnstrecke mit wenig Verkehr hier mit 100 oder 120 begrenzt, merke ich selbst, wie extrem schwer es wird, noch wach zu bleiben, obwohl ich eigentlich völlig ausgeschlafen bin - und 140 fahren die nunmal in den USA maximal...
Bei 200 schläft aber kein ausgeschlafener, fahrtüchtiger Mensch ein.

Dass der "Autopilot" in Amerika also das Unfallrisiko bei denen, die vielleicht nicht gerade Harry Potter nebenher schauen, senken kann, mag also ausnahmsweise sein, ich bin mir aber sehr sicher, dass die Statistik hierzulande völlig anders aussehen würde, weil die Deutschen durch die Art der Straßen und die höheren Geschwindigkeiten sowieso viel aufmerksamer sind.
Zudem sind da ja auch alte Leute mit schlechter Sicht und junge, lebensmüde Idioten miteinberechnet - wenn die also die Statistik mit ihrem x- Fachen Risiko vom Durchschnitt in die Höhe ziehen, heißt das bei weitem nicht, dass der Autopilot das Unfallrisiko für jeden verringert - tendenziell würde ich bei mir davon ausgehen, dass er es eher verschlechtern würde.

Ich sehe es leider schon kommen, dass andere das Ding auch einführen und ich künftig ständig kurz vor Brücken eine Vollbremsung hinlegen muss, weil der "Autopilot" meines Vordermannes "zur Sicherheit" sensibler eingestellt ist, als der von Tesla.


Meiner Meinung nach sind ABS, ESP und Tempomat das maximale, was automatisiert werden sollte.
Bereits das automatische Abstandhalten zum Vordermann finde ich sehr gefährlich, weil es wie der Autopilot dazu einlädt, sich drauf zu verlassen - und zudem hatte ich mal so ein Testfahrzeug, was dann beim Beschleunigen auf der Autobahn - um zum Überholen anzusetzen - plötzlich den Saft abgedreht hat, weil ich wohl mit meiner rechten Autohälfte seiner Ansicht nach zu nah am vorderen Auto war, obwohl das natürlich Schwachsinn ist, weil ich ja gerade dran vorbei fahren wollte.
Fahrassistenzsysteme sind nur so lange gut, wenn ich bei perfekter Fahrweise von ihnen niemals etwas mitbekomme, und sie mir helfen, das Auto genauso zu steuern, wie ich es als Fahrer will - selbst wenn es gegen eine Wand gehen soll.
 
Zuletzt bearbeitet:
Komische schlussvolgerung der Untersuchung....
Der "Autopilot" hat keine verantworung wenn er auf eine Gefahr nicht reagiert? nichtmal eine Warnung wurde ausgegeben dass das System nicht mehr arbeiten kann! normalerweise sollte man dann erwarten können dass das System selbständig abbremst, und den Fahrer eine übernahme des Steuers bestätigen lässt.

Viel gravierender ist aber: Der Tesla hat weder festgestllet, dass er einen Unfall hatte, noch dass sein halbes dach weg und sein Fahrer tot war. Er hat erst einen Unfall erkannt und die Bremsung aktiviert als er 30 m weiter gegen eine Laterne? geprallt war. Dass ist in meinen Augen dass eigentliche PRoblem, dass zeigt wie unausgereift die Tesla Software ist.
 
So lange ein "Autopilot" nicht durch den deutschen Gesetzgeber als solcher grünes Licht bekommt, ist es kein Autopilot. Wer die Hände vom Lenkrad nimmt ohne zertifizierten Autopiloten ist zu 100% selbst schuld. Der Typ hat sich nen Darwin-Award abgeholt und jetzt schrecken alle Leute auf, die den gleichen Mist gemacht haben und fürchten sich auf einmal um ihre Leben, weil sie unverantwortungsvoll gehandelt haben. Tja - Pech. Jeder ist für seine Handlungen selbst verantwortlich. Wer das nicht will, sollte nicht handeln und seine persönliche Souveränität an einen Betreuer abgeben und sich einweisen lassen.
 
Also bei Heise.de liest sich das doch anders.. Don sei mir nicht böse, aber das klingt nach Tesla Bashing..

https://www.heise.de/newsticker/mel...Autopilot-Unfall-Anleitung-lesen-3603379.html

Zitat: Die "Untersuchung hat keine Defekte in Design oder Leistung des [automatischen Notfall-Bremssystems] oder des Autopiloten des gegenständlichen Fahrzeugs gefunden, und auch keine Fälle, in denen die Systeme nicht so gearbeitet haben, [wie wofür sie gebaut wurden]", schreibt das Büro für Defektuntersuchungen der NHTSA. Das automatische Bremssystem sei für Auffahrunfälle konzipiert und "nicht dazu gebaut, in allen Situation verlässlich zu funktionieren, darunter Kollisionen mit Querverkehr."

Der Autopilot wiederum erfordere "die kontinuierliche und volle Aufmerksamkeit des Fahrers." Er müsse den Verkehr beobachten, und zum Eingreifen bereit sein, um Zusammenstöße zu verhindern. Anders gesagt: Dass das Auto den Querverkehr nicht bemerkt hat, war bauartbedingt und kein Gebrechen. Vielmehr hätte der Fahrer den Querverkehr bemerken und bremsen müssen. Denn auch Teslas sind noch lange keine autonomen Fahrzeuge.

Das liest sich dann doch eher nach diesem Tempomat Thema aus den 70ern wo die Amis auch meinten man könne mal eben Kaffee kochen während das Auto die Straßen entlangfährt. Sorry aber NULL Verständnis für den Fahrer, Tesla hat da genauso wenig Schuld, wie es ein Volvo oder ein Benz hätte. Wir reden ja immer noch von Stufe 2.
@Sekas: Es nennt sich ja Driver assisted.. Also MUSS der Fahrer jederzeit die Kontrolle wahren. Und das gleiche Problem haben fast alle Automodelle mit Stufe 2.. Steht sogar im Handbuch ;) Auch hier ist dann nicht die Software schuld sondern schlichtweg die Technik und die Rechenleistung, ergo der Preis.. Ein Lidar System kann man nicht für 120.000€ erwarten. Du kannst nen Benz auch mit einer Coladose rumfahren lassen, autonom.. Baust du jedoch einen Unfall ist es eben DEINE Schuld. Sorry aber manche Leute sollten echt Handbücher lesen.
 
Der Fahrer war eindeutig der größte HarryPotter Fan den es gab - er hat sein Leben dem schauen von HarryPotter Filmen untergeordnet.
 
So lange man aber "eingreifbereit sein" muss, wie es so schön heisst, sind Autopilotfunktionen reiner Plüsch, nutzlos und teuer.
Ich sehe jedesmal wenn ich im Mercedes fahre, wie die Assistenzsysteme eben nicht hundertprozentig funktionieren. Ziemlich oft werden zum Beispiel die Verkehrsschilder der anderen Fahrspur oder Abbiegespur gelesen und dann die angeblich zu hohe Geschwindigkeit angemahnt, obwohl ich mich genau an die Geschwindigkeit halte.
Das sind zwar harmlose Aussetzer, aber wenn ein Auto erstmal wirklich selbständig fahren soll, dann dürfen solche Falschauswertungen nicht mehr vorkommen.
Von daher sind wir noch weit weg vom echten autonomen Fahren.
 
Der Fahrer war eindeutig der größte HarryPotter Fan den es gab - er hat sein Leben dem schauen von HarryPotter Filmen untergeordnet.
Vielleicht dachte der Fahrer, dass sein Auto verzaubert war und schon alles richtig regeln würde... Fliegen(wie beim 2. Teil) konnte es aber nicht.
 
So lange man aber "eingreifbereit sein" muss, wie es so schön heisst, sind Autopilotfunktionen reiner Plüsch, nutzlos und teuer.

Genau. Sie sind eigentlich nur Spielereien, um zu zeigen, was möglich wäre, wenn es denn perfekt funktionieren würde. Aber einen Mehrwert bringen sie nicht, wenn sie nicht absolut zuverlässig sind, sondern lenken eventuell noch zusätzlich ab, weil man immer schauen will, ob das Schild jetzt richtig gelesen wurde und so die Schilder quasi doppelt liest.

Ich finde, man sollte erst mal die Automatik so weiterentwickeln, dass sie bei Beschädigung der Platine nicht plötzlich Gas geben kann... (Der Grund, warum ich ausschließlich mit Schalthebel fahre) Dann kann man sich vorsichtig überlegen, ob man noch größere Projekte angeht. Alles andere halte ich für Selbstüberschätzung und hoffe, dass am Ende noch die Vernunft siegt, die eben erkennen sollte, dass ein Auto ein Mordsgerät darstellen kann, wenn es funktionale Defekte und Instabilitäten aufweist.
 
Ich finde, man sollte erst mal die Automatik so weiterentwickeln, dass sie bei Beschädigung der Platine nicht plötzlich Gas geben kann... (Der Grund, warum ich ausschließlich mit Schalthebel fahre).

Bitte was?^^
Genau. Sie sind eigentlich nur Spielereien, um zu zeigen, was möglich wäre, wenn es denn perfekt funktionieren würde. Aber einen Mehrwert bringen sie nicht, wenn sie nicht absolut zuverlässig sind, sondern lenken eventuell noch zusätzlich ab, weil man immer schauen will, ob das Schild jetzt richtig gelesen wurde und so die Schilder quasi doppelt liest.

Ein automatisches Bremssystem ist doch praktisch falls du mal etwas übersiehst oder nicht schnell genug reagieren kannst, das gibt es schon bei vielen Herstellern in den teureren Autos und sollte bald in so ziemlich jedem sein.



Und mal allgemein zu Tesla:
Wenn man als Frima sein Produkt als so toll bewirbt und Marketing betreibt (gibt genug Videos in denen gezeigt wird wie toll das Auto doch alleine fahren kann), dann noch seine Technologie als "Autopilot" bezeichnet (und nein das ist kein Zufall, dass das so heißt), also ganz bewusst suggeriert, dass das Produkt ja quasi von alleine fährt (die Aufklärungen etc. sind da damit sie nicht verklagt werden und das ganze verboten wird), ja dann muss ich mir auch anhören wie hart man es verkackt hat, wenn mein toller Autopilot Leute Tod fährt.
 
Und mal allgemein zu Tesla:
Wenn man als Frima sein Produkt als so toll bewirbt und Marketing betreibt (gibt genug Videos in denen gezeigt wird wie toll das Auto doch alleine fahren kann), dann noch seine Technologie als "Autopilot" bezeichnet (und nein das ist kein Zufall, dass das so heißt), also ganz bewusst suggeriert, dass das Produkt ja quasi von alleine fährt (die Aufklärungen etc. sind da damit sie nicht verklagt werden und das ganze verboten wird), ja dann muss ich mir auch anhören wie hart man es verkackt hat, wenn mein toller Autopilot Leute Tod fährt.


Ich liebe Halbwissen. <3

- - - Updated - - -

Autopilot was first offered on October 9, 2014
Genau deshalb gibt es doch die ganze Debatte überhaupt. Also lest erstmal alles und macht dann einen auf allwissend.
Genau diese "Fahrassistenten" die alle teureren Autos auch haben, heißen bei Tesla seitdem "Autopilot".
"Man erwartet das die Software "Autopilot" von Tesla ende 2017 dann vll. wirklich selbst fahren kann." Das behauptet Tesla.

So und durch diese Namensnennung + Marketing suggeriert man sehr wohl, dass das Ding !!quasi!!! selbst fahrt. Ich habe nicht behauptet, dass es das auch tut.
Das wird auch klar, wenn man sich den ersten Teil mal durchließt als Antwort auf die Bewertung der Technik von Tesla durch overclocker
Ein automatisches Bremssystem ist doch praktisch falls du mal etwas übersiehst oder nicht schnell genug reagieren kannst, das gibt es schon bei vielen Herstellern in den teureren Autos und sollte bald in so ziemlich jedem sein.

Und bei Tesla hat ja dann wohl sowohl das Notfall Bremssystem (falls der tolle "Autopilot" das schon hat) als auch das Abstandssystem komplett versagt.

Also komm mir nicht mit so dummen Kommentaren, wenn du selbst noch weniger "Halbwissen" hast.

Edit:
Scheiß Forenbug.. das oberer Kommentar ist von irgendwem anders.
 
Zuletzt bearbeitet:
Kann es sein, dass Du hier 2 Accounts benutzt? Der Kommentar stand da eben noch als von "Sheena" geschrieben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh