[Sammelthread] Elektroautos

Glaube das wäre dann doch ein Argument gegen einen Tesla für mich :/

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso? Ist doch ein Feature?

Safety is at the core of our design and engineering decisions. In 2021, we began our transition to Tesla Vision by removing radar from Model 3 and Model Y, followed by Model S and Model X in 2022. [...]

An dem ganzen Text hat die Marketingabteilung bestimmt lange Zeit gesessen. :d
Laut bestätigten* Gerüchten war die erste Version des Textes eher so:
"We care for safety, but only if it doesn't conflict with our need to generate more money. So we removed radar. Deal with it! [...]"

* Quelle: Beitrag #1933 dieses Threads.
 
Jo, was soll schon schief gehen

For a short period of time during this transition, Tesla Vision vehicles that are not equipped with USS will be delivered with some features temporarily limited or inactive, including:

  • Park Assist: alerts you of surrounding objects when the vehicle is traveling <5 mph.
  • Autopark: automatically maneuvers into parallel or perpendicular parking spaces.
  • Summon: manually moves your vehicle forward or in reverse via the Tesla app.
  • Smart Summon: navigates your vehicle to your location or location of your choice via the Tesla app.
In the near future, once these features achieve performance parity to today’s vehicles, they will be restored via a series of over-the-air software updates. All other available Autopilot, Enhanced Autopilot and Full Self-Driving capability features will be active at delivery, depending on order configuration.
 
Sehe ich nicht so kritisch, aber die Art und Weise wie Tesla da vorgeht kann ich nicht gutheißen. Das ist einfach un-clever ein unfertiges Produkt zu übergeben mit dem Hinweis das die Funktionen nachgeliefert werden und die Besteller vor den Kopf zu stoßen. Das ist beim Wechsel von AP1 zu AP2.5 (wegrationalisierter Regen + Licht-Sensor und unfertige Schilder Erkennung) passiert, kurzfristige Umstellung auf die BLE Rad-Sensoren, Elektrisch verstellbare Lordose-Stütze auf der Beifahrerseite, dann bei den Daten USB Ports (die versprochene Bluetooth Kontroller Unterstützung fehlt bis heute), dann Wegfall des Radars mit Limitierung auf 120kmh, später (inzwischen) 140kmh und und jetzt Wegfall der Ultraschall Sensoren. :(

Tesla könnte sich soviel Zorn und Unmut der Erstbesteller ersparen, das ist echt traurig.

Warum nicht erst das fertige Produkt auf den Markt bringen welches auf dem gleichen Level funktioniert wie das System welches abgelöst wird?! ggf noch ein Demonstration Video dazu welches das System erklärt um die Unsicherheit zu nehmen.

Gruß
BUG
 
Zuletzt bearbeitet:
Ich plane meine Termin nach meinen und Kundenwünschen ein und möchte da nicht noch überlegen wo ich wie lange zum Nachladen brauche.
Das Argument kommt aber auch nur von Menschen, die noch nie E-Auto gefahren sind. Ich hatte beruflich eine Zeit lang viel mit Kommunen und den Fuhrparks von Stadtverwaltungen und ähnlichem zu tun, die auch den Tag über regelmäßige und unregelmäßige Termine haben. Die hatten auch erstmal viele Vorbehalte und am Ende ist es immer das Gleiche. Entweder es gibt Ausnahmefälle, in denen ein E-Pkw einfach nicht passt (ist nur sehr selten) oder es funktioniert super, auch wenns keiner gedacht hätte. Das ist nicht die komplizierte Wissenschaft, für die es viele halten. :fresse:
 
Jo, was soll schon schief gehen
Erst Radar gestrichen, dann Ultraschall gestrichen, als nächstes wird auch die Kamera gestrichen. Das Auto fährt dann nur mit den Satellitendaten von Musks Weltraumflotte.
 
Das ist alles nicht tragisch, wenn das Ersatz-System (in diesem Fall "Tesla-Vision") mindestens genauso gut die Aufgabe erfüllt mit der Aussicht das es noch besser wird. Dummerweise gab es da halt auch schon Rückschläge, aber jegliche Änderungen anzuzweifeln hilft auch nicht.

 
Das ist alles nicht tragisch, wenn das Ersatz-System (in diesem Fall "Tesla-Vision") mindestens genauso gut die Aufgabe erfüllt mit der Aussicht das es noch besser wird. Dummerweise gab es da halt auch schon Rückschläge, aber jegliche Änderungen anzuzweifeln hilft auch nicht.
Glaube das größte Problem ist es was rauszuwerfen OHNE den Ersatz fertig zu haben. Aber was weiß ich schon, ich mag ja auch Knöpfe im Auto 🫠
 
Ja, da stimme ich zu, wenigstens sollten die Grundfunktionen alle funktionieren. Generell ist ein 80/20 Ansatz nicht verkehrt, der Lern-Erfolg ist in der Breiten Masse viel größer (einfach weil viel mehr Daten vorliegen) als wenn jeder Entwickler 1000x Scenarios durchspielt und trotzdem Fehler im System sind, aber sich das Ganze 1 Jahr verzögert.
 
Ja, da stimme ich zu, wenigstens sollten die Grundfunktionen alle funktionieren. Generell ist ein 80/20 Ansatz nicht verkehrt, der Lern-Erfolg ist in der Breiten Masse viel größer (einfach weil viel mehr Daten vorliegen) als wenn jeder Entwickler 1000x Scenarios durchspielt und trotzdem Fehler im System sind, aber sich das Ganze 1 Jahr verzögert.

Als Dankeschön sollten die Firmen dann auch erstmal nur 80% des Geldes bekommen und wenn alles funktioniert dann die restlichen 20%.

Dann haben die Hersteller auch genug Anreize es schnell fertig zustellen.
 
Das wird in diesem Fall sogar so gemacht, die Zusatz-Pakete werden mit steigenden Funktionsumfang und Fortschritt immer teurer.

EAP/FSD (Beta) hat mal 1800/3000€ gekostet, inzwischen sind es 3800/6000€ bzw. inzwischen 7500€ (in den USA inzwischen sogar 15.000$).
 
Zuletzt bearbeitet:
Ich frag mich halt immer wie Kameras bei starkem Nebel funktionieren. Also im Vergleich zu Radar z. B. 🤷‍♂️
 
Dann wäre das ja nicht möglich..

Ein Radar hätte den LKW nicht zeitiger erkannt sondern später, da die Auflösung des Radars ab 140 Metern meist deutlich abnimmt und stark "ver-rauscht". Es gibt sicherlich 1% Edge Cases in denen Radar aktuell noch besser funktioniert und genauere Daten liefert, aber in den anderen 99% wird ein Kamera Basiertes KI System besser, komfortabler und sicherer funktionieren (zu mindestens wenn man die KI Software im Griff hat und weiter verbessert). Nicht ohne Grund funktioniert eine Bilderkennungs Software viel schneller und genauer/zuverlässiger wenn die KI dahinter gut trainiert ist.

Tesla hat hier die letzten 2 Jahre auch massiv fortschritte gemacht und die KI mit den Kamera Daten trainiert und Radar/Lidar Signale mit den Bildern der Kameras kalibriert und viele Gemeinsamkeiten im Bild fest-gestellt auf das die KI dann trainiert wurde.

Edit: Leider wird der Licht-Sensor für Auf/Abblend-Automatik sowie der Regensensor stark vernachlässigt, Schildererkennung ist auch so eine neverending Story. Aber bzgl. Schilder Erkennung ist Licht am ende des Tunnels zu sehen und eher eine Europäisches problem, im Heimatland funktoniert die inzwischen recht anständig. Sobald wir in Europa auf SingleStack umgestellt werden, wird auch die Schildererkennung funktionieren, vielleicht noch nicht perfekt aber auf jedenfall besser als heute.

Gruß
BUG
 
Zuletzt bearbeitet:
Haben die betroffenen Modelle überhaupt Kameras in der Stoßstange vorne? Wie können die mir beim Einparken helfen, wenn das Auto da nix sieht?
 
Nein, hat keine Kamera an besagter Stelle, Aber: Höchstwarscheinlich (im Endausbau): Das Auto merkt sich seine Umgebung beim Einparken, das Autro spawnt ja nicht plötzlich irgendwo und befindet sich an einem fremden Ort. Man kann jetzt sicherliche eine Situation konstruieren, wo das System an seine Grenzen kommt und was übersieht. Aber: Beim Einparken und überfahren bestimmeter Bereiche wird halt die Umgebung gescannt, Tesla bzw. das Neuronale Netz baut sich sein eigenen Virtuellen Raum aus den Kamera Daten und weis dann wo sich ein Hindernis befindet, das Auto bzw NN weis theoretisch sogar was sich unter dem Fahrzeug befindet wenn es die Fläche zuvor überfahren hat.

Edit: Ob das System jetzt/heute oder erst demnächst schon so gut ist, wird die Zeit zeigen.
 
Zuletzt bearbeitet:
Danke dir für die Erklärung!

Mein persönliches Problem ist ja vor allem, dass bezahlbare Alternativen mit gutem Platzangebot äußerst rar sind. Vielleicht ändert sich das ja noch bis es bei uns mal so weit ist ;)
 
Tesla verbaut seit der Umstellung und auf AP2.5 eine Eigenentwicklung (Hardware & Software, die Hardware war bei AP2.5 aber noch nVidia basierend, seit 3.0 kommt auch hier ein eigener ASIC zum Einsatz)

Mein Kentisstand: Ein Radar kann nur geradeaus schauen, es kennt den Straßenverlauf nicht und kann anhand der Laufzeit nur den abstand zwiswchen sich bewegenden Objekten ermitteln, es weis nicht ob sich ein Objekt in deiner Fahrspur befindet oder nicht (Streckenverlauf & Gegenverkehr). Recht problematisch sind auch Tunnel und Brücken / Unterführungen. Der Kompromiss ist dann oft über zusätzliche Lenkwinkel und Kamera Daten wird versucht ein verhalten vorraus zuerahnen ob der Weg vor dir frei ist oder ein Hinderniss im Weg (deiner Fahrspur) steht. Der Spagat aus Sicherheit und Fehlinterpretation gelingt dank guter Vorarbeit und jahrerlangem feinschliff Mobileye ganz gut (die haben da auch viele Patente), Es macht daher Sinn, einen Radar Sensor otisch zu unterstützen oder zu ergänzen.

Wenn du jetzt aber eine KI auf ein Kamera System so trainiren kannst, das die KI in den Bildinformationen (Videofeed) die Abstände korrekt erkennt und einschätzen kann, kannst du das Radar auch weglassen, es ist dann auch belanglos ob die Genauigkeit in 150m Entfernung um ~10cm nachlässt.
 
Zuletzt bearbeitet:
Würde da einem Hersteller, der nichtmal Schilder lesen kann, nicht darauf vertrauen, Abstände zu erfassen. Jeder andere Hersteller kombiniert übrigens Bild und Radar, nur Radar nutzt keiner. Beides hat Vor- und Nachteile.
 
Das kann man so sehen, aber ich habe ja versucht zu erklären das die Schilder Erkennung bei Tesla aktuell eher ein Europäisches problem ist bzw. war. Der Software Stack, welcher auf den EU Fahrzeugen läuft ist halt auf unsere EU Schilder nicht trainiert. Dazu kommt noch, dass in der EU (bzw. DE) auf der AB die Schildererkennung meist komplett ignoriert und fast ausschließlich auf Karten basierende Tempolimits reagiert wird (egal ob die noch aktuell sind oder nicht). Laut AI Day soll der neue Singelstack bis Jahresende weltweit einsetzbar sein (vielelcht verschiebt sich das auch noch mal um eine Quartal), aber dann wird höchstwarscheinlich auch die Schildererkennung bei uns funktionieren. Full Self driving sehe ich aber noch nicht bei uns, da sind einfach noch viele Rechtliche Hürden zu klären bis das in der EU/DE erlaubt ist.

Edit: ich war auch kürzlich mit einem ID.3 in Kroatien, die Schildererknnung die sonnst gut funktioniert, hat da komplett versagt (mit einem entsprechenden Hinweis am Display).

Ein Tesla hätte es in diesem Fall sogar besser gemacht.
 
Zuletzt bearbeitet:
Full Self driving sehe ich aber noch nicht bei uns, da sind einfach noch viele Rechtliche Hürden zu klären bis das in der EU/DE erlaubt ist.

Meinst du das FSD (SAE Level 3) oder tatsächlich Level 4/5? Für letzteres soll die rechtliche Grundlage für eine EU-Zulassung 2024 kommen. In Deutschland darf ein Level 4 mit Genehmigung schon im öffentlichen Straßenverkehr fahren.

Bei dem R&D Tempo der legacy Automaker würde ich drauf tippen, dass wir kein EU-weit zugelassenes "Level 4"-Auto mit fossilen Antrieb mehr sehen werden. Ich lasse mich aber sehr gerne überraschen. 🙂

Haben die betroffenen Modelle überhaupt Kameras in der Stoßstange vorne? Wie können die mir beim Einparken helfen, wenn das Auto da nix sieht?
Warum sollte das nicht gehen? Ein trainierter Mensch kann auch gut ohne PDC einparken. Nur dass die compute unit die ganze Zeit ohne Ablenkungen das Geschehen verfolgt. Das Verfahren ist halt ein anderes, mit den PDC-Sensoren wird Distanz gemessen, mit der der Kamera wird hingegen geschätzt. Die Fehlertoleranz kann fürs Einparken ausreichend sein. Auch mit PDC wird kein Fahrzeug automatisch in eine Lücke einparken die nur ein paar Zentimeter größer ist als das Fahrzeug.
 
Wie auch immer Tesla das nennen will oder möchte, solang es irgendwie Beta heißt, wird es Level 2 bleiben und der Fahrer bleib zu 100% verantwortlich.

Uns so lang es ein Level 2+ System ist, wird Full Self Driving bei uns maximal kastriert bleiben mit entsprechenden Hinweisen und Warntönen an den Fahrer. Also mit entspannt hinlegen oder Zeitung lesen oder Smartphone benutzen wird es bei Tesla innerhalb der EU oder DE noch eine Weile dauern.
 
Warum sollte das nicht gehen? Ein trainierter Mensch kann auch gut ohne PDC einparken
Das war vielleicht vor 20 Jahren oder davor mal so. In den meisten aktuellen Autos kann man von Übersichtlichkeit ja nur träumen.

Aber gut zu wissen, dass das mit Kameras gehen wird, ich bin ja kein Ingenieur in der Automobil-Industrie.
 
Mein Kentisstand:
Ist nicht ganz richtig.

Vereinfacht gesagt ist ein Radar auch nur eine Kamera für einen anderen Wellenlängenbereich im elektromagnetischen Spektrum.
Natürlich kann ein Radar nicht um die Ecke gucken (welche Kamera kann das?) und natürlich kennt ein Radar auch nicht die Strecke (eine Kamera aber auch nicht).
 
Die Kamera kann aber natürlich Straßenmarkierungen erkennen, dass kann das Radar nicht, das benötigt Objekte, die die Strahlung reflektieren. Aber deswegen kombiniert man die Systeme ja auch. Die Entfernung kann ein Radar dafür hervorragend erkennen, auch wenn Auto und Objekt stehen. Eine Kamera benötigt dafür aber doch Bewegung um auf einem zweidimensionalen Bild zwischen z. B. „klein und nah“‘ und „groß und weit“ zu unterscheiden. Ich habe da echt Bedenken, dass Blickwinkel und Genauigkeit für alle Situationen ausreichen werden, auch unter allen Witterungsbedingungen.
 
Wer selbst mal ein Auto mit Radar gefahren ist weiß wie zuverlässig das funktioniert. Hatte auch gedacht dass mich das unterstützen kann. Kannst aber knicken. Stärker Regen, Schnee und schon funktionieren die Dinger nicht. Wo die Kamera noch einwandfrei funktioniert.

Edit: auch pdc Sensoren können mit einer oder mehreren Kameras ersetzt werden. Zb "emulieren" ja Peugeot eine 360° Kamera allein durch die Kamera hinten. Sie merkt sich einfach die Umgebung und konstruiert das ums Auto herum(beim rückwärts fahren)
 
Deswegen ist der Königsweg ja eine Kombination aus mehreren Sensoren, Kamera, Lidar und Radar, und die sollen gegenseitig ihre Schwächen ausgleichen. Gegen Schnee wird auch schon was unternommen, der BMW iX mit der beheizten Front zum Beispiel, weil bei E-Autos ja die Motorwärme fehlt. Ist aber auch alles eine Kostenfrage, sowohl bei der Hardware, als auch in der Entwicklung.
Ich hab beruflich ein bisschen was mit den erweiterten Assistenssystemen zu tun, zumindest mit der IT Infrastruktur dahinter, und welche Datenmengen da von Sensoren, Kameras usw. zusammenkommen und verarbeitet werden, ist kaum zu glauben. Zumindest bei den deutschen Herstellern, wird bei Tesla aber auch nicht viel anders sein. Am Ende des Tages geht es ja bei jedem darum, die "KI" mit so vielen Daten wie möglich zu füttern und trainieren.

Morgen geh ich einmal einen Cupra Born probieren, bin schon gespannt. Den ID3 bin ich ja schon einmal probegefahren, das war aber ganz am Anfang, als die Software noch eine reine Katastrophe war. Einmal schauen, vielleicht überkommt es mich ja doch noch und ich gebe meinen Diesel vorzeitig ab. Anschauen kann man ihn sich ja einmal und probieren kostet nix.
 
Edit: auch pdc Sensoren können mit einer oder mehreren Kameras ersetzt werden. Zb "emulieren" ja Peugeot eine 360° Kamera allein durch die Kamera hinten. Sie merkt sich einfach die Umgebung und konstruiert das ums Auto herum(beim rückwärts fahren)

Das ist dann aber nur billiger Murks, wenn sich was verändert und nicht dargestellt wird - absolutes no go.
Beitrag automatisch zusammengeführt:

Morgen geh ich einmal einen Cupra Born probieren, bin schon gespannt. Den ID3 bin ich ja schon einmal probegefahren, das war aber ganz am Anfang, als die Software noch eine reine Katastrophe war. Einmal schauen, vielleicht überkommt es mich ja doch noch und ich gebe meinen Diesel vorzeitig ab. Anschauen kann man ihn sich ja einmal und probieren kostet nix.

3.1 (mein ID4 wurde damit ausgeliefert) ist schon ganz gut und läuft relativ rund, wobei Bestandsfahrzeuge derzeit noch maximal 3.0 drauf haben. Neufahrzeuge werden aktuell mit 3.2 ausgeliefert.
 
Ist nicht ganz richtig.

Vereinfacht gesagt ist ein Radar auch nur eine Kamera für einen anderen Wellenlängenbereich im elektromagnetischen Spektrum.
Natürlich kann ein Radar nicht um die Ecke gucken (welche Kamera kann das?) und natürlich kennt ein Radar auch nicht die Strecke (eine Kamera aber auch nicht).
Na da würde ich nochmal die Schulbank drücken.
Ein Radar, wie euch ein Lidar, sendet selber aktive Signal aus und baut darauf aufbauen ein 3D Modell der Umgebung zusammen. Lidar kann, zumindest theoretisch, auch noch Farben halbwegs zusammenbauen.
Eine Kamera hingegen ist ein rein passives System. Sie sitzt also nur da und wartet auf "Signale" und die kommen von externen Lichtquellen und werden über Oberflächen reflektiert.
Eine Kamera liefert also eigentlich Oberflächeninformationen, wohingegen ein Radar einen dreidimensionalen Raum erfasst. Eine Stereokamera versucht dann aus dem Versatz von 2 2D Bilder ein 3D Bild zu machen.

Rein formal würde "eine" Kamera ausreichen, denn mehr ist unser Auge ja auch nicht. Das Problem ist, dass unser Auge einen geheimen Mitspieler hat, der der Kamera fehlt. Und der nennt sich Gehirn. Und das Gehirn fängt an Sachen zu interpretieren. Unser Auge würde (das macht es eigentlich ständig) also eine Falschinformation liefern, aber unser Hirn regelt das dann weg und macht es "richtig". Das ist auch das Geheimnis hinter den optischen Täuschungen. Das sind nämlich keine optischen Täuschungen, sondern eigentlich mentale Täuschungen.
Und weil einer Kamera diese Kompetenz fehlt, braucht es einen anderen Mitspieler und das sind eben Lidar und Radar.
Ein anderer Ansatz ist die KI, die eben unser Gehirn ersetzen soll. Und bis das wirklich so richtig KI ist, vergehen noch locker 10-20 Jahre und so lange werden wir mit Multisensorsysteme arbeiten, die sich gegenseitig ergänzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh