Ja, gern.
Vielleicht hat dann meine Meinung, dass man sich heute zwar eine Meinung bilden kann, wir aber alle nicht die Fakten der Zukunft kennen, schon garnicht wissen, wer da heute auf zielführenden Entwicklungsweg ist… auch Platz.
Ja, gern.
Vielleicht hat dann meine Meinung, dass man sich heute zwar eine Meinung bilden kann, wir aber alle nicht die Fakten der Zukunft kennen, schon garnicht wissen, wer da heute auf zielführenden Entwicklungsweg ist… auch Platz.
Hat sie ja auch, aber du kommst sehr „belehrend“ daher.
An ALLE - ruhig Blut.
Genau. Die Fakten der Zukunft kennen wir nicht.
Aber wir wissen, was heute ist. Und wissen, dass es Systeme gibt, die besser und andere, die schlechter funktionieren. Ergo vertraut man HEUTE natürlich den besser funktionierenden Systemen. Dass sich das irgendwann einmal durch Weiterentwicklungen in der Zukunft ändern kann, ist klar……aber die Fakten der Zukunft kennen wir eben heute nicht. Deine Worte.
Es ist immer eine Momentaufnahme:wink:![]()
Wir kommen ein wenig weg, von der oberen Tabelle mit der Auflistung der unterschiedlichen Sensorikausstattung, aus der abgeleitet wird, wer zielführender unterwegs ist. Hier nochmal meine Meinung dazu: Da das Gesamtsystem in “Messen” und “Verarbeiten” grob unterteilt werden kann, reicht die Bewertung nur EINES Teils für die Gesamtbewertung nicht aus. Nur weil das Rennrad des Übergewichtigen 120g leichter ist, als dass Rennrad des sportlichen Trainierten, hilft der Blick auf das Fahrradgewicht nicht aus.
Wenn ICH Redundanz herstellen möchte, dann lege ich exakt das gleiche Messsystem (mit den gleichen Systemfehlern, mit der gleichen Datenqualität…) neben das Hauptsystem. Bei Ausfall des Hauptsystems kommt das Redundanzsystem ins Spiel.
Wenn mein Messsystem eine dermaßen hohe Messunschärfe hat, dass das zu Messende nicht sauber abgebildet werden kann, dann lege ICH gleichzeit ein alternatives Messsystem mit andere Messunschärfe auf. Ziel, die beiden Messunschärfen verkleinern den unscharfen Messraum.
Wie die Natur zeigt, ist eine Orientierung im Raum per “Auge” (sprich. Kamera) ausreichend möglich. Ich halte es daher für nachvollziehbar, dass Entwicklungseinrichtungen den Weg einschlagen, genau das technisch abzubilden. Ob sie damit Erfolg haben? Ich habe keine Ahnung. Ob der Ansatz plausibel ist? Ich glaube ja. Sind wir schon am Ende des Entwicklungsweges und WISSEN welcher Ansatz der bessere war/ist? Ich glaube nein.
Ich bin ja mitlerweile auch soweit zu sagen, dass Vision-Only funktionieren kann, wenn die Software eben soweit ist, natürlich müssen dafür auch genug Kameras vorhanden sein, auch um im Fall der Fälle, für Redundanz sorgen zu können.
Man darf ja auch nicht vergessen, woher der Ansatz überhaupt kommt, Tesla war ja anfangs selbst der Meinung, Sensor-Fusion sei DER Weg, mussten dann aber wohl selbst eingestehen, dass sie es halt nicht hinbekommen haben. Das bedeutet natürlich nicht, dass es nicht geht, sondern dass sie einfach nach anderen Möglichkeiten suchten und sich dann wahrscheinlich genau so stumpf gedacht haben, wozu überhaupt Fusion, Menschen können es ja auch nur mit den Augen. Und der große Bonus als Kirsche on top: Ich spare zusätzlich noch das Radar und mglw. sogar Lidar ein. Win-Win. Außerdem, neuer Ansatz, neue Zeitschiene ![]()
Und ich halte Vision für deutlich einfacher zu programmieren, daher kamen die Fortschritte auch in den neuen anfänglichen Version erstaunlich “schnell”. Jetzt sind wir halt wieder an einem Punkt angelangt, wo es um die letzten 10% geht, gemäß dem Pareto-Prinzip wird dieser Prozess wahrscheinlich eine deutlich längere Zeit in Anspruch nehmen. OB Tesla es jemals hinbekommt ein verlässliches System zu liefern? Keine Ahnung, vor 2 Jahren hätte ich nicht drauf gewettet. Aktuell sehe ich Fortschritte, es könnte tatsächlich möglich sein, dass sie es schaffen.
Parallel schaffen es aber halt auch andere Hersteller, wenn auch in begrenzten Räumen, echte Nachweise zur Sicherheit zu liefern und das eben mit Sensorfusion. Der Schritt von einem LVL2+ System zu LVL4 ist halt abartig groß. Die Gefahr falls etwas passiert ist deutlich höher. Es geht um Menschenleben, genau deshalb agiert Tesla auch so vorsichtig, welch Überraschung.
Stehe ICH allerdings später auf der Straße und habe die Wahl zwischen Waymo und Tesla, ich würde Waymo nehmen.
Das Tesla-System wird mMn durchaus in der Lage sein, deutllich besser zu fahren als ein erfahrener Autofahrer. Wann? Who knows? Ob überhaupt? Keine Ahnung.
Aber falls es dann wirklich ein Unternehmen gibt, dass die Sensorfusion beherrscht, wüsste zumindest ich, welche Version ich bevorzugen würde.
Wird dann vielleicht in 5 Jahren so aussehen:
Ja, dann würden ja auch nur vier Kameras und gute Software reichen. Irgendwann werden wir das auch schaffen ![]()
![]()
Xpeng hat vision only aber eben auch Turing CPUs mit über 3000TOPS.
Tesla hat HW4 mit nur 10% der Leistung.
Bin sehr gespannt, wie sich das entwickelt.
M. W. hat XPeng kein vision only. Jedenfalls nicht so, wie Tesla. Ich meine, dass XPeng immer USS und Radar verbaut hat. Irrtümlicherweise bezeichnen sie Fahrzeuge ohne LiDAR als Vision only. So mein Verständnis
KI sagt, Xpeng hat nur Vision Only. Keine weiteren Sensoren. Aber wir werden sehen…. Noch ist es nicht fertig.
Soll aber LV4 sein.
Also „unsere“ Autos haben jedenfalls noch USS und Radar.
Finde ich auch gut so ![]()
Ihr habt 3 Punkte übersehen:
Und alle Tesla Robotaxis bleiben stehen, da ja die Teile nicht vom Mitfahrer bedieht werden können. Ich stell mir das gerade vor. Menschen frieren im Auto, weil der Akku leer gesogen ist. Elon hat ne Klatsche mit seinem Robotaxi. Da muss der Zusatz mit ran, Schönwetterauto. ![]()
![]()
![]()
Elons Thema ist tatsächlich, das er ein bestehender Plattform der für L2+ gebaut ist für vollständiges autonomes Fahren benutzen will. Ohne Hardwareanpassungen!
HW4 ist einfach nicht sehr performant. Es reicht für Assistenz aber ich bezweifle ob es für Robotfahrzeuge reicht.
Es reicht bei gutem Wetter wenn sie 30 km/h fahren….
Andy, mit ein wenig Nachdenken wird der Nutzer eines autonomen Systems in einer Großstadt, welches den Dienst versagt, ähnliches tun, wie bei einer üblichen taxifahrergeführten Fahrt bei Ausfall des alten Daimler. Er wird aussteigen und sich das nächste Taxi rufen.
Ich fahre keinen Tesla, glaube aber in den letzten Jahren mehrmals aus Richtung Tesla gelesen zu haben, dass, wenn die Bestandsfahrzeuge aufgerüstet werden müssen (Rechner), dass das dann durch Tesla erfolgen würde. Für mich entsteht da der Eindruck, Tesla ist sich der möglichen Hardwarebegrenzung im Bestand bewusst. Für zukünftige Neufahrzeuge sollte das alles kein Problem sein. Da wird dann wohl einfach mehr Rechenleistung verbaut.
Ach du fährst gar keinen Tesla.
Nun wird mir einiges klar🤣
Ob es preislich sinnvoller ist, LIDAR oder Kameras zu verbauen, mag ich nicht zu beurteilen.
Beim Training des KI-Systems gehe ich davon aus, dass das im Bestand schwierig zu realisieren ist. Entweder hat man erhebliche Datenströme zwischen der Flotte und einer zentralen Rechner-Trainingseinheit oder man ist in der Lage, dass KI-Training im Fahrzeug durchzuführen. Das zweite halte ich (hardwarebedingt) für unrealistisch. Für die Datenstromvariante gibt es keine, von außen nachvollziehbaren Indizien. Ich gehe davon aus, dass die wesentlichen KI-Trainings mit Testflotten der Hersteller stattfinden. Hierbei sicherlich auch mit Sensorikausstattungen, die oberhalb der Serie sind.
Wenn man sich der Idee nähert, dass beim autonomen Fahren die gelebte Realität nachgebaut wird (Augen → Kamera), dann kann man sich eventuell auch der Idee nähern, dass die allgemeine Leistungsfähigkeit eines autonomen Systems nicht höher sein muss, als das, was wir aktuell im nichtautonomen Bereich erleben (außer: Unfallvermeidung). Also bei Schlechtwetter die Fahrgeschwindigkeit verringert wird (auf Sichtweite). Im Extremfall mit Warnblinkanlage rechts rangefahren wird (bis der Hagelsturm vorbei ist). Ob man die temporäre Leistungsbegrenzung technisch vermeiden/verzögern kann, ist sicherlich ein Thema (beheizte Sensorik, Kameras im Scheibenwischerreinigungsbereich…).
Bei allem (Geschwindigkeitsreduktion bei Schlechtwetter…) sollte man auch bedenken, dass in der Kapsel Menschen sitzen, die sich auch sicher fühlen sollten. Das sehe ich bei (technisch vielleicht sicherer) Fahrt mit erlaubtem Vollstrom und Starkregen auf der BAB nicht wirklich gegeben.
Nein, nur in der Not.
Ich gehe davon aus dass XPeng das in China macht oder gemacht hat. Wahrscheinlich können sie selektiv einzelne Kundenfahrzeuge dazuschalten.
Wenn ich mich recht entsinne, gab es (länger her) bei Tesla mal einen Vorgang, dass ein Nutzer auf YT regelmäßig vom Scheitern eines Linksabbiegens auf eine mehrspurige, mit Mittelgrünstreifen versehene Strasse berichtete.
Irgendwann war dann wohl zu beobachten, dass ein Tesla (mit Werkskennzeichen?) mehrmals dieses Abbiegen nachvollzogen haben soll. Damals wurde spekuliert, dass sich Tesla wohl nicht wirklich auf die Nutzerautos stützt, wenn es um das Lernen der Software geht. Die Spekulation ging in die Richtung, dass sauber kalibrierte, eigene Fahrzeuge durch die Welt und in relevante Fahrsituationen geschickt werden.
Aber wie auch immer, unterschiedliche Ansätze gibt es wohl zu Hauf. Wer da was macht, werden wir wohl in Tiefe nicht erfahren.