Seitdem du das geschrieben hast, funktioniert es bei mir auch nur noch gelegentlich. Muss ich mir Sorgen machen ? Oder fummelt da jemand per Remote in der Software rum?
Auf Parkplätzen die er schonmal gemacht hat, zeigt er gar keine Parkplätze mehr an und das eine Mal, als er plötzlich Lust hatte, ist er vollständig eingeparkt und hat er den Vorgang 20 cm vor der Wand mit dem Satz:
“Parkvorgang wurde wegen einem Hindernis abgebrochen”
Ich war auf einer Konferenz mit KI-Experten, und alle waren sich einig, dass LLM-basierte Modelle unvorhersehbar und oft einfach seltsam sind. Genau wie Menschen, schätze ich. Meiner Meinung nach ist dieses Verhalten typisch für LLM-basierte KI-Systeme: Es ist jedes Mal anders, wie beim Würfeln.
Das kann sein. Vielleicht spinnt er auch einfach nur, weil er mal keine gute Internetverbindung hat, oder irgendein Modul schon im Feierabend ist, oder, oder, oder….
Früher war Software meist nur Software, heute riecht alles nach KI. Es wäre fast zu schön, wenn hinter jedem Fehler ein System stehen würde. Meistens sind Fehler aber einfach nur Mängel