Naja, es kommt auch auf das Prompting an. Wenn man es “richtig” macht, lässt sich schon einiges an Blödsinn bzw. Halluzination verhindern. Nicht immer alles, aber ein pauschales “KI ist doof und ich vertraue ihr nie” ist auch nicht zielführend. Wenn man weiß, wo die Grenzen sind, und wie man mit der KI umgehen muss, damit sie möglichst nur das tut, was sie soll, dann kann man damit schon ganz gut arbeiten. Aber natürlich nicht überall, nicht alles
Also meine Angaben waren schon klar, verständlich, eingrenzend und logisch. Die Hauptursache war, dass ich das System um stündliche Updates gebeten habe. Das hat Gemini dazu veranlasst, „zu halluzinieren“, denn „es musste ja was liefern, jede Stunde“.
Die KI hat sich wirklich entschuldigt. War ne gute Erfahrung. Ich nutze KI auch beruflich und da kommen i.d.R. gute Ergebnisse bei herum. Es kommt halt wirklich auf den Einsatz an.
Gemini hat mir auf die Frage, welche Broker den Ordertyp Trailing Stop Loss anbieten, tatsächlich auch Trade Republic genannt. Auf meine Nachfrage, dass dort nur Stop Loss angeboten wird, hat Gemini zugestimmt und mir vorgeschlagen, dass man manuell den Stopkurs nachziehen könnte und so den Effekt erreichen kann. Soviel zur KI.
Auch Chat GPT reagiert ähnlich, wenn man sagt “nein, das stimmt so nicht”, lautet die Antwort oft “ja, du hast recht, mein Fehler! Ab sofort werde ich mit: Ich bin mir nicht sicher beantworten”. Toll!
Da kommt manchmal richtiger Müll bei raus. ChatGPT wollte mir letzte Woche weißmachen, dass das aktuelle iOS iOS 18 sei und ein 26 gibt es nicht. Hat er immer wieder steif und fest behauptet. Völlig bescheuert manchmal. Oder auch Widersprüche innerhalb von 2 aufeinanderfolgenden Absätzen.
So richtig geil ist das noch nicht.
Grundsätzlich ist das ja schon ne geile Sache.
Aber gesunder Menschenverstand ist bei der Anwendung durchaus zu empfehlen.
Ich fürchte nur, dass es jede Menge Zeitgenossen gibt, die nichts hinterfragen und alles glauben. Das kann dann tatsächlich extrem gefährlich werden.