Dass KI-Chatbots erstaunliche Produktivitätssprünge ermöglichen können, ist kein Geheimnis mehr. Man muss nur wissen, wie, und natürlich muss es auch zur jeweiligen beruflichen oder privaten Situation passen. Ansonsten bleibt es Spielerei, was ja völlig in Ordnung ist.
Die meisten Sprachmodelle haben jedoch die Eigenart, dem Nutzer nach dem Mund zu reden. Der Nutzer ist üblicherweise der „Größte“, hat die besten Ideen, und selten kommt die KI in die Position, das, was der Nutzer schreibt, wirklich herauszufordern.
Solange man nur Positives im Sinn hat, ist das nicht dramatisch. Problematisch wird es, wenn ein Chatbot Menschen bestätigt, die ein überdrehtes Ego haben oder mental nicht stabil sind. KI-Chatbots verstärken oft die eigenen Neigungen, sofern man ihnen nicht ausdrücklich sagt, das zu unterlassen.
Man denkt dabei schnell an Hacker, Phisher, Bombenbauer oder Autokraten, die sich neue Einfuhr-Zölle ausdenken. Doch auch ganz normale Menschen mit düsteren Gedanken, mit dem Hang, sich selbst etwas anzutun oder ständig an sich zu zweifeln, können genauso in ihrem Verhalten bestärkt werden. Das kann böse enden.
Chatbots wissen nun einmal nicht, wann sie motivierend sprechen sollen („Mach weiter, du bist auf dem richtigen Weg“) oder abraten sollten („Das ist keine gute Idee, lass das“), es sei denn, man bringt es ihnen vorher bei. Aber wer? Die Provider? Vermutlich nicht, denn die müssten gezwungen werden oder selber weiter ethische Standards entwickeln. Die Anwender … nun ja, glaube ich nicht dran … denn denen gefällt es ja vielleicht gerade in diesem Rabbit Hole
Vielleicht muss man also über virtuelle Anschnallgurte, Helme, Spurassistenten, Bremsassistenten oder Abstandswarner für den Umgang mit KI nachdenken?
Schwierig ….
PS1: Titelbild via ChatGPT
PS2: Inspiration von KI-Podcast vom 09.12.25. Macht weiter so!

