620) Hausmitteilung zum Einsatz von KI

Auch wenn ich mich beruflich viel mit generativer KI beschäftige, habe ich sie hier auf dem Blog bislang nur zu drei Zwecken eingesetzt

  1. Worte und Überschriften finden
  2. Titelbilder generieren, wenn ich die selber nicht herstellen konnte
  3. Dinge recherchieren, wenn die große Suchmaschine zu viel Müll generierte

Insbesondere bei 2. und 3. wies ich dann aber immer im Beitrag darauf hin. Das erste Mal am 25.04.2023, das letzte Mal am 28.03.2025. Ich halte das für guten Stil und auch angebracht, denn wenn ich noch mal Bundesminister werde, will ich nicht über solche Schlampigkeiten bei den Quellen-Nachweisen stolpern.

Ansonsten schreibe ich hier aber alles selber, oder Gäste tun es, das ist doch der Sinn der Bloggerei. Selbst >T.Bot, mein virtueller Blog-Assistant, der war schon weit vor ChatGPT, im Februar 2021, erschaffen und wird seitdem auch nicht von GenAI geschrieben.

Gestern aber, im Beitrag >Wenn Bots bloggen (33) – Vertretung vollzog sich hier ein Damm-Bruch, eine … Zeitenwende … die Brandmauer zur GenAI steht nicht mehr, sie wackelt. Von den 482 Wörtern, waren nur 147 Wörter meine, gerade mal 30%. Gut, Friedrich Merz hat auch keine bessere Mehrheit erreicht und wird Kanzler. Trotzdem lässt mich das nicht los

Zwei Fragen beschäftigen mich:

  1. Ich habe das im Beitrag nicht erwähnt. Bin ich unehrlich? Schmücke ich mich fremden Federn? Verletze ich die mir selbst gesteckten Qualitätsstandards?
  2. Wird das Schreiben noch „das“ Schreiben sein, wenn GenAI in solchem Maße zum Einsatz kommt? Welches Maß ist denn angemessen? Wie dokumentiere ich das, wie mache ich das künftig Transparent?

Gestern konnte ich keinen Disclaimer unter den Beitrag schreiben. Denn es war ein Experiment und es hätte den Beitrag kaputt gemacht. Ich werde nun aber noch einen Nachtrag mit Link auf dieses Statement hier druntersetzen.

Aber wie kam es dazu?

In meinem Job beschäftige ich mich gerade mit Agentic AI. Kurz gesagt, mehrere „kleinere“ KI‘n, haben unterschiedliche Skills und arbeiten gemeinsam auf ein Ziel hin. Team-Work quasi. Und in dem Zusammenhang kreiselt mir im Kopf rum, wo das mal hinführt, wenn sich Bots quasi selber beauftragen und auch beaufsichtigen und bewerten. Selbst wenn T.Bot hier ab und zu an die Tastatur darf, untersteht er meinem Kommando, er unterliegt meiner Richtlinienkompetenz. Das wäre dann nicht mehr so.

Experimentaufbau

Ich habe ChatGPT zwei Texte von T.Bot gegeben und es über einen Persona-Prompt in die Lage versetzt, so zu schreiben wie T.Bot es normalerweise tut. Pampig, mit gewaltigem Selbstbewusstsein, großen Ambitionen … aber im Grunde auch faul. Aufgabe für ChatGPT war, im Ton von T.Bot einen kurzen Artikel zu schreiben, wie sich Virtual Assistants immer neue Vertreter suchen. Ich habe es aber auf drei Iterationen begrenzt, damit in der Wohnung nicht das Licht ausgeht.

Nachbetrachtung

Tja, nun steht er da der Beitrag. Er ist geschrieben aber eben kaum von mir. Fühlt sich eigenartig an. Wenn ich ihn lese, dann sehe ich, dass er weder von mir, noch von T.Bot ist. Aber sehen das die Leser auch? Ist euch das aufgefallen?

Konsequenz

Ich denke noch drüber nach, wie ich künftig damit umgehe. Für den Moment verpflichte ich mich jetzt erst einmal, konsequent einen Disclaimer drunterzuschreiben, wenn der GenAI-Anteil im Text mehr als 10% ist. Ich mache das an der Anzahl von zusammenhängenden Worten fest, die KI geschrieben hat. Zusätzlich werde ich einen Passus auf die Seite > Über aufnehmen.

Ende der Hausmitteilung