Du betrachtest gerade KI-Texte erkennen: Ist es wirklich wichtig, wie der Text verfasst wurde?
Screenshot Detectora

KI-Texte erkennen: Ist es wirklich wichtig, wie der Text verfasst wurde?

Hast du dich schon einmal gefragt, wie zuverlässig du KI-Texte erkennen kannst? Nehmen wir einmal diese Nachricht. Schaue sie dir genau an, bevor du den Blogbeitrag weiterliest. Und frage dich: Ist die Nachricht mit KI geschrieben?

Screenshot aus meiner Präsentation zum Thema KI und Text

Falls es für dich wirklich wichtig ist, KI-Texte erkennen zu können, dann könnte Detectora das richtige Tool für dich sein. Als Mitglied im DJV konnte ich dieses KI-Tool bis Ende Juni kostenlos nutzen und habe es entsprechend getestet. 

Detectora analysierte diese Nachricht und kam zu dem Ergebnis, dass sie zu über 99 Prozent von einer KI geschrieben wurde. Das ist richtig. Tatsächlich ist sie sogar zu 100 Prozent von ChatGPT geschrieben worden. Aber ist das überhaupt von Bedeutung? Hättest du die Nachricht als Mensch anders verfasst? Wahrscheinlich nicht, denn die W-Fragen sind dank meines Prompts beantwortet: 

  • Wer: Die BPB. 
  • Wann: Ab sofort. 
  • Was: Den Wahl-o-Mat. 
  • Wo: Unter der URL. 
  • Warum: Damit sich Wahlberechtigte informieren können.

Was macht journalistische Arbeit aus?

Zurück zu der Frage: Ist es wirklich entscheidend, ob ich einen Text mit Word schreibe oder einen passenden Prompt bei ChatGPT eingebe? Klar, es gibt das Urheberrecht. Texte aus KI-Tools haben kein Urheberrecht, weshalb ich sie nicht an meine Kund*innen verkaufen kann. Aber abgesehen davon: Macht es einen Unterschied, ob die Meldung KI-generiert ist – solange sie inhaltlich korrekt ist und ein Mensch den Prompt eingegeben und das Ergebnis geprüft hat?

Ich behaupte: nein! Denn meine Kund*innen bezahlen mich nicht dafür, dass ich auf einer Tastatur klimpere. Sie bezahlen mich dafür, dass ich die Inhalte recherchiere und daraus einen verständlichen und korrekten Text mache. Ob ich ihn tippe oder der Spracherkennungssoftware diktiere oder mit dem richtigen Prompt aus einer KI kitzle, das spielt doch keine Rolle. Entscheidend ist das Ergebnis.

Wie zuverlässig können Tools KI-Texte erkennen?

Diese Nachricht wurde übrigens nicht veröffentlicht. Ich nutze das Beispiel in meinem Webinar „KI und Text„, um zu zeigen, wie gut ChatGPT bereits 

  • Nachrichten, 
  • Berichte, 
  • Interviews und sogar 
  • Features schreiben kann. 

Zurück zu Detectora: Von acht geprüften Texten erkannte das Tool bei sechs korrekt, dass sie KI-unterstützt waren. Bei zweien lag es daneben. Interessant wird es jedoch, wenn man den Grad der KI-Generierung betrachtet:

  • Ein Text von 2015 soll zu mehr als 5 Prozent KI-generiert sein.
  • Ein Text, der auf einem KI-Entwurf beruhte, aber komplett umgeschrieben wurde, soll zu 14 Prozent KI sein. Dieser Text wurde von einer Kollegin und einer Schlussredakteurin geprüft und nicht beanstandet.
  • Ein Text, den ich schrieb und von KI zu einem Blogbeitrag überarbeiten ließ, soll zu 90 Prozent menschlich sein.
Screenshot Detectora: KI-Texte erkennen können?
Screenshot Detectora

Diese Beispiele zeigen: Verlass ist auf Tools, die behaupten, KI-Inhalte erkennen zu können, nicht wirklich. Und das ist auch total logisch. Denn auch auf Perplexity.AI, ChatGPT oder den Microsoft Copilot sollten wir uns nie blind verlassen. Daher finde ich es seltsam, gerade bei der Überprüfung von Texten auf ein KI-Tool vertrauen zu sollen.

Was können wir für unsere Arbeit daraus ableiten?

Das bringt mich zu einem weiteren Punkt: Wann werden mir und anderen Autor*innen Kund*innen erstmals unterstellen, wir hätten unsere Texte von einer KI schreiben lassen? Wie sollen wir dann das Gegenteil beweisen? Solche Fälle gibt es bereits – etwa 2023 an der Uni in Texas und an der TU München. Das Bayrische Verwaltungsgericht gab der Uni sogar Recht.

Das alles erinnert mich an die Konferenz des Kölner Forums Medienrecht zum Thema „KI und Urheberrecht“ im Mai. Andree Haack, Beigeordneter für das Dezernat IX, Stadtentwicklung, Wirtschaft, Digitalisierung und Regionales bei der Stadt Köln, sagte dort: 

„Man kann ChatGPT so wenig verbieten wie früher den Einsatz von Google“. 

Arbeitgeber sollten daher einen KI-Kodex erstellen, der zur Dienstvereinbarung werden könnte. Das wünsche ich mir auch von meinen Kund*innen. 

Christian Meyer-Seitz aus dem Bundesministerium der Justiz meinte, man müsse sich derzeit auf die Aussage des Creators verlassen. Aber:

„Das kann so nicht bleiben“ 

,sagte er. Eine reine Kennzeichnungspflicht sei nicht ausreichend. Und da gebe ich ihm Recht. Sie ist eigentlich auch nicht ausreichend für die Meldung bei der VG Wort. Was wir statt dieser nicht überprüfbaren Kennzeichnungspflicht brauchen, ist eine automatische und unveränderbare Dokumentation des Workflows, ähnlich einer Blockchain. 

Hier kommt jedoch ganz schnell das Thema Datenschutz ins Spiel. Und das macht die Situation nicht einfacher. Was denkst du darüber? Wie stellst du dir vor, wie wir künftig beweisen, dass unsere geistige Schaffenskraft in den Artikeln steht?

Dieser Artikel ist zuerst in meinem LinkedIn-Newsletter erschienen. ChatGPT hat ihn in einen Blogbeitrag umgewandelt.

Zu meinen Webwaren und Materialien

Schreibe einen Kommentar