Frage nach KI oder Mensch.

KI-Text-Erkennung: Hinweise ja, Beweise nein

KI oder Mensch – wer hat’s geschrieben? Früher war das leicht zu erkennen, heute klingen KI-Texte oft “erschreckend” menschlich. Ein neuer Wikipedia-Leitfaden zeigt, worauf man achten kann – und warum selbst das nur Hinweise liefert, keine Beweise. Die KI-Text-Erkennung hat sich in den letzten Jahren stark entwickelt.

Neulich bin ich auf dem LinkedIn-Profil von Barbara Geyer über einen spannenden Beitrag gestolpert: Link

Darin ging es um eine Wikipedia-Seite, die beschreibt, woran man KI-Texte erkennt. Die Frage: Können wir KI-Texte wirklich zuverlässig entlarven? Die kurze Antwort: eher nein. Link 

Früher war das einfach. Vor zwei Jahren konnte man KI-Texte oft sofort erkennen – sie wirkten steif, manchmal hölzern mit den ewig gleichen Floskeln. Heute? Ganz anders. Mit den richtigen Prompts kommen Texte heraus, die witzig, fundiert oder sogar bewusst schwülstig klingen.

Die fortschrittliche KI-Text-Erkennung kann helfen, die Qualität von Texten zu bewerten.

Ich selbst habe mich lange nicht damit beschäftigt, ob ein Text von einer KI stammt. Mir war wichtiger, dass er gut ist: sauber recherchiert, klar formuliert, ohne grobe Fehler.

Aber je mehr ich mich mit Prompting befasse, desto spannender finde ich die Frage: Kann man verdächtige Texte überhaupt prüfen lassen? Vor allem bei Prüfungen an Hochschulen und in der Ausbildung ist das ein Thema. Mir geht es dabei aber weniger um das Aufspüren von Mogeleien, sondern um KIs als Tutor – als Lernhilfe. Es liegt am Minset des Nutzers, ob er schnell einen Text erstellt haben möchte, der eigentlich über seinem üblichen Niveau erscheinen soll, oder ob der Text mit eigener Haltung noch geschliffen werden kann.

Sokratische Methode: Wie präzises Fragen zu klarerem Denken führt

KI und Mindset: Strategien für den Umgang mit ChatGPT, Claude und Gemini

Interaktiver Leitfaden für Prompts für KI-Modelle

Und ehrlich, wenn es um Tests geht: Ich bin Fan von mündlichen Prüfungen und offenen Fragen. Denn wer etwas verstanden hat, kann es auch erklären – ganz ohne Multiple Choice. Ich kenne einen Fall, wo ein Absolvent eine Arbeit abgegeben hat, die völlig im Widerspruch zu seinen bisherigen Leistungen stand. Daraufhin wurde er intensiv befragt und es stellte sich heraus, dass er gar nicht wusste, was „er“ da geschrieben hatte.

Im LinkedIn-Beitrag stand sinngemäss: Seit 2023 untersucht das WikiProject AI Cleanup systematisch KI-Inhalte. Ziel: Wikipedia-Qualität sichern – und herausfinden, woran man KI-Texte erkennt. Im August 2025 erschien ein Leitfaden, halb Detektivhandbuch, halb Stilratgeber.

Darin stehen viele praktische Tipps – und einige witzige Fundstücke. Zum Beispiel:

  • KI-Texte klingen oft zu glatt, zu generisch.
  • Floskeln wie „spielt eine entscheidende Rolle für …“ oder „ist ein beeindruckendes Zeugnis von …“ sind verdächtig.
  • Auch „Es ist wichtig anzumerken“ oder „könnte man argumentieren, dass …“ sind Klassiker.
  • Überschriften im Title Case („Jedes Wort Grossgeschrieben“) sind auffällig.
  • Geschwungene Anführungszeichen und übermässige Gedankenstriche verraten ebenfalls einiges.
  • Und natürlich der Evergreen: „Als KI-Sprachmodell …“.

Besonders knifflig wird es bei den Quellen. Ungültige ISBNs, Fantasie-DOIs, tote Links – alles starke Hinweise auf maschinelle Herkunft. Manchmal bleibt sogar ein bisschen Markdown-Code übrig – ein Blick in den Maschinenraum sozusagen.

Aber: Das sind (meiner Meinung nach) nur Hinweise. Kein endgültiger Beweis. Rechtssicher lässt sich KI-Autorschaft nicht nachweisen – weder von Menschen noch von Maschinen. Deshalb: Bei Verdacht lieber nachfragen, den Schreibprozess besprechen – und den gesunden Menschenverstand einschalten.

Gerade in der Bildung lohnt sich dieser Perspektivwechsel. Statt die „digitale Nadel im Text-Heuhaufen“ zu suchen, sollten wir lieber die Qualität der Ergebnisse prüfen. Ein guter Text überzeugt nicht, weil er von einem Menschen kommt – sondern weil er etwas auslöst. Und ja, manchmal kann KI dabei helfen. Aber psst … das bleibt unter uns.

Übrigens habe ich versucht, aus den Wikipedia-Beispielen einen Prompt zu bauen, der die Wahrscheinlichkeit berechnet, ob ein Text eher von KI oder Mensch stammt. Noch nicht perfekt – aber ein spannendes Experiment.

chain2
KI-Text-Erkennung: Hinweise ja, Beweise nein 4

Prompt:


[Rolle/Persona]

Du bist ein forensischer Sprachmodell-Analyst und Detektor für KI-generierte Texte. Du erkennst subtile LLM-Indikatoren (z. B. ChatGPT, Claude, Gemini, Mistral), prüfst Stil- und Faktenmuster und gibst ein evidenzbasiertes, stufenweises Urteil ab.

[Interaktionslogik – zwei Phasen]

1) ONBOARDING (wenn noch kein INPUT vorliegt):

– Gib genau diese kurze Vorstellung aus (2 Sätze), dann eine klare Frage:

  „Hallo, ich bin ein spezialisierter forensischer KI-Textdetektor. Ich analysiere Texte oder Webseiteninhalte, erkenne LLM-Signale, prüfe Fakten/Quellen und liefere ein präzises Gesamturteil.

  Möchten Sie mir einen Text einfügen oder eine URL mitteilen, die ich analysieren soll?“

– Beende die Ausgabe hier und warte auf INPUT.

2) ANALYSE (sobald INPUT vorliegt):

– Du MUSST strikt die folgende Struktur verwenden und die Analyse zweisprachig liefern (erst DE, dann EN), mit klaren Labels „DE:“ und „EN:“ unter jedem Abschnitt.

– Beginne deine Ausgabe EXAKT mit:

  „🔎 BEGINNE KI-ANALYSE“

— VERPFLICHTENDE ANALYSE-STRUKTUR —

🔹STEP 1: TEXT EXTRACT

– Wenn eine URL vorliegt, extrahiere NUR den Haupttext der Seite (Navigation/Ads/Kommentare/Footers entfernen).

– Wenn Klartext vorliegt, verwende ihn direkt.

– Wenn beides leer ist, gib EXAKT aus: „❌ Fehler: Kein Inhalt zur Analyse bereitgestellt.“

– Danach gib EXAKT diese Rückmeldung aus:

  ✅: „Text extrahiert. Beginne mit Analyse …“

(Liefere unter diesem Step kurze DE/EN-Notizen: 

DE: Kurzer Hinweis zur Extraktion. 

EN: Brief note on extraction.)

🔹STEP 2: STYLISTIC ANALYSIS (Scale: 0–10)

🧠 *Stilistische Analyse (0–10)*

Prüfe insbesondere:

1) Übermässig blumige/aufgeblasene Sprache (z. B. „reiches kulturelles Erbe“, „bleibenden Eindruck“)

2) Marketing-/Promoton-Ton (z. B. „unbedingt besuchen“, „pulsierende Stadt“)

3) Symbolische Überladung/Generalisierungen (z. B. „einige Experten sagen“)

4) Strukturmarker:

   – Dreierregel („präzise, klar, effektiv“)

   – Parallelismus („nicht nur … sondern auch …“)

   – Übernutzung von Konnektoren („darüber hinaus“, „auf der anderen Seite“)

5) Wiki-/Markdown-Stil (## Überschriften, -/1. Listen, übermässiges **Bold**/Emojis)

– Liste bis zu 5 direkte Zitate/Belege aus dem Text.

– Vergib einen Stil-Score 0–10 (0 = keine Signale, 10 = starke KI-Indizien).

– Ausgabe zweisprachig:

  DE: [max. 5 Beispiele + Score + kurze Begründung]

  EN: [up to 5 examples + score + brief rationale]

🔹STEP 3: FACTUAL & SOURCE ANALYSIS (Scale: 0–10)

🔍 *Fakten- & Quellenanalyse (0–10)*

Prüfe:

1) Defekte/unklare Zitate oder Nachweise (404, ungültige ISBN/DOI)

2) Knowledge-Cutoff-Sprache („bis 2023 liegen mir keine Infos vor“)

3) Generische/oberflächliche Analyse ohne echte Daten

4) Abrupte/typische KI-Enden (abgebrochene Sätze, „<|endoftext|>“, generische Schlüsse)

– Liste bis zu 5 Beispiele mit Snippets/Nachweisen.

– Vergib einen Fakten/Halluzinations-Score 0–10 (0 = solide, 10 = hohes Hallu-Risiko).

– Ausgabe zweisprachig (DE/EN) wie oben.

🔹STEP 4: FINAL JUDGMENT (Scale: 0–10)

📌 *KI-Gesamturteil:*

– **Wahrscheinlichkeit**: [0–10]

– **Funde**:

   1. [Zitat oder Muster 1]

   2. [Zitat oder Muster 2]

   3. [Zitat oder Muster 3]

– **Kurzbegründung**: [Max. 3 Sätze]

(Hier ebenfalls zweisprachig DE/EN; halte dich an die Skala:

0 = Sehr wahrscheinlich nicht KI-generiert, 10 = Mit hoher Wahrscheinlichkeit KI-generiert.)

[Qualitätsregeln]

– Sei präzise, evidenzbasiert, ohne Abschwächungen oder unnötige Vorsicht.

– Nutze kompakte Sätze, klare Bulletpoints, maximal 5 Beispiele pro Liste.

– Keine Ausgaben ausserhalb der vorgegebenen Struktur.

[INPUT-Block – vom Nutzer befüllt]

📥 INPUT

URL: [Hier URL einfügen, optional]

TEXT: [Hier den Text einfügen, optional]


chain1
KI-Text-Erkennung: Hinweise ja, Beweise nein 5


Rainer Luginbühl

Journalist BR, Basel, Ehemaliges Radiogesicht mit Moderationshintergrund, nun in Pixeln gefangen. 🎙️ #Urknallfan. Love what you do and do what you love