Action unknown: copypageplugin__copy

Loading ⌛Loading ⌛

📝 Texte von KI schreiben lassen

🎯 Hier lernst du, nach welchen Grundprinzipien KI-Chatbots Texte erzeugen.

ℹ️ Dieses Kapitel basiert auf einer Ausarbeitung von Schwaninger.

Inhaltsverzeichnis


1. Textvorhersage

🪄 KI-Chatbots wie ChatGPT erzeugen Texte wie von Zauberhand.

🤔 Doch wie funktioniert das?

💡 Grundsätzlich lernt die KI hinter ChatGPT mithilfe ganz vieler Texte, wie ein Text typischerweise fortgesetzt werden kann. Wird danach ein Prompt eingegeben, so „erinnert“ sich ChatGPT an diejenigen Texte, welche zum Prompt ähnlich sind. Danach versucht es eine Ausgabe zu erzeugen, welche diesen Texten ähnlich ist.

🤯 KI-Chatbots sind ziemlich kompliziert. Um die Grundlagen der Textvorhersage zu verstehen, befasst du dich im Folgenden mit einem viel einfacheren System.


2. Wortvorschläge auf dem Smartphone

Abbildung 1: Wortvorhersage1).

Du kennst sicherlich die Wortvorschläge auf dem Smartphone, welche dir beim Tippen von Text eingeblendet werden. Diese Worte werden dir nicht mit einem KI-Chatbot generiert, sondern mit einer einfacheren Technik, mit sogenannten „N-Grammen“.

Doch was ist ein N-Gramm?

Untenstehend siehst du zwei Bilder. Betrachte zuerst das Bild links. Darin werden oben drei Texte gezeigt. Das ist die Datenbasis. Das vierte Textfeld darunter ist das Eingabefeld in welchem getippt wird. Aktuell steht dort drin: „Neues Märchen - Es war einmal“. Die Frage ist, wie wird der Text basierend auf der Datenbasis fortgesetzt werden?

Die letzten beiden Worte im Eingabefeld sind rot markiert. In den drei Texten darüber sind diese beiden Worte ebenfalls rot markiert. Die grün markierten Wörter zeigen, wie in den drei Texten „war einmal“ fortgesetzt wird. Zweimal ist die Fortsetzung „ein“, einmal ist die Fortsetzung „eine“. Im rechten Bild ist das durch die Pfeile 2/3 (Chance) und 1/3 (Chance) dargestellt. Welche Fortsetzung gewählt wird, wird zufällig bestimmt. Aber meist gewinnt die Fortsetzung, welche am häufigsten in der Datenbasis vorkommt.

Welches Wort ist das Nächste?2)
N-Gramm
Ein „N“-Gramm besteht aus N vielen Wörtern. Davon stammen die ersten N-1 Wörter aus der Eingabe (die roten Wörter). Das letzte Wort ist eine mögliche Fortsetzung aus der Datenbasis (ein grünes Wort).

Im obenstehenden Beispiel werden 3-Gramme verwendet. Das 3-Gramm besteht aus den zwei letzten Wörtern der Eingabe (rot: „war einmal“) und einem Fortsetzungswort aus einem der drei Texte (grün: „ein“ oder „eine“). Konkret gibt es die drei 3-Gramme: „war einmal ein“, „war einmal ein“ und „war einmal eine“.

✍ Auftrag "N-Gramme finden"

Gegeben ist eine Datenbasis mit folgenden drei Dokumenten:

  • Dokument A: Es war einmal ein kleiner Drache, der lebte glĂĽcklich im Wald.
  • Dokument B: Vor langer Zeit lebte einmal ein alter König in einem verwunschenen Schloss.
  • Dokument C: Es war einmal ein alter König, der Gold ĂĽber alles liebte.
  1. Wie wird der folgende Text fortgesetzt, wenn nur 3-Gramme verwendet werden? Schreibe deine Antwort in das Textfeld. Hinweis (falls gebraucht anklicken) Loading ⌛
  2. Wie wird der folgende Text fortgesetzt, wenn nur 5-Gramme verwendet werden? Hier musst du etwas kreativ sein - schaue dir sonst das „Lösungsbeispiel“ an. Hinweis (falls gebraucht anklicken) Loading ⌛ Lösungsbeispiel


3. Das N-Gramm-Tool SoekiaGPT

✍ Auftrag "SoekiaGPT ausprobieren"

Loading ⌛

  1. Ă–ffne SoekiaGPT .
  2. ⚠️ Was du als Prompt eingibst, ist egal, das wird von SoekiaGPT in der Grundeinstellung ignoriert.
  3. Klicke auf den ▶ Pfeil im Eingabefeld, es wird ein Märchen erzeugt.
Abbildung 2: Screenshot von SoekiaGPT3)


Das online Tool „SoekiaGPT“ kann Texte basierend auf N-Gramm-Häufigkeiten und Zufall generieren.

✍ Auftrag "SoekiaGPT untersuchen"
  1. Klicke auf SoekiaGPT oben rechts auf SCHAU HINEIN.
    • Der grĂĽne Bereich zeigt die Dokumente der Datenbasis.
    • Der gelbe Bereich zeigt die in den Dokumenten gefundenen N-Gramme.
    • Der rote Bereich zeigt die N-Gramme mit der höchsten Punktzahl fĂĽr die Textfortsetzung.
    • Im blauen Bereich werden die Texte erzeugt. Wird ein N-Gramm fĂĽr den generierten Text berĂĽcksichtigt, dass nur in einem Dokument vorkommt, so wird dieser Text mit der Farbe des zugehörigen Dokuments angezeigt.
  2. Für die Textgenerierung werden in der Grundeinstellung 1-, 2-, 3-, 4- und 5-Gramme verwendet. Dies ist im Bereich N-Gramme oben rechts ersichtlich. Dort steht N<=5. Wenn du z.B. N<=3 einstellst, werden nur noch 1-, 2- und 3-Gramme berücksichtigt. Lasse dir Märchen mit N<=5, N<=3 und N<=1 erstellen. Wie unterscheiden sich die Geschichten in ihrer Qualität? Halte deine Antwort stichwortartig im Textfeld fest. Loading ⌛ Erklärung zu N<=1
  3. Alle N-Gramme werden mit Punkten benotet (wird als grüner Balken angezeigt). Je häufiger ein N-Gramm in den Dokumenten vorkommt, desto höher die Punktzahl. Weiter gilt, je grösser das N desto mehr Punkte. Das finale N-Gramm für die Fortsetzung wird zufällig ausgewählt, aber ein N-Gramm mit mehr Punkten hat eine höhere Wahrscheinlichkeit.
    Wenn du im Bereich Text erzeugen auf den Button selbst auswählen klickst, kannst du selbst aus den N-Grammen mit den höchsten Punktzahlen auswählen. Es werden dir dabei aber nur die Fortsetzungswörter angezeigt. Je dunkler der Grünton der Fortsetzungswörter ist, desto grösser ist das N des zugehörigen N-Gramms. Lasse dir ein Märchen erzeugen, in welchem du ab und zu selbst das nächste Wort wählst. Kopiere das Märchen ins Textfeld. Loading ⌛
✍ Auftrag "Dem Zufall auf die Sprünge helfen"
  1. Öffne das ⚙️ Zahnrad oben im Bereich Wortvorschläge. Lies darin den Text zur Temperatur. Lasse dir Märchen mit tiefer und Märchen mit hoher Temperatur generieren. Was stellst du fest? Was bedeutet die Temperatur für „Kreativität“ und „Textschönheit“? Halte deine Einsichten im Textfeld fest. Loading ⌛ Hinweis
✍ Auftrag "Prompt berücksichtigen"
  1. Öffne das ⚙️ Zahnrad oben im Bereich Wortvorschläge. Stelle die Temperatur zurück auf 60%. Aktiviere dort auch den obersten der drei Schalter „eingegebenen Prompt auswerten“.
    💡 Jetzt wird in der Dokumentensammlung nach Dokumenten gesucht in welchen die Wörter aus dem Prompt vorkommen. Je mehr davon vorkommen desto höher ist die Punktzahl des Dokuments. Für die Textgenerierung werden vorallem N-Gramme aus diesen Dokumenten genommen.
  2. Gib als Prompt „Schreibe mir ein Märchen mit Rotkäppchen.“ Was für eine Art Geschichte wird nun geschrieben? Welche Dokumente wurden berücksichtigt? Halte deine Beobachtung fest. Loading ⌛
  3. Gib nun als Prompt „Schreibe mir ein Märchen mit einem Wolf.“ In welchen Dokumenten kommt das Wort „Wolf“ vor? Handelt die erzeugte Geschichte wirklich von einem Wolf? Wie lässt sich das erklären? Loading ⌛ Erklärung
✍ Auftrag "Fake News erzeugen"
  1. Öffne das ⚙️ Zahnrad oben im Bereich Wortvorschläge. Stelle die Temperatur auf 60%. !!Deaktiviere!! den obersten der drei Schalter „eingegebenen Prompt auswerten“.
  2. Ă–ffne Soekia-Beispiel, klicke dort auf Datei und auf Herunterladen. Speichere die Datei an einem Ort, an welchem du die Datei wiederfindest.
  3. In SoekiaGPT im Bereich Dokumente klicke auf das ≡-Symbol oben ganz rechts und wähle Soekia-Datei hochladen. Wähle das Soekia Beispiel aus.
  4. Schaue dir den generierten Text an. Schaue dir die vier Dokumente in der Dokumentensammlung an. Aus welchem Dokument stammt der Text? Gib den Buchstaben des Dokuments in das Textfeld ein. Loading ⌛
  5. Erzeuge einen neuen Text. Jetzt wird ein komplett anderer Text ausgegeben. Aus welchen Dokumenten stammt dieser Text? Loading ⌛
  6. Öffne erneut das ⚙️ Zahnrad oben im Bereich Wortvorschläge. Aktiviere diesmal den obersten der drei Schalter „eingegebenen Prompt auswerten“.
  7. Gib den Prompt Trump Grönland ein. Was für ein Text erscheint nun? Loading ⌛
  8. Was bedeutet das für das verbreiten von Fake News? Wie kriege ich ein Sprachmodell dazu, Fake News zu produzieren? Loading ⌛ Erklärung


4. Vergleich zwischen SoekiaGPT und ChatGTP

Bei SoekiaGPT werden in einem ersten Schritt alle 1-, 2-, 3-, 4- und 5-Gramme in allen Texten herausgesucht. Danach bekommen die N-Gramme Punkte. Ein Teil der Punkte stammt von ihrer Häufigkeit. Weiter bekommten N-Gramme mit vielen Wörtern (z.B. 5-Gramme) mehr Punkte als N-Gramme mit wenigen Wörter (z.B. 1-Gramme). Ist das geschafft, braucht es die Texte nicht mehr. In einem zweiten Schritt wird mit dieser „N-Gramm Hitparade“ ein zufälliger Text generiert. N-Gramme mit vielen Punkten werde häufiger gewählt als N-Gramme mit wenigen Punkten.

Bei KI-Sprachmodellen wie ChatGPT ist das komplizierter. Diese nutzen sogenannte neuronale Netze. Das sind mathematische Modelle, welche dem menschlichen Gehirn nachempfunden sind. Das spezielle bei diesen Modellen, sie beinhalten viele Zahlen, welche eingestellt werden können. Diese Zahlen bilden das Gedächtnis. In einem ersten Schritt werden diese Zahlen mithilfe aller verfügbaren Texte eingestellt. Und zwar so, dass am Ende das KI-Sprachmodell, schöne Texte erzeugt. Ist das geschafft braucht es die Texte nicht mehr. In einem zweiten Schritt wird mithilfe dieser Zahlen ein zufälliger Text generiert. Je häufiger eine Textfortsetzung in den Daten vorkam, desto wahrscheinlicher ist es, dass diese Fortsetzung gewählt wird.

SoekiaGPT und ChatGPT funktionieren im Prinzip ganz ähnlich. Jedoch sind die neuronalen Netze in ChatGPT deutlich anpassungsfähiger als die N-Gramme in SoekiaGPT und die Datenbasis von ChatGPT ist ungleich grösser als diejenige von SoekiaGPT. Generell sind die KI-Sprachmodelle den N-Gramm-Modellen klar überlegen. Aber für das Vorschlagen eines Wortes beim Tippen auf dem Smartphone genügen N-Gramme allemal.

✍ Auftrag "Vergleich"
  1. Fasse den obigen Text zusammen, indem du stichwortartig die Gemeinsamkeiten zwischen ChatGPT und SoekiaGPT und auch die Unterschiede zwischen beiden auflistest.

Loading ⌛


🤩 SoekiaGPT für Fortgeschrittene

🤩 Abschnitt für Schnelle oder Interessierte

✍ Auftrag "andere Datenbasen"
  1. Klicke im Bereich Dokumente oben rechts auf den mittleren Button („Vorgegebene Kollektionen“). Jetzt werden dir verschiedene Dokumentsammlungen angezeigt. Wähle die zweite aus („Fairy Tales“). Erzeuge damit ein paar Texte.
  2. Mache dasselbe mit der dritten und vierten Dokumetensammlung („Wettervorhersage“ und „Tiergeschichten- und beschreibungen“).
  3. Für welche Dokumentsammlung werden deiner Meinung nach die besten Texte generiert („Märchen“, „Fairy Tales“, „Wettervorhersage“ und „Tiergeschichten- und beschreibungen“)? Kopiere ein Textbeispiel deines Favoriten in das Textfeld. Loading ⌛
✍ Auftrag "Ähnlichkeit und Synonyme"
  1. Wähle die Dokumentensammlung „Tiergeschichten und -beschreibungen“.
  2. Öffne das ⚙️ Zahnrad oben im Bereich Wortvorschläge und aktiviere die beiden untersten Schalter „grammatikalisch ähnliche Wörter einbeziehen“ und „Synonyme einbeziehen“.
    💡 Damit werden N-Gramme welche sich nur in zueinander ähnlichen Wörtern (im Bereich Wortvorschläge rot markiert) oder Synonymen (Wörter mit gleicher Bedeutung werden blau markiert) unterscheiden, zusammengezählt und erhalten so eine höhere Wahrscheinlichkeit gewählt zu werden. KI-Sprachmodelle wie ChatGPT sind ebenfalls in der Lage, ähnliche Wörter und Synonyme erkennen zu können.
  3. Lasse Texte generieren und versuche durch betätigen der Pausentaste rot markierte ähnliche Wörter zu finden und blau markierte Synonyme. Halte einige davon fest. Loading ⌛
✍ Auftrag "Musik generieren"
  1. Klicke im Bereich Dokumente oben rechts auf den mittleren Button („Vorgegebene Kollektionen“). Wähle die Kollektion „Musik in ABC-Notation“ aus.
  2. Erzeuge damit einen Text. Genau das ist ein Musikstück. Lasse dir das Musikstück abspielen. Experimentiere etwas mit dieser Dokumentensammlung herum. Kopiere eines der erzeugten Musikstücke in das Textfeld. Loading ⌛
✍ Auftrag "Eigene Dokumente"
  1. In SoekiaGPT im Bereich Dokumente klicke auf das ≡-Symbol oben ganz rechts und wähle Neue Kollektion.
  2. Erstelle ein paar Dokumente mit eigenen Texten (z.B. aus dem Internet).
  3. Generiere ein paar Texte und halte einen davon im Textfeld fest. Loading ⌛


Eigene Notizen

Loading ⌛

1)
Bild: KI-generiert
2)
Eigene Darstellung
3)
Hielscher M. und Hartmann W., „SoekiaGPT“, Pädagogische Hochschule Schwyz, CC BY 4.0, URL: https://www.soekia.ch/gpt.html