Wer in unserer Gesellschaft die Landessprache nicht beherrscht, wird laufend vor Problemen stehen. Man kann weder mit der öffentlichen Verwaltung kommunizieren, sich in der lokalen Presse über regionale Entwicklungen informieren noch im vollen Umfang von unserem Bildungssystem profitieren. Sprachliche Hürden führen schnell zu negativen Erfahrungen und erschweren die gesellschaftliche Teilhabe deutlich.
Im Alltag begegnen uns oft Texte, die schwer verständlich sind, wie Verträge, Richtlinien und behördliche Schreiben. Viele Menschen, besonders jene, deren Muttersprache nicht die Textsprache ist, oder Menschen mit Lernschwierigkeiten, haben Schwierigkeiten, diese Texte zu verstehen. Das kann dazu führen, dass sie sich ausgeschlossen fühlen und sich vom gesellschaftlichen Leben zurückziehen. Indem wir Texte leichter verständlich machen – durch den Gebrauch einfacherer Wörter, klare Darstellungen von komplexen Informationen und den Einsatz von visuellen Hilfen – können wir die Benachteiligung dieser Gruppen verringern und beugen einer Marginalisierung vor. Daher kann man es als gesamtgesellschaftliche Aufgabe begreifen Informationen für diese Gruppen zugänglich zu machen und hierdurch Hürden bei der Teilhabe abzubauen.
Hierzu haben sich unter anderem die Konzepte Leichte und Einfache Sprache etabliert. Es gibt ein immer wachsendes Angebot an vereinfachten Texten und in manchen Fällen sogar einen rechtlichen Anspruch auf leicht verständliche Informationen. Dennoch begrenzt der hohe Erstellungsaufwand die vorhandene Menge. Hier können generative KI-Systeme unterstützen. In diesem Artikel möchten wir die positiven und negativen Aspekte der KI-Nutzung in diesem Bereich offenlegen und offene Fragestellungen aufzeigen.
Der aktuelle Stand der KI und ihre Risiken
Generative künstliche Intelligenz (KI) kann selbstständig Inhalte, beispielsweise Texte oder Bilder erzeugen. Seit der Veröffentlichung von ChatGPT sind derartige Algorithmen aus unserem Alltag nicht mehr wegzudenken. Wie selbstverständlich wird KI zur Übersetzung, zur Zusammenfassung oder gar als offener Chatbot genutzt, der scheinbar zu jeder Problemstellung eine Hilfestellung bietet. Mit der Entwicklung kommen aber auch neue Probleme und Fragestellungen, die sich aus der Anwendung der KI ergeben:
- Welchen Einfluss hat KI auf die wissenschaftliche Praxis?
- Welchen Einfluss hat KI auf Lehre und Ausbildung?
- Welchen Einfluss hat böswillige Nutzung von KI, beispielsweise bei der Erzeugung von Fake-News, auf unsere Gesellschaft?
- …
Derartige Risiken können sich auf KI-Systeme zur Sprachvereinfachung übertragen. Dabei müssen jedoch die besonderen methodischen und sozialen Aspekte im Zuge der Sprachvereinfachung betrachtet werden.
Wer ist die Zielgruppe?
Schauen wir uns zunächst die Zielgruppe für Sprachvereinfachungen an. Die Gruppe ist sehr heterogen und reicht von Nichtmuttersprachlern oder Fachfremden bis hin zu Kindern oder Personen mit Lernschwäche. Teile dieser Zielgruppe können in besonderem Maße “vulnerabel” sein. Hiermit meinen wir, dass diese Personen Gefahr laufen mittels textueller Informationen getäuscht oder ausgenutzt zu werden.
Wir möchten mit dem Begriff die Zielgruppe nicht stereotypisch als “leicht zu täuschen” darstellen, sondern darauf hinweisen, dass einige Personen tendenziell in besonderem Maße geschützt werden sollten. Zudem können auch Gruppen, die man tendenziell als “nicht-vulnerabel” betrachtet werden getäuscht werden. Ein Beispiel sind Fachfremde, die einen gezielt irreführenden Fachtext lesen.
Neben der sehr heterogenen Zielgruppe möchten wir bei der Bewertung der Risiken auch verschiedene Arten der Nutzung von KI unterscheiden.
KI-basierte Vereinfachung
Zunächst kann KI dazu genutzt werden, um vorhandene Informationen zu vereinfachen. Hier können wir davon ausgehen, dass der Inhalt der ursprünglichen Informationen bereits qualitätsgesichert ist. Für die Zielgruppe ergeben sich verschiedene positive Effekte: Zum Beispiel erhöht sich durch gesteigerte Verfügbarkeit von zugänglichen Informationen die Autonomie und die Teilhabe. Für Menschen, die im Alltag betreut und unterstützt werden sinkt der Aufwand, der auf gemeinsames Lesen und Verstehen von Texten abfällt. Die freien Kapazitäten können anders in der Betreuung genutzt werden.
Fachleute, die Texte vereinfachen, sorgen auf der anderen Seite dafür, dass ihre Formulierungen nicht missverstanden werden können. Dies verhindert, dass Menschen, die auf vereinfachte Texte angewiesen sind, falsche Schlüsse aus den vereinfachten Texten ziehen. Die Vereinfachung komplexer Texte erfordert oft Modifikationen, wie Kürzungen, die Verwendung von Beispielen usw., um die Inhalte verständlicher zu machen. Diese Änderungen könnten ohne erneute menschliche Prüfung dazu führen, dass Inhalte missverstanden werden, selbst wenn der ursprüngliche Text sorgfältig geprüft wurde. Diese Anpassungen sind notwendig, um die Texte wirklich einfacher und verständlicher zu gestalten.
Generative KI zur Erstellung neuer Inhalte
Betrachten wir nun die Generierung neuer Inhalte mittels KI. Die schnelle Verbreitung von ChatGPT zeigt, dass viele Menschen generative KI gerne einsetzen und scheinbar von dieser profitieren. Auch Menschen, die auf vereinfachte Texte angewiesen sind, haben ein Recht darauf, von positiven Aspekten dieser Technologie profitieren zu können. Dabei könnten sich aber negative Folgen für vulnerable Zielgruppen ergeben.
Bei der Anwendung von LLMs speziell in offenen Chatsystemen wie ChatGPT sind Probleme mit scheinbar erfundenen Fakten (Halluzinationen), fehlerhaften Darstellungen oder leicht zu umgehenden Sicherheitsmechanismen bekannt. Diese lassen sich folglich auch auf die hier betrachteten Lösungen übertragen.
Zum Training von KI-Modellen werden Online-Daten verwendet. Diese können teilweise bewusste Falschdarstellungen oder einseitige Darstellungen beinhalten. Diese können durch das Training latent in die Modelle einfließen. Welchen Einfluss kann dies auf KI haben, die gezielt mit einer vulnerablen Zielgruppe kommuniziert? In welchem Rahmen kann man die negativen Folgen durch Sicherheitsmaßnahmen einschränken? Es sollte vermieden werden, dass ein KI-Modell eine vulnerable Zielgruppe mit derartigen Informationen konfrontiert.
Unsere Empfehlung
Hieraus leiten wir folgende Empfehlungen für zukünftige Entwicklungen ab. Dabei beschränken wir uns auf die für Sprachvereinfachung spezifischen Aspekte. Zum einen benötigen wir einen Mechanismus, um die Art der Vereinfachung, also zu welchem Grad sprachlich vereinfacht und inhaltlich reduziert wird, auf Nutzer anpassen zu können. Wir müssen vermeiden, dass Nutzer systematisch von einer KI durch zu starke Reduktion von Komplexität bevormundet werden. Wir brauchen eine neue Methodik, die es erlaubt, die Verständlichkeit in diesem speziellen Rahmen zu evaluieren.
In besonders sensiblen Bereichen wie Betreuung und Unterstützung sollten KI-Modelle aufgrund der bestehenden Risiken unterstützend eingesetzt werden. Sie sollen die menschliche Interaktion nicht ersetzen.
Wenn generative KI ohne menschliche Kontrolle in vereinfachter Form kommunizieren soll, dann sollten wir das inhaltliche Spektrum, auf dem wir die KI anwenden so einschränken, dass es technisch möglich ist die Antworten zu verifizieren. Wir gehen aktuell nicht davon aus, dass den beschriebenen Risiken in offenen Systemen Rechnung getragen werden kann. Daher empfehlen wir eine Einschränkung des Umfangs, um Sicherheitsmechanismen integrieren zu können.
Abschließend möchten wir auf die offene Frage hinweisen, wie der Zugang zu solchen Systemen geregelt werden soll. Aufgrund der beschriebenen Risiken könnte man die Systeme geschlossen halten. Das bedeutet wir nur verifizierte Nutzer können auf das System zugreifen. Offen verfügbare Systeme erlauben dagegen eine einfache und anonyme Nutzung und haben ein größeres Potential, die Teilhabe praktisch zu erhöhen.
Autoren
M. Sc. Lars Klöser