Sprache und KI: Autor(inn)en und Beiträge

GfdS-Projekt zu künstlicher Intelligenz
Foto: Brian Penny (Pixabay)

Im Rahmen unseres Projekts „Sprache und KI“ sind unter anderem fünf Beiträge entstanden, die unterschiedliche Perspektiven auf das Zusammenspiel von Künstlicher Intelligenz und sprachbezogenen Anwendungsfeldern eröffnen und zentrale Entwicklungen sowie Herausforderungen an dieser Schnittstelle aufzeigen.

Erschienen sind die Beiträge als Sonderheft sowie als Themenheft unserer Zeitschrift Der Sprachdienst (Heft 2–3/2026).

Hier geben wir Ihnen einen Überblick über die Inhalte der einzelnen Beiträge, nebst Informationen über unsere Autorinnen und Autoren:

Noah Bubenhofer: Regeln oder Statistik? Die Geschichte der künstlichen Intelligenz aus linguistischer Perspektive

Fotos: patrypguerreiro, Anemone123, Pete Linforth (Pixabay; mod.)

Der Text untersucht aus linguistischer Perspektive die Entwicklung und Funktionsweise künstlicher Intelligenz, insbesondere sprachorientierter Systeme. Der Autor beginnt mit einer Darstellung menschlicher Kommunikation: Sprache ist nicht nur ein kreatives Mittel zur Informationsübertragung, sondern stark routiniert, performativ und in multimodale Praktiken eingebettet; kommunikative Gattungen und soziale Kontexte werden durch wiederkehrende Zeichen hergestellt. Dem steht die systemlinguistische Sicht gegenüber, die Sprache als System von Wörtern und Grammatikregeln begreift – diese beiden Perspektiven bilden das Spannungsfeld für KI‑Ansätze (regelbasiert vs. statistisch).

Historisch entstanden frühe KI‑Versuche als symbolische, regelbasierte Systeme (z. B. ELIZA), die Sprache mit formalen Regeln und Ontologien verarbeiteten; solche Systeme waren jedoch oft wenig robust gegenüber Variation. Ein Paradigmenwechsel hin zu statistischen Methoden setzte ein: Distributionelle Semantik macht Bedeutung aus dem Verteilungsverhalten von Ausdrücken in Korpora sichtbar und repräsentiert Wörter als Vektoren (Embeddings). Verfahren wie word2vec und später kontextabhängige Embeddings sowie neuronale Netze nutzten große Textmengen und Rechenleistung, um Vorhersagemodelle zu trainieren.

Aus diesen Entwicklungen entstanden Large Language Models (LLMs), die durch das Vorhersagen des nächsten Tokens komplexe, kontextabhängige Textfortsetzungen erzeugen. Mit zusätzlichem Training auf Dialog‑ und Instruktionsdaten werden daraus interaktive Chatbots, die in vielen Fällen überraschend kompetent wirken, weil sie routinierte, gattungstypische Muster aus großen Textsammlungen reproduzieren. Zugleich begrenzen diese Mechanismen die Modelle: Bei situativem Kontext, überprüfbarem Faktenwissen oder intentionaler Verantwortlichkeit sind LLMs auf plausibles Fortsetzungsmuster beschränkt.

Der Text bietet ein funktionales Raster für KI‑Anwendungen entlang zweier Achsen – sprachlich‑kommunikative Funktionen (Transformation, Generierung, Analyse/Annotation, Interaktion/Assistenz) und Wissens-/Quellenbezug (modell‑intern, retrieval‑gestützt, tool‑gestützt, workflow‑gestützt) – und betont, wie heutige Systeme oft Retrieval und externe Tools nutzen. Weiterhin werden Fragen der Offenheit (offene vs. kommerzielle Modelle), Nachvollziehbarkeit (Blackbox‑Problem, begrenzte Aussagekraft von Chain‑of‑Thought‑Erklärungen) sowie angemessene Nutzung diskutiert: rechtliche Aspekte (Nutzung von Trainingsdaten), Datenschutz, Daten‑ und Softwaresouveränität, die Gefahr, spezialisierte Tools durch universelle KI‑Anwendungen zu substituieren, und die Notwendigkeit, Aufgaben sinnvoll zwischen Mensch und KI zu verteilen. Abschließend plädiert der Autor dafür, die epistemologischen Grundlagen (z. B. die distributionelle Hypothese) zu verstehen; viele aktuelle Debatten zu Autorschaft, Originalität oder Plagiat sind Teil längerer wissenschaftlicher Entwicklungslinien und helfen, Chancen und Grenzen der Technologie realistisch einzuschätzen.

Prof. Dr. Noah Bubenhofer
ist Professor für Germanistische Linguistik an der Universität Zürich. Seine Forschung und Lehre bewegen sich an der Schnittstelle zwischen Sprachgebrauch, digitaler Kommunikation und datengetriebenen Methoden der Sprachwissenschaft. Einen Schwerpunkt bilden korpuslinguistische und computerlinguistische Zugänge zu Sprache als sozialer Praxis – von Routinen und Textsorten über multimodale und performative Aspekte des Kommunizierens bis hin zu aktuellen Entwicklungen generativer KI.

Chris Maaß: Künstliche Intelligenz trifft Einfache und Leichte Sprache: Alles automatisch oder was?

Einfache und Leichte Sprache ist nicht per Tastendruck erstellbar.
Foto: Maria Maltseva (Pixabay, mod.)

Der Artikel beschreibt den Einsatz von KI‑Tools zur Erstellung von Einfacher und Leichter Sprache. Leichte Sprache richtet sich vor allem an Menschen mit intellektueller Beeinträchtigung, Einfache Sprache an fachliche Laien; beide haben Normen und Spezifikationen. KI‑Systeme (LLMs, Encoder‑Decoder‑Modelle) können Texte lexikalisch und syntaktisch vereinfachen und Informationen gewichten; es gibt spezialisierte Werkzeuge sowie Chatbots wie ChatGPT, die per Prompting gesteuert werden können. Studien und eigene Untersuchungen zeigen jedoch deutliche Grenzen: KI erzeugt oft terminologische Fehler, inakkurate oder unvollständige Aussagen, falsche Priorisierung von Informationen, Halluzinationen, Kohärenzprobleme, grammatische/orthografische Fehler und ungeeignete Tonalität. Solche Fehler sind besonders gefährlich in Hochrisikobereichen wie Gesundheits‑, Rechts‑ oder Behördenkommunikation, weil Zielgruppen oft nicht über Fachwissen verfügen, um Plausibilitätsprüfungen vorzunehmen. Daher sind KI‑Ergebnisse nur als Zwischenstufe zu sehen: Anbieter sollten KI als Werkzeug nutzen, aber zwingend Post‑Editing durch fachkundige Redaktionen und Prüfungen mit den Zielgruppen durchführen. Praxisbeispiele zeigen, dass KI die Produktionszeit deutlich reduzieren kann (z. B. auf ein Drittel), aber immer noch erheblicher Aufwand für Nachbearbeitung nötig ist. Zukunftsaussichten: Domänenspezifisch trainierte Modelle, Regelintegration und bessere LLMs können die Qualität verbessern, trotzdem bleibt der menschliche Faktor unverzichtbar – es gibt keine verlässlich sicheren »Leichte Sprache auf Knopfdruck«-Texte.

Prof. Dr. Chris Maaß
ist Direktorin der Forschungsstelle Leichte Sprache (Universität Hildesheim) und Leiterin des Masterstudiengangs Barrierefreie Kommunikation. Sie ist Mitautorin des Dudens Leichte Sprache, Leiterin des Fachbereichs Barrierefreie Gesundheitskommunikation des Deutschen Netzwerks Gesundheitskompetenz, Sachverständige für die Bundesinitiative Barrierefreiheit der deutschen Bundesregierung für »Digitales/Leichte Sprache«.

Franziska Heidrich-Wilhelms: KI in der Übersetzungswissenschaft – Überblick und Herausforderungen

Foto: Gerd Altmann (Pixabay, mod.)

Der Beitrag skizziert, was Übersetzungswissenschaft untersucht (Zieltexte, Übersetzungsprozesse, Äquivalenz, Qualitätskriterien), und erklärt, wie Large Language Models (LLMs) und andere KI‑Techniken als Hilfsmittel in Übersetzungsprozessen eingesetzt werden können. Chancen liegen in Zeitersparnis, Unterstützung repetitiver Arbeit und verbesserter Produktivität; Risiken sind Halluzinationen, fehlende Faktizität, Bias, kulturelle Verzerrung, schlechte Leistung bei Low‑Resource‑Sprachen sowie Qualitätsverluste bei fachlich hochspezifischen Texten mit potenziell sicherheitsrelevanten Folgen. Besondere Probleme betreffen Terminologie, Konsistenz, Kontextsensitivität und Datensicherheit/Urheberrecht. Menschliche Übersetzerinnen und Übersetzer behalten eine zentrale Rolle: Sie müssen Systeme auswählen, trainieren, überwachen, post‑editieren und Verantwortung übernehmen. Deshalb fordert die Autorin erweiterte Kompetenzen in Ausbildung und Praxis (Technische, Data‑ und KI‑Kompetenz, Machine‑Translation‑Literacy, ethische Sensibilität). Abschließend plädiert sie dafür, mit und über Maschinen zu lernen, die Forschung zu KI‑gestützten Übersetzungsprozessen zu verstärken und spezifische Probleme für Textsorten, Zielgruppen und Kommunikationssituationen weiter zu untersuchen.

Dr. Franziska Heidrich-Wilhelms
ist Lehrkraft für besondere Aufgaben am Institut für Übersetzungswissenschaft und Fachkommunikation der Universität Hildesheim. Sie lehrt und forscht zu Übersetzungs- und Fachkommunikationswissenschaft, Verständlichkeitsforschung sowie Technikredaktion mit Schwerpunkt auf Kommunikationsoptimierung und Effizienz.

Ursula Ortmann-Droste: »Tradition meets Innovation« – Der Einsatz von KI bei der Protokollierung von Ausschuss- und Gremiensitzungen durch den Stenografischen Dienst des Deutschen Bundestages

Foto: Thomas Ulrich (Pixabay, mod.)

Der Text beschreibt die Nutzung und Weiterentwicklung von KI-basierten Spracherkennungssystemen, insbesondere Whisper, bei der Protokollierung von Sitzungen in Parlamenten, mit Fokus auf Mehrsprachigkeit und Fehlerquellen. Getestet wurde und verwendet wird Whisper, das fremdsprachliche Ausdrücke, Bezeichnungen und Sätze meist fehlerfrei in der Originalsprache transkribiert. Schwierigkeiten aber bestehen bei sehr ungebräuchlichen Namen, Begriffen, Abkürzungen und undeutlicher Aussprache. Beispiel: Ein französischer Satz in einer deutschen Sitzung wird meist korrekt wiedergegeben; fehlerhafte Transkriptionen treten jedoch bei undeutlicher Aussprache auf, z.B. bei Abkürzungen wie BAAINBw oder Begriffen wie MED Irini. Die Software erkennt die Sprache zu Beginn innerhalb der ersten Sekunden, bei Sprachwechseln innerhalb längerer Ausführungen ist sie jedoch nicht in der Lage, den Wechsel zu erkennen.  Das Splitten der Tonaufnahme bei Sprachwechseln ist eine mögliche Lösung dieses Problems. Verbesserungen bei der Mehrsprachigkeit und Spracherkennung sind geplant, z.B. mit noScribe. Korrekturen durch menschliche Protokollierende sind notwendig, um gemachte Fehler zu beheben. Ziel ist die kontinuierliche Verbesserung der Transkriptionsqualität, Zeiteffizienz und insgesamt Ressourcenschonung.

Dr. Ursula Ortmann-Droste
ist Sprachwissenschaftlerin, Philologin und Historikerin. Seit 1986 ist sie im Stenografischen Dienst des Deutschen Bundestages tätig, seit 2004 Leiterin des Arbeitsbereichs »Ausschüsse und Gremien«. In dieser Funktion hat sie den Einsatz von KI als Unterstützung bei der Protokollierung von Ausschuss- und Gremiensitzungen maßgeblich mitinitiiert und implementiert.

Gerhard Lauer: Der Roman aus der Maschine

Viele Hände schreiben an Texten mit - nicht nur an denen von KI
Foto: Константин Сперов (Pixabay)

Der Text untersucht die Rolle von KI beim Verfassen von Büchern: Er schildert das rasche Auftauchen zahlreicher KI‑generierter Manuskripte (z. B. auf Plattformen wie Kindle Direct Publishing), die Reaktionen von Verlagen und Verlagsverbänden und die damit verbundenen Kontroversen um Autorschaft, Kennzeichnung und Urheberrecht. Leserinnen und Leser bewerten offengelegte KI‑Texte meist negativer (Disclosure‑Bias), wobei die Ablehnung je nach Genre variiert (Science‑Fiction toleranter, Lyrik und Liebesromane kritischer). Empirische Tests zeigen, dass LLMs qualitativ konkurrenzfähige Passagen erzeugen können, gleichzeitig aber charakteristische Schwächen beinhalten (unmotivierte Figuren, Handlungssprünge, flache Dialoge, übermäßige Wiederholungen), weshalb längere, kohärente Romane bislang noch nicht zuverlässig von KI allein produziert werden. Rechtlich stehen Kennzeichnungspflichten und Urheberrecht in einer Grauzone: KI‑generierte Werke genießen in vielen Rechtsordnungen keinen klassischen Urheberrechtsschutz und Transparenzregelungen (z. B. EU‑AI‑Act), Plattformkennzeichnungen sind im Entstehen. Praktisch werden KI‑Tools jedoch vor allem als Schreibassistenz genutzt (NovelAI, Sudowrite, ChatGPT u. a.) – sie unterstützen Plot, Stil, Konsistenz und Overcoming Writer’s Block – und werden zunehmend zum festen Bestandteil von Schreibworkflows. Abschließend lautet die Einschätzung: KI bleibt ein dauerhafter Companion des Schreibens, nützlich für handwerkliche Entscheidungen, aber kein vollständiger Ersatz für menschliche Kreativität.

Prof. Dr. Gerhard Lauer
ist Johannes-Gutenberg-Professor für Buchwissenschaft und Leseforschung an der Universität Mainz. Schwerpunkte seiner Forschung sind die Geschichte des Buchs und die Kultursoziologie der gegenwärtigen Lese- und Schreibpraktiken. Er ist Herausgeber des Gutenberg-Jahrbuchs. Wiederholt diskutiert wurde jüngst sein Aufsatz in der Zeitschrift Merkur über »Die neue literarische Öffentlichkeit«, zuvor schon sein Buch Lesen im digitalen Zeitalter.