Vom Dorfplatz zum Chatbot – Regionale Sprache im Zeitalter Künstlicher Intelligenz

Eine KI, die mich auch versteht, wenn ich frei heraus in meinem Heimat­dia­lekt mit ihr spreche? Oder ein Chatbot, der die Erzäh­lun­gen von Opa ins Hochdeut­sche übersetzt, sodass auch die Pflege­kraft sie verstehen kann? Wie wäre es mit einem KI-Tool, das einen bairi­schen Text ins Platt­deut­sche übersetzt?

Nicht nur solche alltags­na­hen Werkzeuge könnten bald schon Realität sein. Auch die Sprach­wis­sen­schaft profi­tiert in ihrer Forschung von dem großen Innova­ti­ons­po­ten­zi­al der rapiden Entwick­lung Künst­li­cher Intel­li­genz. Welche Chancen, aber auch welche Risiken die neue KI-Technologie für die Dialekt­for­schung mit sich bringt, beobach­tet künftig das inter­dis­zi­pli­nä­re Netzwerk Regionale Sprache und Künst­li­che Intel­li­genz.

Gefördert von der VolkswagenStiftung trafen sich 35 Wissenschaftler*innen im August 2025 auf Schloss Herrenhausen in Hannover. Bei der Zusam­men­kunft handelte es sich um einen dreitä­gi­gen Scoping Workshop, also ein Arbeits­tref­fen, bei dem Perspek­ti­ven und Aufgaben für die Weiter­ent­wick­lung einer Fachdis­zi­plin ausge­ar­bei­tet werden. Im Fokus des Workshops stand das Thema „Künst­li­che Intel­li­genz und regionale Identität – Poten­zia­le der Dialek­to­lo­gie im Zeitalter digitaler Transformation“.

Aus diesem Arbeits­pro­zess ist nun das Positionspapier „Regionale Sprache und Künstliche Intelligenz im Zeitalter der digitalen Transformation“ entstan­den, das in der Zeitschrift für Dialektologie und Linguistik (ZDL) erschie­nen ist. Das Positi­ons­pa­pier beschäf­tigt sich damit, wie Künst­li­che Intel­li­genz und Dialekt­for­schung Hand in Hand gehen können. Es zeigt den aktuellen Stand der Einbin­dung von KI-Verfahren in die Forschungs­pra­xis auf, benennt notwen­di­ge Voraus­set­zun­gen und lotet die Poten­zia­le der Weiter­ent­wick­lung aus. Betrach­tet werden jedoch auch mögliche Risiken. Daraus werden schließ­lich Empfeh­lun­gen für unter­schied­li­che Akteure abgelei­tet, wie etwa die Fachge­sell­schaf­ten (z. B. Internationale Gesellschaft für Dialektologie des Deutschen) und Förder­mit­tel­ge­ber (z. B. Deutsche Forschungsgemeinschaft).

Schloss Herren­hau­sen bot als Veran­stal­tungs­ort viel Raum für Ideen. (Foto: Mareike Krause)

Teil der inter­na­tio­na­len Runde waren nicht nur Forschen­de aus Deutsch­land, sondern auch aus der Schweiz, Öster­reich, Luxemburg, Belgien, Norwegen und den USA. Wichtig war den Organisator*innen Prof. Dr. Hanna Fischer und Prof. Dr. Alfred Lameli (vom Forschungszentrum Deutscher Sprachatlas an der Philipps-Universität Marburg), dass Expert*innen aus der Sprach­wis­sen­schaft, der Compu­ter­lin­gu­is­tik und Infor­ma­tik in einen inten­si­ven, ergeb­nis­of­fe­nen Dialog treten. Dabei wurden sie durch die Modera­to­rin Maja Härri unterstützt.

Zu Beginn fand eine Stand­ort­be­stim­mung statt: Wo gibt es bereits KI-Anwendungen, die die Sprachwissenschaftler*innen bei ihrer Arbeit unterstützen?

Zentral sind dabei vor allem die sogenann­ten Large Language Models (LLMs). Das sind Sprach­mo­del­le, die auf maschi­nel­lem Lernen basieren und die natür­li­che Sprache in ihrer Bedeutung erschlie­ßen, überset­zen sowie auch selbst generie­ren können. Solche Modelle, wie GPT, Gemini und Claude, basieren auf neuro­na­len Netzen, die durch das Training an riesigen Daten­men­gen aus Textsamm­lun­gen Wahrschein­lich­kei­ten für Wortfol­gen berechnen. Auf diese Weise werden kontext­be­zo­ge­nen Texte generiert.

Einige KI-Anwendungen sind in der Sprach­wis­sen­schaft bereits fester Bestand­teil des Arbeits­all­tags. So gibt es beispiels­wei­se audio­ba­sier­te Programme, die gespro­che­ne Sprache zu Text umwandeln und damit die manuelle Transkrip­ti­on ablösen (z. B. WebMAUS). Hinzu kommen Tools, die große Textmen­gen verar­bei­ten können und zum Beispiel für die gramma­ti­sche Analyse einge­setzt werden (z. B. Sketch Engine). Diese KI-Tools funktio­nie­ren bisher jedoch nur für nicht-dialektale Sprach­auf­nah­men und Texte, da sie auf Basis von standard­sprach­li­chen Trainings­da­ten entwi­ckelt wurden. Chatbots und Sprach­mo­del­le zur Dialekt­si­mu­la­ti­on sowie zur maschi­nel­len Verar­bei­tung von dialek­ta­len Sprach­da­ten gibt es kaum.

Insgesamt ermög­li­chen die KI-Tools in der Sprach­wis­sen­schaft eine bisher nie dagewe­se­ne Effizienz bei der Verar­bei­tung und Auswer­tung von Sprach­da­ten. Diese Produk­ti­vi­täts­stei­ge­rung wirkt bereits jetzt als Kataly­sa­tor für Forschungs­pro­zes­se, da zeitin­ten­si­ve manuelle Arbeiten nun von KI-Tools ausge­führt werden können und nicht mehr durch studen­ti­sche Hilfs­kräf­te erfolgen müssen.

In immer wieder neuen Konstel­la­tio­nen tauschten sich die Workshop-Teilnehmer*innen über unter­schied­lichs­te Themen­be­rei­che aus. (Foto: Ella Wissen­bach)

Das Fach der Regio­nal­spra­chen­for­schung trägt die besondere Verant­wor­tung, regionale Sprache im digitalen Raum präsent zu machen und dabei auch die kultu­rel­le Vielfalt abzubil­den. Denn leider werden Dialekte und Minder­hei­ten­spra­chen von KI-Tools oft ‚übersehen‘. Das liegt daran, dass eine Künst­li­che Intel­li­genz nur die Daten wieder­ge­ben kann, mit denen sie trainiert wurde. Je weniger Sprach­da­ten zu einem Dialekt für das Training zur Verfügung stehen, desto weniger wird der entspre­chen­de Dialekt abgebil­det. Während für die Standard­spra­che, die in den Medien und den digitalen Textar­chi­ven (z. B. Projekt Gutenberg) allge­gen­wär­tig ist, große Daten­men­gen bestehen, gibt es nur wenige Sammlun­gen von digitalen Dialekt­auf­nah­men oder Dialekt­tex­ten. Entspre­chend sind für das Training von regio­na­len Sprach­mo­del­len aktuell zu wenige Daten verfügbar. Daraus ergibt sich ein Ungleich­ge­wicht zwischen der Alltags­rea­li­tät der Dialektsprecher*innen und der Reprä­sen­ta­ti­on ihrer Mutter­spra­che im digitalen Raum. Damit das nicht so bleibt, regen die Autor*innen des Positionspapiers Leitli­ni­en für eine zukunfts­ori­en­tier­te Entwick­lung der Fachkul­tur an.

Eine zentrale Leitlinie bezieht sich auf die Bereit­stel­lung hochqua­li­ta­ti­ver regio­nal­sprach­li­cher Daten nach den FAIR-Prinzipien. Diese stellen Grund­sät­ze der Daten­be­reit­stel­lung dar, die im Sinne einer offenen Wissen­schaft den Zugang zu Forschungs­da­ten gewährleisten.

Die FAIR-Prinzipien für digitale Forschungs­da­ten. Grafik von Paulina Halina Sieminska – CC-BY-SA 4.0. https://forschungsdaten.info/themen/veroeffentlichen-und-archivieren/faire-daten/ (letzter Zugriff: 26.03.2026)

Langfris­ti­ges Ziel ist der Ausbau der fachspe­zi­fi­schen Infra­struk­tur und die umfas­sen­de Vernet­zung von Reposi­to­ri­en (zum Beispiel im NFDI-Konsortium Text+), also digitalen Speicher­or­ten von Forschungs­da­ten. Insgesamt wird der Wandel der eigenen Fachkul­tur hin zu den Grund­sät­zen von Open Science initiiert.

Eine weitere Leitlinie ist die Verstär­kung der Koope­ra­ti­on zwischen Regio­nal­spra­chen­for­schung, Compu­ter­lin­gu­is­tik und KI-Forschung (wie zum Beispiel in der Workshop-Reihe VarDial). Durch syste­ma­ti­schen Austausch und konti­nu­ier­li­chen Wissens­trans­fer soll bei Studie­ren­den und Forschen­den der Regio­nal­spra­chen­for­schung auch ein Kompe­tenz­er­werb im Bereich von KI-Verfahren forciert werden.

Regio­nal­sprach­li­che Expertise sollte zudem in die öffent­li­chen Diskurse über KI aktiv einge­bracht werden, um als Fach gesell­schaft­li­che Verant­wor­tung zu überneh­men. Außerdem besteht eine nicht zu vernach­läs­si­gen­de Verant­wor­tung für die Umwelt, da die KI-Technologien äußerst energieintensiv sind.

Nach einem inten­si­ven Austausch in Klein­grup­pen wurden alle Ergeb­nis­se im Plenum disku­tiert. (Foto: Ella Wissen­bach)

Auch in einem weiteren Punkt waren sich die in Hannover anwesen­den Wissenschaftler*innen einig: Regionale Sprache ist ein Thema, das stark mit den Menschen verbunden ist. Dialekt­for­schung erfolgt daher am besten in enger Zusam­men­ar­beit mit den Dialektsprecher*innen selbst. Diese können zum Beispiel dazu beitragen, geeignete Trainings­da­ten für dialek­ta­le KI-Vorhaben zu gewinnen oder die Sprach­aus­ga­ben von KI-Bots zu bewerten.

Gute Erfah­run­gen gibt es bereits in Citizen Science-Projekten wie der WenkerbogenApp. In diesen Projekten werden die Bürger*innen direkt in die Forschungs­pro­zes­se einbe­zo­gen, indem sie zum Bespiel Dialekt­wör­ter überset­zen oder handschrift­li­che Dokumente trans­li­te­rie­ren. Damit stärken die Bürger*innen nicht nur die digitale Forschungs­in­fra­struk­tur, sondern sie können auch helfen, Dialekt­kennt­nis­se zu erhalten oder auszu­bil­den. Auf diesem Weg tragen sie dazu bei, das Bewusst­sein für sprach­li­che Vielfalt in der Gesell­schaft zu stärken.

Das Netzwerk Regionale Sprache und Künst­li­che Intel­li­genz beim Scoping Workshop in Hannover. (Foto: Volks­wa­gen­Stif­tung)

Die gemein­sa­me Arbeit im Rahmen des Scoping Workshops hat zur Gründung des Netzwerks Regionale Sprache und Künst­li­che Intel­li­genz geführt, das sich als offener Forschungs­ver­bund an der Schnitt­stel­le von Regio­nal­spra­chen­for­schung, Compu­ter­lin­gu­is­tik und KI-Forschung versteht. Das Netzwerk ist über das Forschungszentrum Deutscher Sprachatlas erreichbar.

Diesen Beitrag zitieren als

Gerlach, Lisa. 2026. Vom Dorfplatz zum Chatbot – Regionale Sprache im Zeitalter Künst­li­cher Intel­li­genz. Sprach­spu­ren: Berichte aus dem Deutschen Sprach­at­las 6(3). In: Sprach­spu­ren: Berichte aus dem Deutschen Sprach­at­las 6(3). https://doi.org/10.57712/2026-03

Lisa Gerlach
Lisa M. Gerlach ist studentische Hilfskraft in der Germanistischen Linguistik mit dem Schwerpunkt Sprachvariation und Sprachgeschichte am Forschungszentrum Deutscher Sprachatlas. Sie war zuvor als Hilfskraft in dem Projekt „Künstliche Intelligenz und regionale Identität – Potenziale der Dialektologie im Zeitalter digitaler Transformation“ an der Universität Rostock tätig.