Echtzeit-MRT in der Phonetik: Einblicke in Details der Artikulation

Im Bereich der artiku­la­to­ri­schen Phonetik ermög­li­chen bildge­ben­de Verfahren einen erheb­li­chen Erkennt­nis­ge­winn hinsicht­lich der Bewegungs­ab­läu­fe während der Sprach­pro­duk­ti­on. Zwei Methoden erlauben eine relativ gute zeitliche und räumliche Auflösung. Seit den 60er-Jahren steht hier das Ultra­schall­ver­fah­ren (Wein 1990, Wilson 2014) zur Verfügung. Es beruht auf der Reflexion von unhör­ba­rem Schall über 20 000 Hz an Gewebe­grenz­flä­chen (z. B. von Zungen­ober­flä­che und Umgebungs­luft) und erlaubt insbe­son­de­re die Visua­li­sie­rung der Zungenbewegung.

Seit den 80er-Jahren ist die Magnet­re­so­nanz­to­mo­gra­phie (MRT) hinzu­ge­kom­men (Wein et al. 1990). MRT beruht auf den physi­ka­li­schen bzw. magne­ti­schen Eigen­schaf­ten von Wasser. Der MRT-Scanner kann, verein­facht ausge­drückt, die Konzen­tra­ti­on an Wasser im Gewebe sichtbar machen. Höhere Konzen­tra­tio­nen von Wasser führen zu einer stärkeren magne­ti­schen Inter­ak­ti­on im Magnet­feld des MRT-Scanners. Messbar ist diese Inter­ak­ti­on anhand von Licht­in­for­ma­ti­on, weil aufgrund der physi­ka­li­schen Prozesse im Magnet­feld Licht­teil­chen ausge­sen­det werden. Gewebe mit einem höheren Wasser­ge­halt wird daher standard­mä­ßig im MRT-Bild heller darge­stellt, Gewebe mit gerin­ge­rem Wasser­ge­halt wird dunkler darge­stellt. Wasser­freie Regionen erschei­nen komplett schwarz. Das Resultat ist ein Schwarz-Weiss-Bild, in dem Gewebe­struk­tu­ren gut erkennbar sind. MRT-Bilder erlauben ein räumlich hochauf­lö­sen­des Bild von Gewebe- und Gewebs­struk­tu­ren in allen Ebenen, d. h. frontal, sagittal und trans­ver­sal. Dreidi­men­sio­na­le Rekon­struk­tio­nen sind damit bis zu einer Auflösung von 1 mm möglich. Aller­dings ist die zeitliche Auflösung des Verfah­rens üblicher­wei­se sehr schlecht, da das Wechsel­ma­gnet­feld schicht­wei­se das Gewebe durch­scannt und dafür eine gewisse Zeit braucht. Gleich­zei­tig ist die Prozedur des Scans von einem lauten Geräusch begleitet.

Abb. 1: Typischer Magnet­re­so­nanz­to­mo­graph (MRT) in der Klinik für Psych­ia­trie am Ortenberg in Marburg. Der Scanner der Marke Siemens wird demnächst erneuert und mit einem Modul zur Aufzeich­nung von Echtzeit-MRT ausgestattet.

Neuere MRT-Verfahren beruhen auf optimier­ten Ausle­se­tech­ni­ken, die sich einer­seits verbes­ser­te MRT-Algorithmen zunutze machen und anderer­seits von modernen Bildver­ar­bei­tungs­al­go­rith­men profi­tie­ren (Narayanan et al. 2004, Uecker et al. 2010). Jens Frahm vom Max-Planck-Institut für Biophy­si­ka­li­sche Chemie in Göttingen hat seit den 80er-Jahren die Entwick­lung der sogenann­ten „Echtzeit“-Tomographie wesent­lich beein­flusst und mit der FLASH-Techno­lo­gie den Grund­stein für die heutigen Möglich­kei­ten gelegt. Die Echtzeit-Tomographie ist in der Lage, Bilder bis zu einer Rate von 50 Hz, d. h. bis zu einer Auflösung von 20 Milli­se­kun­den, aufzu­neh­men. Damit ist es möglich, einzelne und phone­ti­sche relevante Bewegungs­ab­läu­fe (z. B. Annähe­rung des Zungen­rü­ckens an den harten Gaumen) während der Artiku­la­ti­on aufzuzeichnen.

Sowohl Ultra­schall als auch MRT haben einen natür­li­chen klini­schen Einsatz­be­reich. Seit der Verfüg­bar­keit von Ultra­schall für die Phonetik sind jedoch auch Sprach­pro­duk­ti­ons­stu­di­en durch­ge­führt worden, die sich z. B. mit Artiku­la­ti­ons­ein­stel­lun­gen in unter­schied­li­chen Sprachen und Dialekten beschäf­ti­gen (Bennett et al. 2018). Die noch junge Echtzeit-Tomographie-Technik löst zusehends die Ultraschall-Technik ab, weil sie nicht nur hochauf­lö­sen­de­re Bilder, sondern auch den gesamten Sprech­ap­pa­rat in unter­schied­li­chen Perspek­ti­ven abbilden kann (Carignan et al. 2020, Fujimoto et al. 2021, Labrunie et al. 2018).

Während der Reading-Week im Herbst 2018 konnte eine Gruppe Studie­ren­der und Lehrender des Forschungs­zen­trums Deutscher Sprach­at­las (DSA) und des Instituts für Germa­nis­ti­sche Sprach­wis­sen­schaft (IGS) Jens Frahm in seinem Labor am Max-Planck-Institut in Göttingen besuchen. Während des Besuchs sind einige Echtzeit-MRT-Aufnahmen entstan­den, von denen zwei hier exempla­risch erläutert werden, um das Potential für die Phonetik, Varia­ti­ons­lin­gu­is­tik und Dialek­to­lo­gie aufzu­zei­gen. Mittler­wei­le wurde an der Philipps-Universität Marburg ein Großge­rä­te­an­trag von der DFG bewilligt, der es erlaubt, die Echtzeit-Tomographie künftig auch in Marburg durch­zu­füh­ren (vgl. Abb. 1).

Zu den Testmes­sun­gen hat Jürgen Erich Schmidt, ehema­li­ger Direktor des DSA, mit der Artiku­la­ti­on eines Minimal­paa­res aus dem Mosel­frän­ki­schen beigetra­gen. Mosel­frän­kisch ist ein westmit­tel­deut­scher Dialekt bzw. ein Dialekt des histo­ri­schen Westdeutschen/Rheinischen (Schmidt / Möller 2019). Im Mosel­frän­ki­schen gibt es zwei distink­ti­ve Tonak­zen­te, bei denen sich segmen­tell gleiche Wörter („dauf“ ‘Taube’, ‘Taufe’) durch proso­dische Merkmale – hier: Tonhöhen- oder Pitch­ver­läu­fe – unter­schei­den („rheini­sche Akzen­tu­ie­rung“). Tonakzent 1, teilweise auch Stoßak­zent bzw. Schärfung genannt, kontras­tiert mit Tonakzent 2, auch als Schleif­ton bzw. Trägheits­ak­zent bekannt. In der mit Hardt (1843) begin­nen­den Forschungs­ge­schich­te gab es große Kontro­ver­sen über den Anteil der (auditiven) proso­dischen Merkmale Tonhöhe, Lautstär­ke und Dauer an der Distink­ti­on (s. den Forschungs­be­richt in Schmidt 1986).

Alexander Werth hat mit Hilfe von Merkmals­ma­ni­pu­la­tio­nen (Austausch von Einzel­merk­ma­len) und Perzep­ti­ons­tests nachwei­sen können, dass die Distink­ti­on der Tonak­zen­te primär auf dem perzep­tu­el­len Korrelat der Tonhöhe (Pitch) beruht (Werth 2007, 2011). In den Aufnahmen des Minimal­paars [dɑ͡ʊ1f] (‘Taube’) und [dɑ͡ʊ:2f] (‘Taufe’; überlan­ger Diphthong mit Längen-Diakritikum darge­stellt) sind die supra­seg­men­tel­len (proso­dischen) Merkmale deutlich zu erkennen.

In den Abbil­dun­gen 2 bis 6 wird die Produk­ti­on des Minimal­paars artiku­la­to­risch und akustisch vorge­stellt. Gleich zu Beginn der Aufnahme wird ein Vorteil des MRTs sichtbar: In Abbildung 2 ist der Beginn der Verschluss­pha­se des initialen Konso­nan­ten [d] sehr gut sichtbar.

Abb. 2: Akustik (untere Hälfte) und Artiku­la­ti­on (obere Hälfte) des Minimal­paars [dɑ͡ʊ1f] / [dɑ͡ʊ:2f]. Der Zeitpunkt der MRT-Aufnahme entspricht dem Beginn des Verschlus­ses für den initialen Konso­nan­ten [d].

In beiden Wörtern befindet sich die Zungen­spit­ze am Zahndamm, das Velum ist angehoben, die Lippen sind in neutraler Position. Akustisch herrscht zu diesem Zeitpunkt Stille. Im Oszil­lo­gramm der Aufnahme sind die proso­dischen Unter­schie­de der beiden Wörter gut erkennbar. Das Wort [dɑ͡ʊ1f] dauert vom Beginn der Verschluss­lö­sung bis zum Ende des finalen Konso­nan­ten [f] ca. 350 ms, während das Wort [dɑ͡ʊ:2f] auf diesen Abschnitt bezogen doppelt so lange ist. Der Verlauf der Tonhöhe (Pitch) ist im ersten Wort kompakter, während im zweiten Wort auf dem zweiten Teil des Diphthongs, d. h. auf dem [ʊ], der Pitch langge­zo­gen wird. Auditiv kann man im ersten Wort dem Pitch­ver­lauf eine Einheit (Abfall des Pitchs) und im zweiten Wort zwei Einheiten (Abfall und relativ ebener Tonhö­hen­ver­lauf auf dem [ʊ]) zuordnen.

Zu Beginn des Diphthongs [ɑ͡ʊ] (Abb. 3) ist in beiden Wörtern der Gipfel­punkt des Pitchs erreicht. Artiku­la­to­risch befindet sich die Zunge im hinteren Vokal­trakt, der Kiefer ist etwas abgesenk­ter und die Lippen stülpen sich etwas nach vorn, um den folgenden gerun­de­ten Vokal zu produ­zie­ren. Im ersten Wort ist dieser ko-artikulatorische Effekt und zugleich die Zungen­rü­cken­wöl­bung etwas stärker ausge­prägt als im zweiten Wort.

Abb. 3: Akustik (untere Hälfte) und Artiku­la­ti­on (obere Hälfte) des Minimal­paars [dɑ͡ʊ1f] / [dɑ͡ʊ:2f] zum Zeitpunkt des maximalen Pitchs auf dem Vokal (Diphthong).

Abbildung 4 illus­triert die Produk­ti­on und die Akustik unmit­tel­bar nach dem Ende des Pitch-Abfalls im Wort [dɑ͡ʊ:2f]. Zu diesem Zeitpunkt ist gut ersicht­lich, wie der Zungen­rü­cken deutlich nach oben gewölbt ist und sich dem weichen Gaumen annähert. Die Lippen sind gerundet. Akustisch ist hier zu erkennen, dass das Maximum des Pitchs auf dem Beginn des Diphthongs mit der höchsten Inten­si­tät des Vokals [ɑ] zusam­men­fällt. Aller­dings ist die höchste Amplitude des Diphthongs mit dem Vokal [ʊ] assozi­iert. Beide Bestand­tei­le des Diphthongs sind akustisch klarer vonein­an­der getrennt als im ersten Wort, d. h. [dɑ͡ʊ1f].

Abb. 4: Akustik (untere Hälfte) und Artiku­la­ti­on (obere Hälfte) des Wortes [dɑ͡ʊ:2f] unmit­tel­bar nach dem Ende des Pitch-Abfalls.

In Abbildung 5 wird in beiden Wörtern der Vokal [ʊ] produ­ziert. Dies wird durch die Stellung des Zungen­rü­ckens (Wölbung im hinteren Vokal­trakt­be­reich) und durch die Lippen­run­dung (Stülpung nach außen) deutlich. Akustisch ist im Bereich des Vokals [ʊ] der Pitch im ersten Wort noch im Fallen begriffen, während im zweiten Wort bereits der tiefste Pitch (Plateau) erreicht ist.

Abb. 5: Akustik (untere Hälfte) und Artiku­la­ti­on (obere Hälfte) des Minimal­paars [dɑ͡ʊ1f] /[dɑ͡ʊ:2f] zum Zeitpunkt des Vokals [ʊ].

Abbildung 6 zeigt schließ­lich die Produk­ti­on und Akustik des finalen Konso­nan­ten [f]. Die Lippen sind noch in der Position für den Vokal [ʊ], der Zungen­rü­cken wieder etwas abgeflach­ter. Da in der MRT-Aufnahme die Zähne leider nicht zu erkennen sind (nur wenn sie z. B. mit Heidel­beer­saft angefärbt wären, wären sie sichtbar), ist die labio­den­ta­le Einstel­lung für den Konso­nan­ten [f] nicht sehr deutlich auszu­ma­chen. Akustisch wird deutlich, dass der Frikativ mit einer minimalen Amplitude (Inten­si­tät) gebildet wird. Im zweiten Wort wird der Frikativ ebenso wie der Diphthong auch gelängt.

Abb. 6: Akustik (untere Hälfte) und Artiku­la­ti­on (obere Hälfte) des Minimal­paars [dɑ͡ʊ1f] /[dɑ͡ʊ:2f] zum Zeitpunkt des finalen Konso­nan­ten [f].

Abbil­dun­gen 2 bis 6 illus­trie­ren die phone­ti­schen Poten­tia­le der Bildge­bung durch Echtzeit-MRT im Zusam­men­spiel mit der akusti­schen Infor­ma­ti­on, die über Oszil­lo­gramm, Spektro­gramm und Tonhö­hen­ver­läu­fe visua­li­siert wird. Darüber hinaus eignet sich die Echtzeit-Tomographie aber auch zur Bewegungs­ana­ly­se von einzelnen Artiku­la­to­ren wie Zunge oder Kehlkopf. Der Ansatz einer solchen Analyse wird im Folgenden skizziert und erlaubt insbe­son­de­re artiku­la­to­ri­sche Unter­su­chun­gen im Bereich der Dialek­to­lo­gie oder Varia­ti­ons­lin­gu­is­tik, weil sich hiermit spezi­fi­sche Artiku­la­ti­ons­be­we­gun­gen quanti­fi­zie­ren und parame­tri­sie­ren lassen (Carignan et al. 2021, Carignan et al. 2020, Fujimoto et al. 2021). Im Rahmen von apparent time-Studien können damit auch diachrone Verän­de­run­gen unter­sucht werden.

Abbildung 7 zeigt die geglät­te­ten Bewegungs­ver­läu­fe in der horizon­ta­len und verti­ka­len Ebene. Diese Bewegungs­ver­läu­fe werden für ein Artiku­la­ti­ons­or­gan (hier: Kehlkopf) ermittelt, nachdem das Artiku­la­ti­ons­or­gan innerhalb einer Zielre­gi­on ausge­wählt wurde. Ein Algorith­mus zur Auswer­tung von Echtzeit-Tomographie-Bewegungsdaten (Oh / Lee 2018) erlaubt dann die Rekon­struk­ti­on der horizon­ta­len und verti­ka­len Bewegung des ausge­wähl­ten Artikulationsorgans.

Abb. 7: Illus­tra­ti­on der horizon­ta­len (links) und verti­ka­len (rechts) Bewegungs­ver­läu­fe des Kehlkopfs, über die in der Mitte angezeig­te Zielregion.

Im obigen Beispiel wurden für die Artiku­la­ti­on des mosel­frän­ki­schen Minimal­paa­res der Kehlkopf (genauer: die Stimm­rit­ze, Glottis) ausge­wählt und über die Auswer­tungs­soft­ware die Bewegungs­ver­läu­fe rekon­stru­iert. Die horizon­ta­le und vertikale Glottis­be­we­gung entspricht in ihrem Muster den Tonhö­hen­ver­läu­fen: Für Tonakzent 1 im ersten Wort ist eine relativ flache Bewegung nach rechts und nach unten zu erkennen. Sie lässt sich als eine Bewegungs­ein­heit inter­pre­tie­ren. Für Tonakzent 2 im zweiten Wort sind zwei Bewegungs­ein­hei­ten auszu­ma­chen, zuerst eine Links- und Nach-Oben-Bewegung auf dem [ɑ], dann eine Bewegung nach rechts und nach unten für das [ʊ].

Ergebnisse

Wir konnten zum einen zeigen, dass alle drei proso­dischen Merkmale, die in der langen Forschungs­ge­schich­te mit der Tonak­zen­t­op­po­si­ti­on in Verbin­dung gebracht wurden, also auditiv Tonhöhe(nverlauf), Prominenz (Lautstär­ke) und Dauer, die akustisch mit Pitch, Energie (Amplitude) und der zeitli­chen Erstre­ckung korre­spon­die­ren, nicht nur tatsäch­lich an der Tonak­zent­pro­duk­ti­on beteiligt sind, sondern sich zudem detail­liert an das artiku­la­to­ri­sche Geschehen rückbin­den lassen.

Zum anderen ließ sich die bisher avancier­tes­te Tonak­zent­theo­rie artiku­la­to­risch fundieren: Alexander Werth (2011) hat in einer metho­disch raffi­nier­ten Studie gezeigt, wie sich die im Satzkon­text extrem variie­ren­den und für Nicht­ton­ak­zent­spre­cher kaum lernbaren Pitch­ver­läu­fe theore­tisch erklären lassen. Hiernach sind die Tonak­zent­sil­ben proso­disch zweige­teilt, d. h. sie bestehen aus zwei Moren. Im sogenann­ten Regel A‑Gebiet, aus dem der unter­such­te Tonak­zent­spre­cher stammt, konzen­trie­ren sich alle proso­dischen Infor­ma­tio­nen, die auch bei Nicht­ton­ak­zent­spre­chern auftreten (Hervor­he­bung, Kontrast, Intona­ti­ons­kon­tur, Expres­si­vi­tät), auf die erste More. Die zweite More dient ausschließ­lich der Tonak­zent­dis­tink­ti­on: Fällt der Pitch unter eine perzep­ti­ve Schwelle, so wird die mit Tonakzent 1 verbun­de­ne Bedeutung rezipiert, bleibt er über dieser Schwelle, so wird die mit Tonakzent 2 verbun­de­ne Bedeutung dekodiert. Für die perzeptionslinguistisch-theoretisch postu­lier­ten Moren, konnten wir in unserer kleinen Studie erstmals artiku­la­to­ri­sche Korrelate in Form von spezi­fi­schen Kehlkopf­be­we­gun­gen zeigen. Bei Tonakzent 1 im isoliert gespro­che­nen Wort korre­spon­diert die Kehlkopf­be­we­gung mit dem extremen („absturz­ar­ti­gen“) Pitch­ab­fall am Ende der ersten More. Bei Tonakzent 2 erzeugt die Kehlkopf­be­we­gung den perzeptiv notwen­di­gen, über dem kriti­schen Schwel­len­wert liegenden Hochton. Mit der hier skizzier­ten beispiel­haf­ten Analyse der Artiku­la­ti­ons­be­we­gun­gen anhand Echtzeit-Tomographie-Daten lässt sich das Potential für künftige Studien innerhalb der Phonetik, Varia­ti­ons­lin­gu­is­tik und Dialek­to­lo­gie erahnen. Da ein Echtzeit-Tomograph in abseh­ba­rer Zeit an der Philipps-Universität zur Verfügung stehen wird, können wir spannen­den Zeiten entgegenblicken!

Literatur

Bennett, Ryan / Máire Ní Chiosáin / Jaye Padgett / Grant McGuire (2018): An ultra­sound study of Connemara Irish palata­liz­a­ti­on and velariz­a­ti­on. Journal of the Inter­na­tio­nal Phonetic Associa­ti­on 48(3). 261–304.

Carignan, Chris­to­pher / Stefano Coretta / Jens Frahm / Jonathan Harring­ton / Phil Hoole / Arun Joseph / Esther Kunay / Dirk Voit (2021): Planting the seed for sound change: Evidence from real-time MRI of velum kinema­tics in German. Language 97(2). 333–364.

Carignan, Chris­to­pher / Phil Hoole / Esther Kunay / Marianne Pouplier / Aurun Joseph / Dirk Voit / Jens Frahm / Jonathan Harring­ton (2020): Analyzing speech in both time and space: Genera­li­zed additive mixed models can uncover syste­ma­tic patterns of variation in vocal tract shape in real-time MRI. Labora­to­ry Phonology: Journal of the Associa­ti­on for Labora­to­ry Phonology 11(1).

Fujimoto, Masako / Shigeko Shinohara / Daichi Mochi­ha­shi (2021): Articu­la­ti­on of geminate obstru­ents in the Ikema dialect of Miyako Ryukyuan: A real-time MRI analysis. Journal of the Inter­na­tio­nal Phonetic Associa­ti­on. 1–25.

Hardt, Mathias (1843): Vocalis­mus der Sauer-mundart. Programm des Königlich-Großherzoglichen Progym­na­si­ums zu Echter­nach, heraus­ge­ge­ben beim Schlusze des Schul­jah­res 1842–43, 1–29. Trier.

Labrunie, Mathieu / Pierre Badin / Dirk Voit / Arun A. Joseph / Jens Frahm / Laurent Lamalle / Coriandre Vilain / Louis-Jean Boë (2018): Automatic segmenta­ti­on of speech articu­la­tors from real-time midsa­git­tal MRI based on super­vi­sed learning. Speech Commu­ni­ca­ti­on 99. 27–46.

Narayanan, Shrikanth / Krishna Nayak / Sungbok Lee / Abhinav Sethy / Dani Byrd (2004): An approach to real-time magnetic resonance imaging for speech produc­tion. The Journal of the Acousti­cal Society of America 115(4). 1771–1776.

Oh, Miran / Yoonjeong Lee (2018): ACT: An Automatic Centroid Tracking tool for analyzing vocal tract actions in real-time magnetic resonance imaging speech produc­tion data. The Journal of the Acousti­cal Society of America 144(4). EL290.

Schmidt, Jürgen E. (1986): Die mittel­frän­ki­schen Tonak­zen­te. Stuttgart: Steiner.

Schmidt, Jürgen E. / Robert Möller (2019): Histo­ri­sches Westdeutsch/Rheinisch (Mosel­frän­kisch, Ripua­risch, Südnie­der­frän­kisch). In: Joachim Herrgen / Jürgen E. Schmidt (Hrsg.): Sprache und Raum. Ein Inter­na­tio­na­les Handbuch der Sprach­va­ria­ti­on. Band 4: Deutsch. Unter Mitarbeit von Hanna Fischer und Brigitte Ganswindt. Berlin: Mouton de Gruyter, 515–550.

Uecker, Marti / Shuo Zhang / Dirk Voit / Alexander Karaus / Klaus-Dietmar Merboldt / Jens Frahm (2010): Real-time MRI at a resolu­ti­on of 20 ms. NMR in Biome­di­ci­ne 23(8). 986–994.

Wein, Berthold (1990): Ein neues Verfahren zur 3D-Rekonstruktion der Zungen­ober­flä­che aus Ultra­schall­bil­dern. Ultra­schall in der Medizin 11(6). 306–310.

Wein, Berthold / Matthias Drobnitz­ky / Stanislaw Klajman (1990): Magnet­re­so­nanz­to­mo­gra­phie und Sonogra­phie bei der Lautbil­dung. RöFo — Fortschrit­te auf dem Gebiet der Röntgen­strah­len und der bildge­ben­den Verfahren 153(10). 408–412.

Werth, Alexander (2007): Perzep­ti­ons­pho­no­lo­gi­sche Studien zu den mittel­frän­ki­schen Tonak­zen­ten. Zeitschrift für Dialek­to­lo­gie und Lingu­is­tik 74. 292–316.

Werth, Alexander (2011): Perzep­ti­ons­pho­no­lo­gi­sche Grund­la­gen der Prosodie. Stuttgart: Steiner. 

Wilson, Ian (2014): Using ultra­sound for teaching and resear­ching articu­la­ti­on. Acousti­cal Science and Techno­lo­gy 35(6). 285–289.

Diesen Beitrag zitieren als:

Scharin­ger, Mathias / Jürgen E. Schmidt. 2022. Echtzeit-MRT in der Phonetik: Einblicke in Details der Artiku­la­ti­on. Sprach­spu­ren: Berichte aus dem Deutschen Sprach­at­las 2(4). https://doi.org/10.57712/2022–04.

Mathias Scharinger und Jürgen Erich Schmidt
Mathias Scharinger ist Professor für Phonetik an der Philipps-Universität Marburg. Seine Interessen liegen im Bereich der Phonetik, Neurolinguistik und in den Schnittstellenbereichen Sprache-Musik. Jürgen Erich Schmidt ist emeritierter Professor für Germanistische Sprachwissenschaft und Leiter des Grundlagenforschungsprojekts Regionalsprache.de. Er ist korrespondierendes Mitglied der Akademie der Wissenschaften und Literatur sowie der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste.