Hast Du Worte? – Nein Gebärden!

Spezielle Untertitel im Fernsehen für Gehörlose, ein virtueller Gebärdendolmetscher: Ein internationales Forscherteam arbeitet an dem umfangreichen Projekt.

Wer auf der Startseite von Hamburgs Internetauftritt „www.hamburg.de“ auf das Feld „andere Sprachen“ klickt, findet Informationen über die Hansestadt in japanischer, finnischer oder türkischer Sprache, ja sogar auf Plattdeutsch. Bald schon wird eine weitere, für den „Normalbürger“ höchst ungewöhnliche Sprache dazukommen: die Gebärdensprache für Gehörlose. Das jedenfalls ist das Ziel eines internationalen Projektes unter Federführung des „Instituts für Deutsche Gebärdensprache und Kommunikation Gehörloser (IDGS) an der Universität Hamburg. Beteiligt sind sieben Institutionen aus Deutschland, England und den Niederlanden.
Die Entwicklung eines virtuellen Gebärdensprachdolmetschers soll gehörlosen Mitbürgern den freien Zugang zur weltweiten Informationsgesellschaft ermöglichen. Das fordert auch das Bundesgleichstellungsgesetz für Behinderte, das die deutsche Gebärdensprache seit dem letzten Jahr sogar als eigenständige Sprache anerkennt.

„Die meisten Leute wissen nicht, dass Gehörlose unsere Schriftsprache nicht oder nur sehr mühsam beherrschen“, erklärt Prof. Dr. Rolf Schulmeister (60), der das Projekt wissenschaftlich betreut. Das gelte jedenfalls für die etwa 80.000 Menschen in Deutschland, die entweder von Geburt an taub seien oder in den ersten vier Lebensjahren ihr Gehör verloren hätten. Denn in dieser Zeit entwickelt sich das Sprachverständnis. „Weil sie nie den Klang der Sprache gehört haben, können sie auch nur sehr mühsam sprechen oder lesen. Früh Ertaubte haben im Schnitt die Lesefähigkeiten eines Viertklässlers“, sagt Schulmeister. Schule und Gesellschaft seien auf dieses Handicap kaum eingerichtet.
Das Projekt „eSIGN“ läuft seit September 2002. Es wird mit insgesamt 1,7 Millionen Euro aus einem Forschungsförderprogramm der Europäischen Union gefördert. Davon fließen 315.000 Euro an die Hamburger Projektpartner.
Zunächst wollen die Wissenschaftler schwerpunktmäßig Service-Informationen für Gehörlose auf den Internetseiten von „hamburg.de“ und den damit verlinkten Seiten aufbereiten. Die britischen und niederländischen Projektpartner setzen Entsprechendes in ihren Ländern um. Was einfach klingt, gestaltet sich in der Praxis aufwendig und kompliziert. „Die Umsetzung erfolgt über animierte Gebärden“, erklärt Projektkoordinatorin Dr. Constanze Schmaling (37). Dazu muss der geschriebene Text zunächst in die Symbolsprache „HamNoSys“ (Hamburg Notation System for Sign Languages) übersetzt werden.

„HamNoSys“ wurde seit 1986 von den Wissenschaftlern am Hamburger IDGS entwickelt und gilt mittlerweile als die weltweit verbreitetste Gebärdenschriftsprache. Was für den Laien wie Hieroglyphen anmutet, sind Symbole für bestimmte Handformen und –bewegungen. Sie drücken nicht nur einzelne Wörter, sondern auch komplexere Begriffe und eine besondere Grammatik aus, die sich von der Grammatik des Deutschen unterscheidet. „Die Übersetzung von Schriftsprache in HamNoSys geht schnell“, sagt Constanze Schmaling, denn die Gebärden sind mittlerweile in einer umfangreichen Datenbank gespeichert. Doch damit kann „Virtual Guido“, wie der virtuelle Dolmetscher liebevoll genannt wird, leider noch nichts anfangen.
Der weitere Schritt ist Sache der Engländer: Sie entwickelten ein spezielles Computerprogramm, das den Avatar (virtuelle Kunstfigur) animiert. Das klappt auf dem Bildschirm zwar schon ganz gut, aber bis „Virtual Guido“ die Gehörlosen sicher durch den Dschungel des Internet leiten kann, ist es noch ein weiter Weg: „Das Problem ist, dass der Avatar den Text zurzeit praktisch ohne Punkt und Komma runterleiert“, sagt Projektleiterin Schmaling. „Aber wir arbeiten am Einbau entsprechender Textgliederungssignale.“ Auch die Mimik des virtuellen Dolmetschers müsse dringend noch verfeinert werden. Denn Mimik und Mundbewegungen sind wesentliche Bestandteile der Gebärdensprache.

Im Vorgängerprojekt „Visicom“, das die weibliche Kunstfigur „Visia“ hervorbrachte, wurde zusätzlich auch das so genannte „motion capture“-Verfahren erprobt, erläutert Professor Schulmeister. Dabei wird ein menschlicher Gebärdensprachdolmetscher aufwendig verkabelt. Spezielle „Datenhandschuhe“ übertragen die Hand- und Fingerbewegungen während des Dolmetschens direkt an einen Computer. Zudem werden Mundbewegungen und Mimik über eine Kamera, die mit einem Gestell am Kopf befestigt ist, im Computer digitalisiert. Die verarbeiteten Informationen animieren dann den Avatar. Dieses Verfahren, an dessen Entwicklung das IDGS ebenfalls entscheidend beteiligt war, wird zum Beispiel in England für die Untertitelung von Fernsehsendungen verwendet.
„Das motion capture-Verfahren erspart zwar die manuelle Codierung, ist aber sehr aufwendig und empfindlich, weil die erforderliche Hardware regelmäßig nachkalibriert werden muss. Sonst kann der Avatar nicht fehlerfrei dolmetschen“, erklärt Schulmeister. Das aktuelle „eSIGN“-Projekt arbeitet daher ausschließlich mit dem Verfahren der Übersetzung in die Gebärdenschriftsprache „HamNoSys“, nicht zuletzt auch deswegen, weil die Inhalte von Internetseiten häufig aktualisiert werden müssen.

„Unser Projekt soll zeigen, dass Inhalte im Internet in Gebärdensprache kostengünstig zu produzieren sind“, sagt Projektkoordinatorin Constanze Schmaling. Darüber hinaus sollen die im Rahmen des Projektes „eSIGN“ entwickelten Werkzeuge Gehörlosen die Möglichkeit geben, eigene Texte in Gebärdensprache zu formulieren und ins Internet zu stellen. Im Herbst soll „Virtual Guido“ seine Arbeit im Netz beginnen. Dann bricht auch für Gehörlose das Informationszeitalter an.

Dr. Uwe Westphal, Hamburger Abendblatt v. 15.7.2003

 

zurück