Sprachsynthese von auditiven Lehrbüchern für blinde Schüler/innen (SALB)
Sprachsynthese von auditiven Lehrbüchern für blinde Schüler/innen
Informationstechnologie im Allgemeinen und Sprachtechnologie im Besonderen haben den Zugang zu Informationen für blinde und sehgeschädigte Benutzer/innen stark verbessert. Heute können blinde Nutzer/innen auf die gesamte Information im Web mittels sprachbasierter User Interfaces (UI) zugreifen. Der Vorteil von sprachbasierten UIs gegenüber Braillezeilen ist, dass erstere kostengünstiger sind und ohne spezielles Training verwendet werden können. Durch eine Kombination von sprachbasierten UIs und Braillezeilen ist eine noch robustere Interaktion möglich.
Parametrische Methoden der Sprachsynthese werden heute in vielen sprachbasierten UIs verwendet, da sie wenig Speicher benötigen, effizient berechnet werden können und flexibel sind. Bezüglich der Verständlichkeit sind diese Methoden hinreichend gut, aber bezüglich der Qualität, der Adaptierbarkeit und der Verständlichkeit von schnell gesprochener Sprache gibt es noch Verbesserungsbedarf. Parametrische Methoden, die auf hidden Markov Modellen (HMM) basieren, erlauben ein großes Maß an Flexibilität. Mittels Adaption von Modellen ist es möglich, einfach Stimmen für eine(n) bestimmt(e) Sprecher(in) zu entwickeln. Adaptive Methoden können auch für die Generierung von schnell gesprochener Sprache verwendet werden, was für blinde Nutzer/innen sehr wichtig ist, um effizient mit einem Informationssystem zu interagieren. In diesem Projekt haben wir HMM basierte Synthese verschiedener Varietäten (Standard, Dialekt, Soziolekt) für auditive Lehrbücher evaluieret. Außerdem haben wir den Einfluss von verschiedenen sozialen Rollen (Lehrer/innen - Schüler/innen) sowie von Selbst- und Fremdwahrnehmung untersucht, der zwischen dem Hörenden und der Person, dessen Stimme synthetisiert wird, besteht.
In der Basistechnologie haben wir die Synthese von schnell gesprochener Sprache mit HMMs unter Verwendung von Adaptations- und Interpolationsmethoden optimiert.
Die Expertise der Schüler/innen und Lehrer/innen ist über User Workshops in das Projekt eingeflossen und sie waren an der Entwicklung und Evaluation der synthetischen Stimmen beteiligt. Die Erkenntnisse aus der Kooperation mit den Schüler/innen und Lehrer/innen konnten wesentlich zur Entwicklung besserer sprachbasierter Benutzeroberflächen beitragen.
Dieses Projekt ist bereits abgeschlossen.