Problemstellung des Projekts ZIB

Die grafischen Benutzungsoberflächen von fensterorientierten Betriebssystemen (MS Windows x, OS/2 PM, Unix-Motif, MacOs etc.) machen eine Rechnernutzung für Blinde und stark Sehbehinderte praktisch unmöglich. Lediglich textuelle Bestandteile des Bildschirminhalts können haptisch (in Braille) oder auditiv (durch sog. Screenreader) ausgegeben werden. Die grafischen Navigationselemente wie Buttons und Piktogramme und die Bedeutung ihrer Positionierung auf dem Bildschirm bleiben dieser Nutzergruppe verschlossen. Dies gilt verstärkt für Anwendungen wie das World Wide Web, da hier die Navigationskomponente einen noch größeren Anteil hat als in normaler Bürosoftware.

Im Projekt ZIB sollen die stereophonischen Interaktionsmöglichkeiten in einem akustischen Interaktionsraum (AIR) systematisch für die Navigation auf Webseiten und dem zugehörigen Browser eingesetzt werden. Für die Benutzergruppe Blinde und stark Sehbehinderte soll ein System entwickelt werden, bei dem die grafischen Interaktionsobjekte von Webseiten (z.B. Schaltflächen im Fensterrand, Toolbars, Icons) mit Hilfe der Stereophonie-Technik als sogenannte Phantomgeräusche (Hearcons) in einem dreidimensionalen akustischen Interaktionsraum (AIR) platziert werden. Die Hardware für die Erzeugung der Phantomgeräusche ist als Standardkomponente lieferbar.

Die binauralen Fähigkeiten des menschlichen Gehörsystems erlauben es einem Computerbenutzer, Richtung und Entfernung der Hearcons gut wahrzunehmen. Mit einem Cursor-Hearcon (gesteuert über ein Zeigegerät wie Trackball oder Touchpad) kann der Benutzer nun eines der festpositionierten Hearcons auswählen, wie von den grafischen Benutzungsoberflächen mit Maus-Cursor bekannt. Nach der Auswahl eines Hearcons kann dann durch "Anklicken" oder durch einen über Sprache eingegebenen Befehl eine Programmfunktion angestoßen oder z.B. mithilfe des Screenraders der Name des Hearcons vorgelesen werden. Statt des "Anklickens" kann das Hearcon auch mit dem Cursor "gegriffen" und z.B. verschoben werden ("drag & drop").

Neben den Namen der grafischen Objekte einer Webseite können außerdem die Texte der Webseite von einem Screenreader, z.B. dem Home Page Reader der Fa. IBM, vorgelesen werden.

Der akustische Interaktionsraum soll den blinden und sehbehinderten Benutzern ein Analogon zu den Möglichkeiten der Direkten Manipulation von grafisch dargestellten Objekten ("click & start" und "drag & drop") durch eine Adaption der grafischen Benutzungsoberflächen auf ihre spezifischen Perzeptionsfähigkeiten bieten.

Außerdem soll die Bedeutung der Platzierung von Objekten in inhaltlichen Zusammenhängen, das heißt, die Semantik der Bildschirmtopografie und die Topologie der Bildschirmelemente, leichter zugänglich gemacht werden. Dies gilt insbesondere für Gruppierungen von Piktogrammen, die Anordnung von Texten in Tabellen oder von Zahlen in Matrizen, die von dieser Benutzergruppe nur mit erhöhter kognitiver Belastung wegen der Analyse von langen Text- oder Ziffernstrings in Bezug auf ihre Gliederung in Spalten und Zeilen akustisch oder haptisch wahrgenommen werden können.

Mit dem System soll die intuitive Benutzung von Computersystemen auch für diese Benutzer erheblich verbessert werden und eine höhere Eingliederung in die vorherrschenden Kommunikationswege, soweit sie computer- und internet-unterstützt beschritten werden, ermöglicht werden.


Webmaster