Die Ära des Elektroflops: Wenn Technologie ihre Versprechen nicht einlöst

Im Notfall unbrauchbares Smartphone

Ich war zutiefst erstaunt, als mein sehbehinderter Vater mir sein neues Smartphone vorführte und seinen Unmut darüber äußerte.

Anfangs hegte ich Zweifel, doch dann nahm ich das eigens für Blinde entwickelte Smartphone mit physischer Tastatur und Google Assistant-Taste in die Hand und testete es selbst.

Szenario 1: Notfall
Stellen Sie sich vor, ich fahre meinen Vater im Winter bei Minustemperaturen, und wir erleiden einen Unfall. Das Auto liegt auf dem Dach, die Batteriesäure tritt aus, es brennt im Motorraum, Rauch liegt in der Luft, und Glasscherben bedecken den Boden. Mein Vater ruft nach mir, da er sich nicht befreien kann. Doch ich bleibe stumm.

Glücklicherweise hat er sein speziell für Blinde entwickeltes Smartphone dabei. Aber jetzt muss er 33-mal die Nach-Unten-Taste drücken, um die „SOS“-App auszuwählen und um Hilfe zu bitten. Dabei gibt es 30 andere Apps auf diesem Smartphone, die wichtiger sind als „SOS“.

In meinem Video können Sie sehen, dass ich als Sehender nicht darauf warten muss, dass die Stimme die Einträge vorliest, da ich visuell mehrere App-Namen gleichzeitig erkennen kann. Aber kann eine sehbehinderte Person in Panik- oder Stresssituationen wirklich auswendig wissen, wie oft sie auf welche Taste klicken muss?

Szenario 2: Jemanden anrufen
Gut, dass das Gerät eine „Google-Assistent-Taste“ hat! Mein Vater drückt diese Taste und sagt ins Mikrofon: „Pedram anrufen!“ Der Google-Assistent antwortet gehorsam: „Peter unter Kontakten nicht gefunden!“ Offenbar wird mein Vorname „Pedram“ einfach in „Peter“ umgewandelt, um dann in der Kontaktliste des Androids gesucht zu werden.

Szenario 3: Die Schaltfläche mit dem Mikrofonsymbol in der Suchleiste der Google-App verwenden (Google Speech-to-Text und automatische Suche)
Da mein blinder Vater den Bildschirm nicht sehen kann, muss er mit einer physischen Taste zunächst zu dieser Schaltfläche navigieren und sie dann mit einer anderen physischen „OK“-Taste aktivieren. Das Aktivieren funktioniert, aber die Software lässt die Taste wieder los, obwohl der Finger immer noch darauf bleibt. Speech-to-Text und die anschließende Suche funktionieren somit überhaupt nicht!

Szenario 4: Akkulaufzeit
Auch in diesem Punkt wurden keine Fortschritte erzielt, und die Akkulaufzeit hat sich halbiert bis gedrittelt! Mein Vater musste das vorherige Modell alle 5 bis 10 Tage aufladen, aber jetzt muss er es spätestens alle 3-5 Tage aufladen.

Szenario 5: Komplette Umkehrung der Menüführung
Jedes einzelne Bit und Byte wurde umgedreht. Der neue Irrgarten, auch bekannt als Menü, ist völlig anders. Alles, was über Jahre hinweg gelernt und gemerkt wurde, muss mein Vater vergessen, da es nun absolut nutzlos ist. Offenbar hat niemand eine Alternative zum neuen Menü in Betracht gezogen!

Andere Szenarien wie die merkwürdige Übersetzung und Aussprache englischer Texte, unerwartete Namen und beschreibungslose Pop-up-Dialoge aller Art sowie ständige Abstürze der „Text-to-Speech“-Software (die einen Neustart notwendig machen) lasse ich hier außer Acht.

Diesem Produkt hätten folgende Dinge nicht geschadet:

  1. Benutzerforschung
  2. Definition der Zielgruppe
  3. nutzerzentriertes Design (UCD)
  4. Entwicklung von Anwendungsfällen

Damit „Fehlanpassungen“ und die Unzufriedenheit der Benutzer bereits früh in der Entwicklung vermieden worden wären.