80 Tage – 1 Bergfest: Das Voice User Interface Design des Hausnotruf-Skills für Alexa

Nach der Veröffentlichung unseres Tiergeräusche Skills haben wir uns selbstverständlich wieder auf die Weiterentwicklung des Hausnotruf-Services fokussiert, den wir in genau 40 Tagen veröffentlichen wollen. Heute feiern wir Bergfest.

In der Zwischenzeit haben wir das Voice User Interface unseres Skills ausgearbeitet und auf Basis dessen die Intent-Struktur für unser MVP abgeleitet. Zur Entwicklung eines solchen Voice User Interfaces eignen sich verschiedene Ansätze. Neben der einfachen Skizze eines Gesprächsverlaufs zwischen Alexa und dem User bieten sich z.B. Flowcharts hervorragend an, um Abhängigkeiten und die Navigation in verschiedene Konversationsstränge zu visualisieren. Wir haben mit draw.io unser Design für die Sprachinteraktion in unserem Skill nach und nach erarbeitet (sehr zu empfehlen, da draw.io kostenlos ist und ähnliche Kollaborationsmöglichkeiten wie bei Google Drive anbietet).

Wie bei der Darstellung als „Chat“ bietet es sich an, zunächst den Happy Path zu skizzieren. Im Happy Path werden ausschließlich vom User gewünschte / erwartete Befehle eingegeben. Der Nutzer gelangt im Happy Path schnellstmöglich zum gewünschten Ergebnis (z.B. die erfolgreiche Einrichtung des Skills). Von diesem Happy Path aus lassen sich die Stränge des Voice Interfaces dann horizontal und vertikal erweitern, um falsche, nicht erwartete oder keine Eingaben entsprechend verarbeiten zu können. Wichtig ist hierbei, dass der Skill für jeden Fall gewappnet ist und nicht in eine Einbahnstraße gelangt, bei dem der Nutzer nicht weiterkommt oder im schlimmsten Fall eine generische Fehleransage von Alexa zurückerhält (z.B. „Bei der Antwort des angeforderten Skill ist ein Problem aufgetreten“ o.Ä.).

Wir haben uns neben dem Erfolgsweg für diese drei weiteren Optionen entschieden, die wir in jeder „Station“ des Skills verarbeiten werden können:

1. Keine Eingabe des Nutzers: Wenn der Nutzer schweigt, nutzen wir den Reprompt von Alexa und wiederholen die Aufforderung / Antwort an den Nutzer in abgewandelter und gekürzter Form
2. Der Nutzer sagt „Hilfe“: Alexa Nutzer können zu jeder Zeit „Hilfe“ als Eingabe an Alexa übermitteln und gelangen in das HelpIntent, in dem sie Hilfestellung zur Nutzung des Skills erhalten. Hier ist es ratsam, dem Nutzer eine individuelle Hilfestellung anzubieten, je nach dem an welcher Stelle im Skill er sich aktuell befindet
3. Eine nicht erwartete Eingabe des Nutzers: Wenn der Nutzer bspw. eine nicht erwartete Eingabe macht, bieten wir ebenfalls die passende Hilfe an

Vor allem bei der Eingabe der Telefonnummer des Notfallkontaktes kann unter Umständen alles und nichts richtig sein. Daher wiederholen wir hier die Eingabe des Nutzers und bieten ihm eine Ja/Nein Frage an, ob die Eingabe richtig verstanden wurde.

Bei der Erstellung des Voice Interfaces für einen Skill dieser Art, in dem Alexa eine mehrstufige Konversation initiert, steigt die Komplexität mit der Tiefe der Konversation und mögliche Fehlerquellen, wenn nicht nur A oder B der angebotene Weg für den Nutzer ist.

Selbst für unser MVP, das – wie die Bezeichnung schon verrät – einen eingeschränkten Funktionsumfang hat, ist ein mächtiges Flowchart entstanden (siehe unten).

Das Intent-Schema zu unserem Skill ist noch in der finalen Entstehungsphase. Auch hier versuchen wir, die Komplexität so gering wie möglich zu halten, was dank des Amazon Dialog Interfaces sicher gelingen wird. Das Dialog Interface ermöglicht, innerhalb eines Intents verschiedene Ebenen einer Konversation abzubilden und (Zwischen-)Zustände abzuspeichern.

Wir machen weiter – unsere nächsten Schritte sind neben dem Schliff am Intent-Schema die Fehleranfälligkeit durch irrtümliche oder zu korrigierende Eingaben zu verringern. Wir denken dabei z.B. über ein Validieren der Telefonnummer des Notfallkontaktes nach. Darüber hinaus werden in den nächsten zwei Wochen Tests mit Repräsentanten aus der Hauptzielgruppe durchgeführt. Wir stellen den Dienst vor und möchten Feedback einholen, um unser MVP unter möglichst realen Bedingungen auf Herz und Nieren zu prüfen.

Landing Page und Werbung für Rette Mich [Alexa Skill to be]

Neben der Detailplanung und dem Projekt-Setup wollen wir schon frühzeitig versuchen, Tester für unseren Skill aus der Zielgruppe der „Silver Agers“ zu gewinnen. Dafür haben wir eine kleine Landing Page zusammengeschustert und veröffentlicht. Auf der Webseite wird der Service kurz erklärt, über ein Anmeldeformular können sich Interessenten dann für einen Test anmelden.

Zudem haben wir eine Printanzeige in einem lokalen Magazin geschaltet, um die Zielgruppe auf einem altbewährten Weg erreichen zu können. Online-Werbung folgt natürlich, da auch wir wissen, dass die Quote der Online-Omas und -Opas in den vergangenen Jahren drastisch angestiegen ist. Die Internetseite soll dabei helfen, möglichen Gesprächspartnern aus der Branche das Produkt vorab zu präsentieren und diesen einen ersten Eindruck von dessen Potenzial zu vermitteln.

Im Hintergrund arbeiten wir gerade an der MVP Definition, dem Projekt-Setup und einem ersten Wurf des Voice User Interfaces. Außerdem haben wir Kontakt zu verschiedenen Pflegediensten und Unternehmen aufgenommen, die mit der Pflege und Betreuung älterer Menschen betraut sind. Wir möchten damit die Zielgruppe besser verstehen lernen und möglichst auch Statistiken als Grundlage einer wirtschaftlichen Betrachtung unserer Idee heranziehen. Denn wir sind uns sicher, dass die Idee das MVP Stadium überleben wird.

Der „Skill to be“ gedeiht…

In 80 Tagen die Welt ein bisschen sicherer machen [Alexa Skill to be]

Nach dem überraschenden Erfolg beim Hackathon hat unsere Idee sich nicht nur am selbigen Abend in der Bar der Wohngemeinschaft in Köln weiterentwickelt. Vor Ort hatten wir noch die Möglichkeit, mit dem Senior Solutions Architect von Amazon, Kay Lerch, über unseren Ansatz zu diskutieren.

Am nächsten Tag haben wir uns für mehrere Stunden eingeschlossen und überlegt, wie wir konkret weitermachen wollen.

Wir haben uns dazu entschieden, die Idee weiterzuverfolgen und in den vergangenen Tagen die Bausteine eines möglichst schlanken Projektplans zusammengetragen. Darüber hinaus haben wir unseren Rette Mich Skill vom Hackathon nochmal von Grund auf neu konzipiert und mit einer ansehnlichen Code-Struktur versehen.

Mit dieser Basis war es möglich, die folgenden nächsten Schritte zu definieren:

Feinschliff der Minimal Viable Product Definition für den Rette Mich Skill (Arbeitstitel)
Projekt-Zeitplan mit Meilenstein-Definition
Projekt-Setup mit Amazon Lambda, Amazon S3, Amazon Polly, DynamoDB, Amazon CodeStar (tbd) und Debugging über einen Slackbot
Erstellung einer kleinen Landing-Page, um Beta-Tester für unseren Skill schon frühzeitig zu akquirieren
Rechtliche Beratung zur Umsetzbarkeit, Haftung und Datenschutz
Fachliche Beratung von Unternehmen und Personen aus Branche und Zielgruppen

Last not least, das Herzstück des Skills:

das Voice User Interface, mit dem die Nutzung eines Skills entweder intuitiv oder ein Desaster wird. Als Grundlage dazu dienen Personas, die wir aus Insights aus der Zielgruppe erstellen wollen, um so Alexa bestmöglich in den Gesprächspartner zu verwandeln, den die (Haupt-)Zielgruppe erwartet.

Und das alles in 80 Tagen. Here we go!

Alexa Hackathon: Stimmen im Web

Wir freuen uns über die Erwähnung im Kölner Stadtanzeiger, der einen kurzen Nachbericht zum Alexa Hackathon erstellt hat, hier geht’s zum Artikel: Lehrstunde für Amazons Sprachassistent Alexa

In unserem Beitrag zum Hackathon ist ein detaillierter Rückblick auf das Event zu finden!

Titelbild von Philipp Remke

Amazon Alexa Hackathon: Safety first

Wenn Du denkst, dass es ein Abend wie jeder andere werden wird, liegst Du damit meistens falsch. Noch besser geht es aus, wenn Du eigentlich überhaupt keine Erwartungen hast. Es sind genau diese Abende, an die Du Dich lange Zeit erinnerst und bei vielen Wiedersehen sinnierst. Vorher weißt Du das nicht – und das ist auch wirklich gut so.

Dieses Gefühl haben wir, wenn wir auf den Tag und Abend des Alexa Hackathons in Köln am 27. April in der Wohngemeinschaft Köln zurückblicken. Organisiert und koordiniert vom hack.institute und mobile.cologne. Nach dem Hackathon rund um Android Wearables haben sie das neue Wunderkistchen von Amazon in den Mittelpunkt gestellt. Mehr oder weniger zufällig fiel das Event perfekt in unseren Terminkalender, da wir ein Treffen in Köln ohnehin geplant hatten.

Wie auch andere Teilnehmer hatten wir uns vor dem Event Gedanken über ein Produkt oder einen Service gemacht, welcher im sportlichen Rahmen von 4 Stunden zum Leben erweckt werden kann. Schnell merkten wir, dass die Liste immer kürzer wird, als wir uns selbst zwei wesentliche Einschränkungen bei der Ideenfindung gaben: Löse ein Problem und nutze dabei das Alleinstellungsmerkmal der Technologie maximal aus.

Nach 2 Espressi haben wir uns gedanklich von der einfallslosesten Zielgruppe – uns selbst – entfernen können und sind auf eine sehr wichtige andere Zielgruppe gestoßen, die unseren auferlegten Regeln gerecht wird und dabei ohnehin höchstinteressant ist: Senioren und die, die bald Senioren werden.

Die Idee hatten wir zu diesem Zeitpunkt nur kurz angerissen und es folgendermaßen auf den Punkt gebracht: Wir ergänzen den bekannten Hausnotruf-Dienst und helfen Menschen, die sich im Haushalt verletzt haben und keine oder eine nur sehr eingeschränkte Möglichkeit mehr haben, sich zu bewegen.

Mit unserer Shortlist der Ideen für den Hackathon haben wir uns in Köln getroffen (zwei Alternativen hatten wir im Gepäck, falls jemand die gleiche Idee haben sollte) und sind ohne Erwartungen in den Abend gestartet. Vor Ort haben wir noch Franziska in unser Team aufgenommen und zu dritt an der Realisierung der Idee gearbeitet und ein MVP auf die Beine gestellt. Überraschenderweise hat keines der rund 20 Mitstreiter-Teams einen ähnlichen Ansatz verfolgt (was uns natürlich gefreut hat).

„Wenn Du denkst, dass es ein Abend wie jeder andere werden wird, liegst Du damit meistens falsch.“

Vier Stunden später wurden um Punkt 21:00 Uhr die Laptops zugeklappt. Nach vielen guten Pitches der anderen Teams am späten Abend haben wir unseren „Rette Mich“-Skill vor rund 70 Personen und einer vierköpfigen Jury präsentieren dürfen und haben gewonnen. Wir haben mit Aktivierung unseres Skills einen Webservice angesprochen, der einen Notfallkontakt per Anruf und SMS kontaktiert. Außerdem war Alexa in der Lage, die lebenswichtigen Körperfunktionen beim Benutzer abzufragen und die Antworten per SMS zu verschicken. Sowohl die Jury als auch alle Teilnehmer haben uns auf den 1. Platz gewählt.

Wir haben mit der Idee die unschlagbare Stärke von Alexa genutzt, um genau dann zu helfen, wenn der Nutzer keine andere Möglichkeit mehr hat, als sich mit seiner Stimme bemerkbar zu machen. Im Notfall kann diese aussichtslose Situation sehr tragisch enden. Hinzu kommt, dass wir auf einen Kommunikationskanal vertrauen, der nicht nur heute wieder für viele Buzzwords wie Voice Control, Voice Assistant, Natural Language Understanding […] sorgt, sondern der auch einer der ältesten der Menschheit ist: Sprache durch Benutzung der Stimme.

Gleichermaßen beschränkt sich diese Art von Service als positiver Nebeneffekt nicht nur auf die von uns in den Fokus gerückte Zielgruppe. Auch alleinstehende Menschen oder Personen mit einem hohen Sicherheitsbedürfnis gewinnen dabei. Die konzeptionelle Erarbeitung des Skills (vor allem das Voice Interface Design) muss sich aber auf die Zielgruppe ausrichten, die im Zweifel versuchen wird, den unvorstellbarsten Weg zur Aktivierung des Services zu gehen. Dass wir, die mit Nokia 3310 in der Hosentasche aufgewachsen sind, wie selbstverständlich auch damit umgehen werden können oder alternative Zugänge zum System erschließen können, ist Nebensache.

Im Anschluss an diesen Abend, als glücklicher Gewinner des Hackathons, haben wir uns gedacht, dass dies vielleicht einfach unser kleiner geheimer Proof Of Idea war. Nicht nur für die Entwicklung eines smarten Skills für Amazons Alexa, sondern auch für etwas anderes, was uns sehr am Herzen liegt: Mehrwert zu schaffen, durch Alltagsverbesserer oder Produkte, die genau dann, wenn man sie braucht, genau das tun, was sie sollen.

Gehen wir es an!

Nachtrag: Hier der Facebook-Livestream des hack.institutes, in dem sie die Pitches an dem Abend des Hackathons aufgezeichnet haben. Unsere Präsentation ist bei Minute 21:00.