How-To: Amazon Alexa Sprachanrufe machen und Nachrichten versenden

Darauf hat Deutschland und UK gewartet: Seit heute sind Alexa Sprachanrufe und das Versenden von Nachrichten über Amazon Alexa Geräte (einschließlich der App für iOS und Android) möglich. Wir haben die Funktion sofort getestet… so funktioniert’s:

1.) Nach dem Update (3.10.17) der „Amazon Alexa“ iOS oder Android App wirst Du beim nächsten Aufrufen der Anwendung durch einen Setup-Prozess geführt.
2.) Im ersten Schritt des Einrichtungsprozesses verifizierst Du Deine Identität, in dem Du Deine Rufnummer hinterlegst (z.B. Mobilrufnummer). Per SMS erhältst Du einen 6-stelligen Code, den Du dann in der Alexa App auf dem Smartphone eingibst.
3.) Als nächstes vergibst Du Deinen Namen. Das ist Dein Absendername (Anrufkennung) und darüber können Dich Kontakte erreichen, falls ihr Euch gegenseitig im Telefonbuch hinterlegt habt.
4.) Wenn Du Zugriff auf Dein Telefonbuch dann noch gewährst, werden im abschließenden Schritt sofort alle Kontakte sichtbar, die per Alexa kontaktiert werden können.

Jetzt kann es losgehen. Als erstes erhält man eine Testnachricht von Alexa, die Du dann auf einem Deiner Alexa-kompatiblen Geräte abrufen kannst. Das Gerät pulsiert in der Farbe grün, wenn Du eine Nachricht hast, die Du abrufen kannst.

„Alexa, spiel meine Nachrichten ab“ und schon liest Alexa die erste Nachricht vor. Ab sofort kannst Du Deine Freunde/Familie per Sprach-, Video- (Echo Show!) oder Sprach-/Textnachricht kontaktieren.

Wenn Du darüber hinaus die Funktion „Drop In“ aktivierst, ist es möglich, Deine anderen Alexa Geräte und Kontakte per Direktverbindung anzurufen. Ohne, dass Du das Gespräch auf der Gegenseite angenommen werden müssen. Super, wenn die Freundin gerade in der Küche am Kühlschrank steht. 🙂

Wenn jemand Deiner Kontakte anruft, spielt das Gerät einen kurzen Signalton ab und Alexa sagt Dir, wer gerade anruft. Mit (z.B.) „Alexa, geh ran“ lässt sich das Gespräch annehmen.

Die wichtigsten Kommandos zur Nutzung von Sprach- bzw. Video-Anruf oder Nachrichtenversand über Amazon Alexa:

  • Alexa, rufe NAME an.
  • Alexa, Drop In ALEXA-GERÄT oder NAME (um eine Direktverbindung zu einem anderen eigenen Gerät oder einem Kontakt, wenn er dies genehmigt hat, herzustellen).
  • Alexa, schicke NAME eine Nachricht.
    Alexa, spiele meine Nachrichten ab.
  • Alexa, geh ran (um das Gespräch anzunehmen).
  • Alexa, ablehnen (die Gegenseite bekommt die Benachrichtigung, dass der Kontakt nicht verfügbar ist und man gerne eine Nachricht hinterlegen kann).
  • Alexa, leg‘ auf (um ein aktives Gespräch zu beenden).
  • Alexa, bitte nicht stören (um keine Benachrichtigungen zu erhalten: Es klingelt nicht und der Ring leuchtet nicht grün). Du kannst trotzdem Alexa sagen „Spiele meine Nachrichten ab“ und sie liest Dir Deine „verpasste“ Nachricht vor.
  • Alexa, deaktiviere „nicht stören“

Die Videotelefonie über den Amazon Echo Show funktioniert ebenso reibungslos. So lässt sich z.B. ein Videoanruf auch von einem Smartphone mit installierter Alexa App zu einem Echo Show durchführen. Das bedeutet also, dass Du nicht zwangsläufig Alexa kompatible Hardware benötigst, um die neuen Funktionen zu nutzen. Du kommst auch nur mit der entsprechenden Amazon App für Dein Handy aus und könntest sogar von App zu App telefonieren.

Amazon Alexa Sprachanrufe und Nachrichten – gut zu wissen:

1.) Es empfiehlt sich, seine Mobilrufnummer beim Setup zu hinterlegen, damit (mögliche) Kontakte Dich besser finden können. Wer hat (und wer braucht zukünftig) denn noch Festnetz?
2. ) Nachrichten, die Du an Kontakte verschickst, in dem Du sie Alexa vorsagst, werden als MP3 bei Deinem Kontakt vorgespielt. Du musst also nicht „diktieren“ oder besonders deutlich sprechen, wie das bei einer SMS über z.B. Siri der Fall ist.
3.) Nachrichten können auch per Texteingabe über die Alexa App verschickt werden.
4.) In der App auf Deinem Smartphone lässt sich für jedes Alexa Gerät ein „Bitte nicht stören“ Modus aktivieren (Ein/Aus oder per Zeitplan).
5.) „Drop In“ kann ebenfalls für jedes Gerät separat eingestellt werden in der Alexa App für iOS/Android.
6.) Über das Account Icon (oben rechts in der Alexa App) lässt sich für jeden Kontakt einstellen, ob Du „Drop In“ (Direktverbindung per Sprache) für diesen Kontakt erlaubst.

Was wir vermissen…

  • Alexa, bitte nicht stören für eine Stunde (der „Nicht Stören“-Modus ist dann für eine Stunde aktiv)

Viel Spaß mit den neuen Funktionen von Alexa. Falls ihr noch zusätzliche Features entdeckt habt oder auch Funktionen vermisst, lasst es uns wissen!

Amazon belohnt unseren „Tiergeräusche“ Skill – mit echtem Geld!

Die Jagd auf die Millionen hat offiziell begonnen. Wir hatten davon gehört, dass Amazon seit Mai 2017 Spieleprogrammierer, deren Skills besonders „großen Wert für die Plattform Alexa bringen“, dafür bezahlt. Als eine Art Belohnung für die gute Arbeit, denn die Skills finden sich in den Top-Platzierungen der Spiele-Kategorie wieder. Andererseits ist der Wink mit dem Geldschein ein Anreiz, bestehende Skills weiterzuentwickeln. Ganz nebenbei lässt eine solche Nachricht Goldgräberstimmung unter den Entwicklern aufkommen und ist für viele, die Alexa als Plattform bis jetzt nicht in Betracht gezogen haben, ein Schubs in die richtige Richtung. Wieviele Überzeugungstäter unter ihnen sind, bleibt natürlich offen.

Die Zahlen von alexaskillstore.com belegen den Trend – seit Mai 2017 hat die Zahl der veröffentlichten Skills pro Woche einen raketenmäßigen Sprung hingelegt. Ein cleverer Schachzug, ein bisschen Geld in den Topf zu werfen, aus dem sie dann guten Entwicklern einen Teil zuweisen.

Jetzt, drei Monate nach der Meldung, der neue Kracher: Amazon belohnt nun auch Entwickler, die Skills für andere Kategorien programmiert haben. Ab sofort können sich die Entwickler von folgenden Kategorien über den ein oder anderen Dollar/Euro freuen:

  • Bildung & Nachschlagewerke
  • Essen & Trinken
  • Gesundheit & Fitness
  • Lifestyle
  • Musik & Audio
  • Produktivität

Mehr Kohlen! Mehr Skills! Mehr neue Entwickler! Wir sind gespannt, wie sich diese Neuigkeit auf die Zahlen auswirken wird. Spätestens jetzt blinken die Dollarzeichen in den Augen der Entwickler. Von welcher Plattform sonst wird man umgehend finanziell entlohnt, wenn gute Arbeit geleistet wird und die Anwendungen „einfach nur benutzt“ werden?

Aktuell gibt es in der Entwicklerszene hitzige Diskussionen zu dem Thema. Warum? Weil niemand genau erklären kann, wie sich der Verteilungsschlüssel berechnet, mit dem die Belohnungen verteilt werden. Ist es die Intensität der Nutzung oder wie oft ein Nutzer den Skill in einem bestimmten Zeitraum nutzt? Das Ranking? Die Bewertungen? Die Geister scheiden sich. Es kommt aber zutage, dass die Ausschüttung vermutlich bei 5.000$ (bei den amerikanischen Entwicklern) gekappt wird. Ebenso, dass es wahrscheinlich einen Budget-Topf pro Kategorie gibt, der unter den Skills dieser Kategorie verteilt wird. Dies führt dazu, dass mehrere Skills des selben Entwicklers untereinander im Wettbewerb stehen und bei der Belohnungsgrenze von maximal 5.000$ ein Widerspruch zum indirekten Amazon-Wunsch besteht, die Skills weiterhin zu verbessern und auszubauen. Ich müsste als Programmierer eigentlich nur zusehen, dass mein Skill mindestens genauso gut bleibt, wie er jetzt ist. Aber wie gut ist so gut, dass ich 5.000$ monatlich (?) verdienen kann mit der Bereitstellung eines einzelnen Skills? Wo ist der Maßstab?

Leider lassen die Neuerungen auch einige Copy-Cats aus der Versenkung auftauchen, die bestehende Skills 1:1 kopieren und im Zweifel besser abschneiden als das Original.

Wir möchten etwas Licht ins Dunkle bringen und haben uns dazu entschieden, unsere Zahlen offen zu legen. Amazon hat uns mit den Neuigkeiten dieser Woche auch berücksichtigt und uns für unseren Tiergeräusche Skill entlohnt.

Amazon verspricht uns 573,59€ für die Performance unseres Skills während der letzten 30 Tage. Wir waren davon sehr überrascht, da wir nicht damit gerechnet hätten, dass lange nach unserer Top-Platzierung in den Top 10 unser Skill noch so viel Mehrwert schafft in der Kategorie „Bildung & Nachschlagewerke“. Diese E-Mail erreichte uns am gleichen Abend der Bekanntgabe der Vergütung anderer Kategorien – wir hatten schon vergessen, dass unser Tiergeräusche Skill ja auch dort mitspielt.

Wir können, wie alle anderen Programmierer auch, nur mutmaßen, wie das zustande kommt. Um aber den Kollegen einen Einblick in mögliche Bewertungsparameter geben zu können, wollen wir die Nutzungszahlen unseres Tiergeräusche Skills in der Zeit vom 15. Juli 2017 bis 15. August 2017 hier veranschaulichen.

Wir waren in dieser Zeit unseres Wissens nach nicht mehr unter den „Top aktivierten Skills“. Weder in der entsprechenden Kategorie und – klar – demnach auch nicht unter allen Skills.

Wenn wir die Zahlen auf die Auszahlung herunterbrechen, ergeben sich daraus folgende Werte:

  • 573,59 Euro geteilt durch 1.890 einmalig (eindeutige) Nutzer: 30,3 Cent oder
  • 573,59 Euro geteilt durch 4.870 Sessions (Nutzungen): 11,7 Cent pro Session oder
  • 573,59 Euro geteilt durch 43.141 Utterances (Anfragen innerhalb von Sessions): 1,3 Cent pro Utterance

Wie aus dem Schaubild zu erkennen ist, sind diese Werte im Vergleich zum Zeitraum davor beachtlich zurückgegangen. Leider. 😉

Offen gestanden war unsere Intention, Anwendungen für digitale Sprachassistenten wie Alexa zu entwickeln, nicht davon getrieben, mit Skills wie „Tiergeräusche“ Geld zu verdienen (wer hätte das auch geahnt, dass das möglich sein würde?). Wir befassen uns damit, weil wir davon überzeugt sind, dass unsere Sprache die Tastatur von morgen sein wird und wir lebenserleichternde oder produktivitätssteigernde Skills entwickeln können, die das Leben der Menschen verbessern. Sich anzuhören, wie die Kuh klingt, ist sicher großartig – aber dieser Fußabdruck wird nicht der einzige sein, den wir im Markt von Voice Assistant Software hinterlassen wollen werden. Für uns ist Tiergeräusche eine Spielwiese, um die Technologie zu erforschen und um Daten zu gewinnen. Und ab heute könnt ihr daran teilhaben.

Vielleicht haben wir Glück und erfahren irgendwann, wie sich die Entlohnung durch Amazon berechnet. Werden die Finanzspritzen Bestand haben in Zukunft oder sind sie lediglich ein kurzfristiger Hebel, die Plattform zu pushen?

Bei Fragen, Anregungen oder falls Ihr Eure Daten auch mit der Welt (oder uns) teilen wollt: Kontaktiert uns per E-Mail an info@169labs.com oder in der Alexa Slack Gruppe (tkahle, dmeissner). Registrierung hier: www.alexaslack.com.

Wir sind gespannt, ob es bald noch mehr Tiergeräusche Skills gibt. 🙂 Muuuuuuh.

Da ist das Ding! Amazon Echo Show – Hands On

Stolz wie Alexa zeigen wir Euch einen kleinen Einblick in das neue Mitglied aus der Alexa Produktfamilie.

80 Tage – 1 Bergfest: Das Voice User Interface Design des Hausnotruf-Skills für Alexa

Nach der Veröffentlichung unseres Tiergeräusche Skills haben wir uns selbstverständlich wieder auf die Weiterentwicklung des Hausnotruf-Services fokussiert, den wir in genau 40 Tagen veröffentlichen wollen. Heute feiern wir Bergfest.

In der Zwischenzeit haben wir das Voice User Interface unseres Skills ausgearbeitet und auf Basis dessen die Intent-Struktur für unser MVP abgeleitet. Zur Entwicklung eines solchen Voice User Interfaces eignen sich verschiedene Ansätze. Neben der einfachen Skizze eines Gesprächsverlaufs zwischen Alexa und dem User bieten sich z.B. Flowcharts hervorragend an, um Abhängigkeiten und die Navigation in verschiedene Konversationsstränge zu visualisieren. Wir haben mit draw.io unser Design für die Sprachinteraktion in unserem Skill nach und nach erarbeitet (sehr zu empfehlen, da draw.io kostenlos ist und ähnliche Kollaborationsmöglichkeiten wie bei Google Drive anbietet).

Wie bei der Darstellung als „Chat“ bietet es sich an, zunächst den Happy Path zu skizzieren. Im Happy Path werden ausschließlich vom User gewünschte / erwartete Befehle eingegeben. Der Nutzer gelangt im Happy Path schnellstmöglich zum gewünschten Ergebnis (z.B. die erfolgreiche Einrichtung des Skills). Von diesem Happy Path aus lassen sich die Stränge des Voice Interfaces dann horizontal und vertikal erweitern, um falsche, nicht erwartete oder keine Eingaben entsprechend verarbeiten zu können. Wichtig ist hierbei, dass der Skill für jeden Fall gewappnet ist und nicht in eine Einbahnstraße gelangt, bei dem der Nutzer nicht weiterkommt oder im schlimmsten Fall eine generische Fehleransage von Alexa zurückerhält (z.B. „Bei der Antwort des angeforderten Skill ist ein Problem aufgetreten“ o.Ä.).

Wir haben uns neben dem Erfolgsweg für diese drei weiteren Optionen entschieden, die wir in jeder „Station“ des Skills verarbeiten werden können:

1. Keine Eingabe des Nutzers: Wenn der Nutzer schweigt, nutzen wir den Reprompt von Alexa und wiederholen die Aufforderung / Antwort an den Nutzer in abgewandelter und gekürzter Form
2. Der Nutzer sagt „Hilfe“: Alexa Nutzer können zu jeder Zeit „Hilfe“ als Eingabe an Alexa übermitteln und gelangen in das HelpIntent, in dem sie Hilfestellung zur Nutzung des Skills erhalten. Hier ist es ratsam, dem Nutzer eine individuelle Hilfestellung anzubieten, je nach dem an welcher Stelle im Skill er sich aktuell befindet
3. Eine nicht erwartete Eingabe des Nutzers: Wenn der Nutzer bspw. eine nicht erwartete Eingabe macht, bieten wir ebenfalls die passende Hilfe an

Vor allem bei der Eingabe der Telefonnummer des Notfallkontaktes kann unter Umständen alles und nichts richtig sein. Daher wiederholen wir hier die Eingabe des Nutzers und bieten ihm eine Ja/Nein Frage an, ob die Eingabe richtig verstanden wurde.

Bei der Erstellung des Voice Interfaces für einen Skill dieser Art, in dem Alexa eine mehrstufige Konversation initiert, steigt die Komplexität mit der Tiefe der Konversation und mögliche Fehlerquellen, wenn nicht nur A oder B der angebotene Weg für den Nutzer ist.

Selbst für unser MVP, das – wie die Bezeichnung schon verrät – einen eingeschränkten Funktionsumfang hat, ist ein mächtiges Flowchart entstanden (siehe unten).

Das Intent-Schema zu unserem Skill ist noch in der finalen Entstehungsphase. Auch hier versuchen wir, die Komplexität so gering wie möglich zu halten, was dank des Amazon Dialog Interfaces sicher gelingen wird. Das Dialog Interface ermöglicht, innerhalb eines Intents verschiedene Ebenen einer Konversation abzubilden und (Zwischen-)Zustände abzuspeichern.

Wir machen weiter – unsere nächsten Schritte sind neben dem Schliff am Intent-Schema die Fehleranfälligkeit durch irrtümliche oder zu korrigierende Eingaben zu verringern. Wir denken dabei z.B. über ein Validieren der Telefonnummer des Notfallkontaktes nach. Darüber hinaus werden in den nächsten zwei Wochen Tests mit Repräsentanten aus der Hauptzielgruppe durchgeführt. Wir stellen den Dienst vor und möchten Feedback einholen, um unser MVP unter möglichst realen Bedingungen auf Herz und Nieren zu prüfen.

It’s all about voice: Alexa brüllt jetzt wie ein Löwe.

Aus einem Experiment ist ein Skill geworden, der es innerhalb weniger Wochen in die „Top aktivierten Skills“ der Kategorie „Bildung/Nachschlagewerke“ (Update!) aller Kategorien geschafft hat.

Auf der Suche nach einer Idee, wie wir die SSML Features von Amazon Alexa ausgiebiger testen können, ist unser Tiergeräusche Skill entstanden.

Eine der Funktionen von SSML (Speech Synthesis Markup Language) erweckt den Skill und in Alexa im wahrsten Sinne das Tier zum Leben. Mit dem <audio> Tag unterstützt Alexa das Einbinden von Audio-Dateien in die Antwort, die an den Nutzer zurückgegeben wird.

Alexa kennt also dank unseres Tiergeräusche Skills nun die individuellen Laute von mehr als 20 Tieren. Technisch haben wir den Skill vielleicht etwas over-engineered, allerdings lässt sich mit einem echten Projekt das technische Setup eines Alexa Skills effizienter optimieren.

Die Tiere, inklusive der Sound-Dateien und Bilder für die Cards (der visuelle Log in der Alexa App, wenn Alexa auf eine Anfrage antwortet), werden in einem eigenen Content Management System online verwaltet. Das ermöglicht ohne Eingriff in den Source Code kontinuierlich weitere Tiere hinzuzufügen. Die Funktion des Skills haben wir mit Lambda umgesetzt.

Das Hosting der Sound-Dateien und Bilder lösen wir über Amazon S3. Bei der Bereitstellung der Sound-Dateien ist wichtig, dass diese im korrekten Format vorliegen. Dank der guten Dokumentation im Entwicklerportal von Amazon ist eine Anleitung zur richtigen Codierung des Audio-Files schnell zu finden. Wir haben uns dazu eine kleine Cloud-Anwendung programmiert, die automatisiert unsere Sound-Dateien für uns Alexa-freundlich codiert und in unserem S3 Bucket ablegt.

Nun kann es also losgehen: Tiere da, Sound-Dateien da, Bilder für die Cards da. Die Nutzer können nach Aktivierung des Skills beispielsweise fragen „Wie macht die Kuh?“. Alexa antwortet mit „Die Kuh macht …. “ und spielt dabei die Audio-Datei des entsprechenden Tieres ab.

Workflow Tiergeräusche Skill

Wenn die API das Tier nicht bereitstellen kann, z.B. wenn das angefragte Tier nicht in unserer Datenbank vorhanden ist, geben wir an den Nutzer die Antwort „Dieses Tier kenne ich leider nicht“ zurück. Damit uns die Anfragen nicht entgehen, haben wir einen Slack-Channel eingerichtet, in dem diese Anfragen dank eines Webhook-Bots einlaufen. Mit diesen Nachrichten können wir die Auswahl an verfügbaren Tiergeräuschen stetig ausbauen.

Die Herausforderung bei der Umsetzung: Das Voice Interaction Model. Schon bei einem derart simplen Skill ist es unerwartet komplex gewesen, im Vorfeld zu antizipieren, wie die Nutzer den Skill verwenden würden. Zu Beginn haben wir es uns leicht gemacht und (unbewusst) nur die Anfragen zugelassen, die die korrekte Verwendung des bestimmten Artikels beinhalteten. „Wie macht der Löwe?“ war OK. „Wie macht das Löwe?“ -> nicht OK. „Wie macht ein Löwe?“ -> nicht OK.

Da Alexa-Entwickler kontinuierlich neue Versionen ihrer Funktion veröffentlichen dürfen, konnten wir diesen Fehler schnell beheben. Wir lassen nun bestimmte und unbestimmte Artikel zu. Die falsche Verwendung des Artikels ist zwar schmerzhaft, aber auch in Ordnung. 🙂 Die Antwort von Alexa hingegen ist immer gleich und sieht selbstverständlich die Verwendung des korrekten Artikels vor.

What’s next? Wir haben den Aufwand bei der Gestaltung der Cards in Grenzen gehalten. Wir möchten diese überarbeiten und überlegen nun, mit kurzen Steckbriefen der Tiere einen weiteren Mehrwert zu entwickeln.

Und jetzt darf getestet werden. Hier ist der Link zum Tiergeräusche Skill. Wir wünschen tierisch viel Spaß! 😉

Landing Page und Werbung für Rette Mich [Alexa Skill to be]

Neben der Detailplanung und dem Projekt-Setup wollen wir schon frühzeitig versuchen, Tester für unseren Skill aus der Zielgruppe der „Silver Agers“ zu gewinnen. Dafür haben wir eine kleine Landing Page zusammengeschustert und veröffentlicht. Auf der Webseite wird der Service kurz erklärt, über ein Anmeldeformular können sich Interessenten dann für einen Test anmelden.

Zudem haben wir eine Printanzeige in einem lokalen Magazin geschaltet, um die Zielgruppe auf einem altbewährten Weg erreichen zu können. Online-Werbung folgt natürlich, da auch wir wissen, dass die Quote der Online-Omas und -Opas in den vergangenen Jahren drastisch angestiegen ist. Die Internetseite soll dabei helfen, möglichen Gesprächspartnern aus der Branche das Produkt vorab zu präsentieren und diesen einen ersten Eindruck von dessen Potenzial zu vermitteln.

Im Hintergrund arbeiten wir gerade an der MVP Definition, dem Projekt-Setup und einem ersten Wurf des Voice User Interfaces. Außerdem haben wir Kontakt zu verschiedenen Pflegediensten und Unternehmen aufgenommen, die mit der Pflege und Betreuung älterer Menschen betraut sind. Wir möchten damit die Zielgruppe besser verstehen lernen und möglichst auch Statistiken als Grundlage einer wirtschaftlichen Betrachtung unserer Idee heranziehen. Denn wir sind uns sicher, dass die Idee das MVP Stadium überleben wird.

Der „Skill to be“ gedeiht…

In 80 Tagen die Welt ein bisschen sicherer machen [Alexa Skill to be]

Nach dem überraschenden Erfolg beim Hackathon hat unsere Idee sich nicht nur am selbigen Abend in der Bar der Wohngemeinschaft in Köln weiterentwickelt. Vor Ort hatten wir noch die Möglichkeit, mit dem Senior Solutions Architect von Amazon, Kay Lerch, über unseren Ansatz zu diskutieren.

Am nächsten Tag haben wir uns für mehrere Stunden eingeschlossen und überlegt, wie wir konkret weitermachen wollen.

Wir haben uns dazu entschieden, die Idee weiterzuverfolgen und in den vergangenen Tagen die Bausteine eines möglichst schlanken Projektplans zusammengetragen. Darüber hinaus haben wir unseren Rette Mich Skill vom Hackathon nochmal von Grund auf neu konzipiert und mit einer ansehnlichen Code-Struktur versehen.

Mit dieser Basis war es möglich, die folgenden nächsten Schritte zu definieren:

Feinschliff der Minimal Viable Product Definition für den Rette Mich Skill (Arbeitstitel)
Projekt-Zeitplan mit Meilenstein-Definition
Projekt-Setup mit Amazon Lambda, Amazon S3, Amazon Polly, DynamoDB, Amazon CodeStar (tbd) und Debugging über einen Slackbot
Erstellung einer kleinen Landing-Page, um Beta-Tester für unseren Skill schon frühzeitig zu akquirieren
Rechtliche Beratung zur Umsetzbarkeit, Haftung und Datenschutz
Fachliche Beratung von Unternehmen und Personen aus Branche und Zielgruppen

Last not least, das Herzstück des Skills:

das Voice User Interface, mit dem die Nutzung eines Skills entweder intuitiv oder ein Desaster wird. Als Grundlage dazu dienen Personas, die wir aus Insights aus der Zielgruppe erstellen wollen, um so Alexa bestmöglich in den Gesprächspartner zu verwandeln, den die (Haupt-)Zielgruppe erwartet.

Und das alles in 80 Tagen. Here we go!

Alexa Hackathon: Stimmen im Web

Wir freuen uns über die Erwähnung im Kölner Stadtanzeiger, der einen kurzen Nachbericht zum Alexa Hackathon erstellt hat, hier geht’s zum Artikel: Lehrstunde für Amazons Sprachassistent Alexa

In unserem Beitrag zum Hackathon ist ein detaillierter Rückblick auf das Event zu finden!

Titelbild von Philipp Remke

Amazon Alexa Hackathon: Safety first

Wenn Du denkst, dass es ein Abend wie jeder andere werden wird, liegst Du damit meistens falsch. Noch besser geht es aus, wenn Du eigentlich überhaupt keine Erwartungen hast. Es sind genau diese Abende, an die Du Dich lange Zeit erinnerst und bei vielen Wiedersehen sinnierst. Vorher weißt Du das nicht – und das ist auch wirklich gut so.

Dieses Gefühl haben wir, wenn wir auf den Tag und Abend des Alexa Hackathons in Köln am 27. April in der Wohngemeinschaft Köln zurückblicken. Organisiert und koordiniert vom hack.institute und mobile.cologne. Nach dem Hackathon rund um Android Wearables haben sie das neue Wunderkistchen von Amazon in den Mittelpunkt gestellt. Mehr oder weniger zufällig fiel das Event perfekt in unseren Terminkalender, da wir ein Treffen in Köln ohnehin geplant hatten.

Wie auch andere Teilnehmer hatten wir uns vor dem Event Gedanken über ein Produkt oder einen Service gemacht, welcher im sportlichen Rahmen von 4 Stunden zum Leben erweckt werden kann. Schnell merkten wir, dass die Liste immer kürzer wird, als wir uns selbst zwei wesentliche Einschränkungen bei der Ideenfindung gaben: Löse ein Problem und nutze dabei das Alleinstellungsmerkmal der Technologie maximal aus.

Nach 2 Espressi haben wir uns gedanklich von der einfallslosesten Zielgruppe – uns selbst – entfernen können und sind auf eine sehr wichtige andere Zielgruppe gestoßen, die unseren auferlegten Regeln gerecht wird und dabei ohnehin höchstinteressant ist: Senioren und die, die bald Senioren werden.

Die Idee hatten wir zu diesem Zeitpunkt nur kurz angerissen und es folgendermaßen auf den Punkt gebracht: Wir ergänzen den bekannten Hausnotruf-Dienst und helfen Menschen, die sich im Haushalt verletzt haben und keine oder eine nur sehr eingeschränkte Möglichkeit mehr haben, sich zu bewegen.

Mit unserer Shortlist der Ideen für den Hackathon haben wir uns in Köln getroffen (zwei Alternativen hatten wir im Gepäck, falls jemand die gleiche Idee haben sollte) und sind ohne Erwartungen in den Abend gestartet. Vor Ort haben wir noch Franziska in unser Team aufgenommen und zu dritt an der Realisierung der Idee gearbeitet und ein MVP auf die Beine gestellt. Überraschenderweise hat keines der rund 20 Mitstreiter-Teams einen ähnlichen Ansatz verfolgt (was uns natürlich gefreut hat).

„Wenn Du denkst, dass es ein Abend wie jeder andere werden wird, liegst Du damit meistens falsch.“

Vier Stunden später wurden um Punkt 21:00 Uhr die Laptops zugeklappt. Nach vielen guten Pitches der anderen Teams am späten Abend haben wir unseren „Rette Mich“-Skill vor rund 70 Personen und einer vierköpfigen Jury präsentieren dürfen und haben gewonnen. Wir haben mit Aktivierung unseres Skills einen Webservice angesprochen, der einen Notfallkontakt per Anruf und SMS kontaktiert. Außerdem war Alexa in der Lage, die lebenswichtigen Körperfunktionen beim Benutzer abzufragen und die Antworten per SMS zu verschicken. Sowohl die Jury als auch alle Teilnehmer haben uns auf den 1. Platz gewählt.

Wir haben mit der Idee die unschlagbare Stärke von Alexa genutzt, um genau dann zu helfen, wenn der Nutzer keine andere Möglichkeit mehr hat, als sich mit seiner Stimme bemerkbar zu machen. Im Notfall kann diese aussichtslose Situation sehr tragisch enden. Hinzu kommt, dass wir auf einen Kommunikationskanal vertrauen, der nicht nur heute wieder für viele Buzzwords wie Voice Control, Voice Assistant, Natural Language Understanding […] sorgt, sondern der auch einer der ältesten der Menschheit ist: Sprache durch Benutzung der Stimme.

Gleichermaßen beschränkt sich diese Art von Service als positiver Nebeneffekt nicht nur auf die von uns in den Fokus gerückte Zielgruppe. Auch alleinstehende Menschen oder Personen mit einem hohen Sicherheitsbedürfnis gewinnen dabei. Die konzeptionelle Erarbeitung des Skills (vor allem das Voice Interface Design) muss sich aber auf die Zielgruppe ausrichten, die im Zweifel versuchen wird, den unvorstellbarsten Weg zur Aktivierung des Services zu gehen. Dass wir, die mit Nokia 3310 in der Hosentasche aufgewachsen sind, wie selbstverständlich auch damit umgehen werden können oder alternative Zugänge zum System erschließen können, ist Nebensache.

Im Anschluss an diesen Abend, als glücklicher Gewinner des Hackathons, haben wir uns gedacht, dass dies vielleicht einfach unser kleiner geheimer Proof Of Idea war. Nicht nur für die Entwicklung eines smarten Skills für Amazons Alexa, sondern auch für etwas anderes, was uns sehr am Herzen liegt: Mehrwert zu schaffen, durch Alltagsverbesserer oder Produkte, die genau dann, wenn man sie braucht, genau das tun, was sie sollen.

Gehen wir es an!

Nachtrag: Hier der Facebook-Livestream des hack.institutes, in dem sie die Pitches an dem Abend des Hackathons aufgezeichnet haben. Unsere Präsentation ist bei Minute 21:00.