Wir veranstalten Deutschlands erste Konferenz rund um Sprachassistenten

Am 12. Oktober 2018 veranstalten wir in den Räumlichkeiten des Leonardo Royal Hotels in München Deutschlands erste Konferenz rund um Sprachassistenten und Voice Technologie – die All About Voice Conference.

Die Konferenz soll als Austauschplattform für Unternehmen dienen, die sich mit dem Thema Voice Technologie vertraut machen und Kontakte zu Experten knüpfen möchten. Die Konferenz ist interessant für alle Unternehmen, die ein besseres Verständnis von Sprachassistenten und Voice Technologie erlangen sowie Ideen und Denkanstöße für eine eigene Voice Strategie gewinnen möchten.

Im Kontext der digitalen Revolution kann Voice Technologie als der nächste disruptive Schritt angesehen werden: Nach der grafischen Benutzeroberfläche, der Computermaus und dem Touchscreen soll nun die Sprache als Steuerungsinstrument für Geräte deren Nutzung noch einfacher und intuitiver gestalten. Während bisher der Nutzer stets die „Sprache“ der Computer lernen mussten, lernen nun Computer mithilfe von Spracherkennung und künstlicher Intelligenz die Sprache der Menschen. Sprachassistenten öffnen einen neuen Kanal der Interaktion mit Nutzern und Kunden in zusätzlichen Lebensbereichen. Neben dem Smart Speaker, der in der Küche oder im Wohnzimmer steht, werden weitere Hardwarekategorien, wie beispielsweise das Auto, ebenfalls interessant. Auch im B2B Bereich können Sprachassistenten eingesetzt werden, um kostbare Zeit bei Bestelltätigkeiten, Dateneigabe oder Rechercheanfragen zu sparen.

Das Ziel der Konferenz ist, ein generelles Verständnis von Voice Technologie zu vermitteln, Ideen und Denkanstöße für mögliche Use Cases im eigenen Unternehmen zu geben und aufzuzeigen, wie die eigenen Produkte und Marken über diesen neuen Interaktionsweg vertrieben werden können. Hierzu reisen Experten aus ganz Europa an, um mit ihren Vorträgen und Keynotes ihre Expertise zu teilen und spannende Einblicke in ihre Arbeit zu gewähren. Es wird unter anderem auf folgende Fragestellungen eingegangen: Wie kann die Zukunft von Voice Technologie gestaltet werden und warum sollten Unternehmen diese Technologie nutzen? Wie sollte eine Voice Abteilung aufgebaut werden? Welche psychologischen Aspekte stehen hinter der Technologie? Wie setzt die Deutsche Bahn Alexa ein? Warum ist Gaming und Voice Technologie eine perfekte Kombination? Welche rechtlichen Implikationen müssen beim Eintritt in das Voice-Ökosystem beachtet werden?

Tickets sind erhältlich über die offizielle Eventhomepage Hier finden Sie alle weiteren Informationen zur Agenda, unseren Speakern und der Anfahrt. Wir würden uns freuen, Sie auf der Konferenz begrüßen zu dürfen.

Neuer Wirtschafts-Skill für das Handelsblatt

In enger Zusammenarbeit mit der Tageszeitung Handelsblatt haben wir eine Voice App für Amazon Alexa entwickelt. Der Handelsblatt-Skill bietet dem Nutzer die Möglichkeit, Informationen zu Aktienwerten und Wirtschaftsnachrichten zu erhalten. Darüber hinaus gibt es nun eine Audio-Ausgabe des erfolgreichen Handelsblatt Morning Briefings, das ebenfalls über den Skill angehört werden kann.

Besonders für börsen interessierte Nutzer kann der Skill interessant sein, denn in der in der Kategorie „Aktienüberblick“ lässt sich erfahren, mit wie vielen Punkten der Dax aktuell notiert ist und welche Aktien – basierend auf dessen Kursänderung – die Tops und Flops des Tages sind. Es ist außerdem möglich, nach den Kursen und Kursänderungen bestimmter Aktien zu fragen. Möchte der Nutzer die Entwicklung mehrerer Aktien verfolgen, so hat er die Möglichkeit, diese zu seiner Favoritenliste hinzuzufügen. Mit dem Befehl: „Alexa, frage Handelsblatt nach meinen Favoriten“ gibt Alexa der Reihe nach den aktuellen Kurs und die Kursänderung zu jeder Aktie aus.

Der Handelsblatt Skill ist beispielhaft für das bedeutende Potenzial, welches Sprachassistenten für Zeitungsverlage bergen. Nachdem in den vergangenen Jahren ein zwar moderater, aber anhaltender Rückgang der Print-Auflagen notiert wurde – ein Trend, der bezeichnend ist für journalistische Inhalte – wird unterdessen in vielen Verlagen vermehrt auf den Wachstumstreiber digitales Geschäft gesetzt. Co-Gründer Tim Kahle bemerkt dazu: „Der Konsum von Nachrichten, Wissen und Informationen sind aktuell einer der Hauptanwendungsfälle von Voice Assistants, weltweit und auch in Deutschland. Die Aufbereitung der Nachrichten für die neue Plattform und die einfache Auffindbarkeit von Inhalten per Sprache müssen eine zentrale Rolle im Newsroom der Zukunft spielen.“

Chancen für Voice Assistants in der Eventbranche

Digitale Tools in der Veranstaltungsbranche

Die Meetingbranche ist sehr heterogen – auch mit Blick auf digitale Tools und Services. Es gibt sehr viele Software-Anbieter. Das wird schon deutlich, wenn wir uns allein die schiere Anzahl der Eventmanagement-Software-Anbieter ansehen. Ob das so bleibt? Wir werden es sehen. Auch ich halte es für wahrscheinlich, dass sich der Markt konsolidieren wird. Ahnlich wie bei den Fernreisebussen.

Schauen wir uns kurz die Abnehmerseite an. Die User, also sowohl die Eventplaner als auch die Eventteilnehmer, sind sehr unterschiedlich bei der Nutzung digitaler Tools. Da gibt es – wie in vielen anderen Branchen wahrscheinlich auch – die early Adopters. Das sind die, die sofort auf technische Neuerungen anspringen. Und es gibt auch die late Majority, also die, die gedruckte Konferenzprogramme und klassische Vortragsformate bevorzugen.

Laut einer Studie von Xing-Events nutzen mittlerweile immerhin 76 Prozent der Veranstaltungsplaner digitale Tools für ihr Eventmanagement und für die Eventvermarktung. Allerdings so die Studie weiter, sind es die Standardlösungen wie E-Mail, Website und Social-Media, welche die Veranstaltungen vermarkten sollen. Innovative Lösungen wie Content Marketing oder virales Marketing ist in der Breite noch nicht angekommen.

Herausforderungen bei der Nutzung digitaler Tools

Während viele von einer gemeinsamen MICE-Branche, also der Branche für Meetings, Incentives, Conferences und Events sprechen, unterscheiden sich die einzelnen Veranstaltungen doch sehr. Sowohl mit Blick auf ihre Ziele, Zielgruppen, Eventformate als auch mit Blick auf die eingesetzte Technik.

Da sehe ich Veranstalter und Locations, die viele der neuen Technologien ausprobieren. Sie setzen VR- und AR-Technik ein, nutzen Instant-Booking-Plattformen, probieren Facial Recognition für die Einlasskontrolle, sind in den Sozialen Netzwerken sehr aktiv. Sie betreiben Blogs, E-Mail-Marketing, beschäftigen sich mit SEO und SEA, Influencer-Marketing. Manch einer sogar mit Messenger-Marketing. Ebenso bedienen sie sich der Kollaborationsplattformen, installieren Chatbots auf der eigenen Website, nutzen Votingtools, Matching-Apps, digitale Kongresstaschen und Tools fürs Leadmanagement.

Das alles gehört für manche in der Veranstaltungsbranche zum Standard. Andere widerum haben noch nicht einmal den Schritt zu einem Online-Anmeldetool gemacht.

Neue Technologien klopfen schon an die Tür

Und schon klopft eine neue Technologie an die Tür. Sprachassistenten. Gerade im Privaten erfreuen sie sich schon heute wachsender Beliebtheit. Erst vor wenigen Tagen war es soweit: Amazon hat angekündigt, seinen Sprachassistenten Alexa in die Hotelbranche zu bringen. Wer heute schon in seinem Wohnzimmer Alexa als Spracheingabetool nutzt, kann das auch bald im Hotel tun. Die Gäste sollen über Alexa per Sprachbefehl beispielsweise den Zimmerservice bestellen, Handtücher ordern oder auch Licht und Klimaanlage steuern können. Zu Beginn in den Marriot-Häusern. Damit hält Amazon und der Sprachassistent Alexa in der Hotellerie Einzug. Wäre das auch für die Eventbranche interessant?

Chancen für Voice Assistants in der Eventbranche

Und wenn immer mehr Menschen mit Sprachassistenten agieren, ist es nur eine Frage der Zeit bis sie auch Alexa, Cortana, Siri oder den Google Assistant nach Eventtickets für Konzerte, Kongresse oder Messen fragen. Sprachassistenten wie Alexa & Co. sind daher für die digitalen Vorreiter sicherlich ebenfalls eine spannende Option – fürs Marketing oder als Kundenservice.

Nachdem Amazon die Hotellerie erobern will, hat das Unternehmen seinen Shop vor wenigen Tagen für “alle” geöffnet. Nun können auch Eventtech-Anbieter Skills programmieren, so dass Veranstalter Tickets über Alexa & Co. verkaufen können.

Vorteile der Spracheingabe

Eine berechtigte Frage lautet: Warum sollten Teilnehmer überhaupt Tickets über Sprachassistenten kaufen?

  • Die meisten Menschen sind einfach schneller, wenn Sie einen Sprachbefehl äußern als wenn sie dies in irgendein Eingabegerät eintippen würden.
  • Schlichtweg, weil wir es dann können und weil wir bequem sind. Aus diesem Grunde kaufen wir unsere Bahntickets nicht mehr am Schalter sondern bequem am Desktop oder in einer App.
  • Weil wir nicht immer die Hände frei haben zum Tippen. Nicht ohne Grund ist der Alexa-Timer eine der meistgenutzten Funktionen.
  • Nutzer mit eingeschränktem Sehvermögen haben eine weitere Möglichkeit, an der Gesellschaft aktiv teilzuhaben. Stichwort: Barrierefreies Tagen.

Nachteile von Spracheingabe

Audio ist jedoch nur eindimensional, denn zu einem festen Zeitpunkt kann ich nur eine Information aufnehmen.

Visuell können Menschen viel mehr aufnehmen. Das bedeutet für Eventmanager, die Tickets verkaufen: Sie können mit Hilfe von visuellen Medien/Kanälen durchaus verschiedene Ticketkategorien anbieten. Der User erfaßt das auf einen Blick und hat kein Problem damit.

Müsste mir ein Sprachassistent alle Ticketkategorien nacheinander vorlesen und anbieten, dauerte dies einfach sehr lange. Das erinnert mich ein wenig an meine ersten Besuche in amerikanischen Coffee Shops – mit den unzähligen Kaffeevariationen. Außerdem funktioniert die Spracherkennung noch nicht fehlerfrei. Das mag sowohl an ähnlich klingenden Worten liegen als auch an unserer mehr oder weniger deutlichen Aussprache und dialekt gefärbten Sprachbefehlen.

Der Mix könnte eine Lösung sein

Vielleicht ist daher ein kombinierter Einsatz von Spracheingabe und visueller Information sinnvoll. Also wenn wir also einen Bildschirm mit einem Echo Dot kombinieren. Denken wir nur mal an die kompliziert zu bedienenden Fahrkartenautomaten der DB und ÖPNV. Wie schon erwähnt: Mit Sprache sind wir einfach viel schneller bei der Eingabe.

Voice als weitere Eingabemöglichkeit

Voice wird künftig sehr wahrscheinlich einfach eine weitere Eingabemöglichkeit sein. Diese Technologie bietet sich an, wenn wir schnell einfach strukturierte Informationen erhalten wollen.

In der Meetingbranche könnten diese strukturierten Informationen zum Beispiel der Inhalt der heutigen FAQ-Listen auf den Event-Webseiten sein:

  • Wann und wo findet die Veranstaltung statt?
  • Wann genau startet das Event?
  • Wie reise ich an?
  • Welches Hotel ist in der Nähe?
  • Wo sind Parkplätze?
  • Wo findet die Session ABC statt?

Außerdem könnte die charmante Stimme von Alexa dank ihres Timers redselige Referenten an den Ablauf ihrer Vortragszeit erinnern. Das wäre doch etwas 😉

Oder wir könnten per Sprachsteuerung Licht, Temperatur, Jalousien oder andere Technik steuern. Da dürfen wir dann noch mal darüber nachdenken, ob wir den Sprachassistenten  zuvor auf einige ausgewählte Stimmen trainieren. Schließlich soll doch nicht jeder das Licht an und ausschalten oder die Temperatur regeln können, oder?

Auf der Veranstaltung selbst können Sprachassistenten wohl eher in ruhigen Räumen Anwendung finden. In einem Tagungszentrum oder in einer Hotellobby würde ich wohl keinen Sprachassistenten aufstellen. Voice braucht einfach, jedenfalls Momentan, eine ruhige Umgebung. Habe ich diese, kann ich mir auch hier den Einsatz dieser Technologie vorstellen. Beispielsweise in den Hotelzimmern, in VIP-Lounges oder aber auch in den Toiletten –  zur Steuerung des Lichts.

After Sales dank Sprachassistenten

Eine weitere Einsatzmöglichkeit, die ich mir für Sprachassistenten sehr gut vorstellen kann, ist der Verkauf von einfachen Produkten, beispielsweise die Eventdokumentation. Hier gilt die gleiche Prämisse wie beim Eventmarketing: Das Angebot muss sehr einfach strukturiert sein.

Fazit:

Sprachassistenten werden uns in den kommenden Jahren häufiger begleiten als bisher. Auch die Eventbranche kann diese Technologie nutzen, vor allem um mit einfach strukturierten Informationen schnell beim Kunden Gehör zu finden.

Über die Autorin

Katrin Taepke bloggt auf www.micestens-digital.de und ist Eventprofi mit Leidenschaft für Digitalisierung und interaktive Eventformate. Seit mehr als 20 Jahren organisiert sie Events unterschiedlichster Größe und Ausrichtung. Ihr Credo: Rettet die Welt vor frontaler Vortragsbeschallung und nutzt digitale Tools für Eure Prozesse!

Amazon Echo Show Basics. Inkl. Tipps zu Video-Telefonie

Der Amazon Echo Show wird seit heute ausgeliefert. Hier einige hilfreiche Tipps zur Nutzung:

  • Basis (Sprach-)Handgriffe
  • Tipps zur Verwendung der Videotelefonie
  • Skill-Nutzung und kleinere Dinge, auf die ihr achten solltet, wenn ihr seit heute zur Echo Show Familie gehört

3.200€ von Amazon Alexa für unsere Tiergeräusche!

Amazon Alexa hat uns wieder belohnt. „Fame by accident“ nennen wir es. Andere würden sagen: „Ich glaub‘, mich laust der Affe!“ – wir haben in diesem Monat wieder eine E-Mail von Amazon erhalten und wurden über die Bezahlung für unsere Skills benachrichtigt:

Es hat sich gelohnt. Wir haben uns vor einigen Wochen dazu entschieden, unseren Skill etwas auseinanderzunehmen und unsere Top10 der Tiere in einzelnen Skills zu veröffentlichen. Nicht nur, um ein paar neue Socken und einen Dot zu erhalten, sondern um die Auffindbarkeit von einzelnen Geräuschen zu begünstigen. Hat geklappt! Außerdem haben wir unseren Hauptskill für UK/US lokalisiert und sind dort auch prompt in das Reward System aufgenommen worden.

Insgesamt steigt damit die Summe aller bisherigen Auszahlungen durch Amazon auf 5.539,49 Euro (August – November, nur Skills mit Tiergeräuschen). Für den letzten Monat (wir vermuten von 15.10.17 bis 15.11.17) waren es in Summe allein ca. 3.200 Euro (Pfund haben wir der Einfachheit wegen 1:1 umgerechnet).

  • Affenlaute: 184,50 €
  • Tiergeräusche (DE): 1.334,49 €
  • Pferdelaute (DE): 1.529,28 €
  • Tiergeräusche (UK): 160.67 Pfund

Unser Kaltblüter „Pferdelaute“ hat uns unerwartet den größten Gewinn eingebracht. Und nun wird es interessant: Pferdelaute hat im Vergleich nicht mehr Interaktionen gehabt als z.B. der Affenlaute-Skill. Die „Unique User“ (Neue Nutzer) und „Sessions“ (wie oft der Skill benutzt wurde) teilten sich für den vermuteten Zeitraum von Mitte Oktober bis Mitte November wie folgt auf:

  • Tiergeräusche (DE & UK): 2.000 neue Nutzer, 8.281 Sessions, 1.250 aktive Nutzer (Skill mehr als 1x benutzt im angegebenen Zeitraum), Session-Länge im Schnitt: 1,6 Minuten
  • Affenlaute (DE): 6.200 neue Nutzer, 15.700 Sessions, 2.500 aktive Nutzer, Session-Länge im Schnitt: 3 Sekunden
  • Pferdelaute (DE): 8.890 neue Nutzer, 15.900 Sessions, 2.800 aktive Nutzer, Session-Länge im Schnitt: 2 Sekunden

Sehr spannend ist, dass wir im Vergleich dazu mit unserem „Hundegebell“ Skill folgende Werte für den gleichen Zeitraum erzielt haben: 26.900 neue Nutzer, 12.300 aktive Nutzer und knapp 70.000 Sessions. Für unsere Hunde hat uns Amazon hingegen keinen Scheck ausgestellt.

Wir freuen uns über die Entlohnung für die Tiergeräusche, zugleich können wir immer noch nicht zu 100% nachvollziehen, wie die Berechnungen zustande kommen. Wenn ihr mehr wissen wollt oder eure Meinung mit uns teilen wollt, schreibt uns eine E-Mail an info@169labs.com oder auf Twitter (@169labs).

 

14.10.: VoiceUI Hackathon München, 169 Labs als Sponsor dabei!

Nach vielen Events quer durch Deutschland verteilt, freuen wir uns umso mehr, dass es jetzt wieder in München zu Sache geht: VoiceUI Hackathon am 14. Oktober im Burda Bootcamp (Arabellastraße 23)! Wir unterstützen das Event als Mentor und offizieller Sponsor!

Noch sind Teilnehmerplätze vorhanden, die Anmeldung zum Hackathon findet ihr hier: https://www.eventbrite.de/e/voiceui-hackathon-munich-powered-by-amazon-maxdome-tickets-38417602082?aff=es2

Neben Vorträgen und Tipps der Amazon Evangelisten Andrea Muttoni und Liz Myers stellt maxdome eine API bereit, mit der die Teilnehmerden Tag über Skills für Amazon Alexa entwickeln können. Die Arbeit wird nicht nur mit Bier und Pizza belohnt – abends stellt ihr die Ergebnisse vor und eine Jury kürt die besten Ideen. Zu gewinnen gibt es neben Sachpreisen auch ein individuelles 1:1 Coaching durch Liz Myers!

Das Event richtet sich aber nicht nur an Programmierer. Marketer, Produktmanager, Kreative, Alexa-Fans und interessierte Unternehmen sind ebenfalls herzlich eingeladen, mitzumachen. Gute Ideen entstehen nur im Teamwork und bei der Entwicklung von Anwendungen für Sprachassistenten braucht es mehr als Coding-Skills!

Als ehemalige Teilnehmer des ersten deutschen Alexa Hackathons in Köln wissen wir, wieviele gute Ideen bei Events dieser Art entstehen können. Der Austausch mit anderen Enthusiasten für ein gemeinsames Thema und das fokussierte Verfolgen eines Ziels unter Zeitdruck ist eine außergewöhnliche Erfahrung. Am Ende dann vor der Community und der Jury sein Ergebnis zu präsentieren ist allein schon eine super Belohnung für die harte Arbeit. Und wer weiß: Vielleicht finden wir einen neuen Alexa Superstar unter den Teilnehmer/-innen! 🙂

Wir sehen uns vor Ort… Samstag, 14.10.!

How-To: Amazon Alexa Sprachanrufe machen und Nachrichten versenden

Darauf hat Deutschland und UK gewartet: Seit heute sind Alexa Sprachanrufe und das Versenden von Nachrichten über Amazon Alexa Geräte (einschließlich der App für iOS und Android) möglich. Wir haben die Funktion sofort getestet… so funktioniert’s:

1.) Nach dem Update (3.10.17) der „Amazon Alexa“ iOS oder Android App wirst Du beim nächsten Aufrufen der Anwendung durch einen Setup-Prozess geführt.
2.) Im ersten Schritt des Einrichtungsprozesses verifizierst Du Deine Identität, in dem Du Deine Rufnummer hinterlegst (z.B. Mobilrufnummer). Per SMS erhältst Du einen 6-stelligen Code, den Du dann in der Alexa App auf dem Smartphone eingibst.
3.) Als nächstes vergibst Du Deinen Namen. Das ist Dein Absendername (Anrufkennung) und darüber können Dich Kontakte erreichen, falls ihr Euch gegenseitig im Telefonbuch hinterlegt habt.
4.) Wenn Du Zugriff auf Dein Telefonbuch dann noch gewährst, werden im abschließenden Schritt sofort alle Kontakte sichtbar, die per Alexa kontaktiert werden können.

Jetzt kann es losgehen. Als erstes erhält man eine Testnachricht von Alexa, die Du dann auf einem Deiner Alexa-kompatiblen Geräte abrufen kannst. Das Gerät pulsiert in der Farbe grün, wenn Du eine Nachricht hast, die Du abrufen kannst.

„Alexa, spiel meine Nachrichten ab“ und schon liest Alexa die erste Nachricht vor. Ab sofort kannst Du Deine Freunde/Familie per Sprach-, Video- (Echo Show!) oder Sprach-/Textnachricht kontaktieren.

Wenn Du darüber hinaus die Funktion „Drop In“ aktivierst, ist es möglich, Deine anderen Alexa Geräte und Kontakte per Direktverbindung anzurufen. Ohne, dass Du das Gespräch auf der Gegenseite angenommen werden müssen. Super, wenn die Freundin gerade in der Küche am Kühlschrank steht. 🙂

Wenn jemand Deiner Kontakte anruft, spielt das Gerät einen kurzen Signalton ab und Alexa sagt Dir, wer gerade anruft. Mit (z.B.) „Alexa, geh ran“ lässt sich das Gespräch annehmen.

Die wichtigsten Kommandos zur Nutzung von Sprach- bzw. Video-Anruf oder Nachrichtenversand über Amazon Alexa:

  • Alexa, rufe NAME an.
  • Alexa, Drop In ALEXA-GERÄT oder NAME (um eine Direktverbindung zu einem anderen eigenen Gerät oder einem Kontakt, wenn er dies genehmigt hat, herzustellen).
  • Alexa, schicke NAME eine Nachricht.
    Alexa, spiele meine Nachrichten ab.
  • Alexa, geh ran (um das Gespräch anzunehmen).
  • Alexa, ablehnen (die Gegenseite bekommt die Benachrichtigung, dass der Kontakt nicht verfügbar ist und man gerne eine Nachricht hinterlegen kann).
  • Alexa, leg‘ auf (um ein aktives Gespräch zu beenden).
  • Alexa, bitte nicht stören (um keine Benachrichtigungen zu erhalten: Es klingelt nicht und der Ring leuchtet nicht grün). Du kannst trotzdem Alexa sagen „Spiele meine Nachrichten ab“ und sie liest Dir Deine „verpasste“ Nachricht vor.
  • Alexa, deaktiviere „nicht stören“

Die Videotelefonie über den Amazon Echo Show funktioniert ebenso reibungslos. So lässt sich z.B. ein Videoanruf auch von einem Smartphone mit installierter Alexa App zu einem Echo Show durchführen. Das bedeutet also, dass Du nicht zwangsläufig Alexa kompatible Hardware benötigst, um die neuen Funktionen zu nutzen. Du kommst auch nur mit der entsprechenden Amazon App für Dein Handy aus und könntest sogar von App zu App telefonieren.

Amazon Alexa Sprachanrufe und Nachrichten – gut zu wissen:

1.) Es empfiehlt sich, seine Mobilrufnummer beim Setup zu hinterlegen, damit (mögliche) Kontakte Dich besser finden können. Wer hat (und wer braucht zukünftig) denn noch Festnetz?
2. ) Nachrichten, die Du an Kontakte verschickst, in dem Du sie Alexa vorsagst, werden als MP3 bei Deinem Kontakt vorgespielt. Du musst also nicht „diktieren“ oder besonders deutlich sprechen, wie das bei einer SMS über z.B. Siri der Fall ist.
3.) Nachrichten können auch per Texteingabe über die Alexa App verschickt werden.
4.) In der App auf Deinem Smartphone lässt sich für jedes Alexa Gerät ein „Bitte nicht stören“ Modus aktivieren (Ein/Aus oder per Zeitplan).
5.) „Drop In“ kann ebenfalls für jedes Gerät separat eingestellt werden in der Alexa App für iOS/Android.
6.) Über das Account Icon (oben rechts in der Alexa App) lässt sich für jeden Kontakt einstellen, ob Du „Drop In“ (Direktverbindung per Sprache) für diesen Kontakt erlaubst.

Was wir vermissen…

  • Alexa, bitte nicht stören für eine Stunde (der „Nicht Stören“-Modus ist dann für eine Stunde aktiv)

Viel Spaß mit den neuen Funktionen von Alexa. Falls ihr noch zusätzliche Features entdeckt habt oder auch Funktionen vermisst, lasst es uns wissen!

Amazon belohnt unseren „Tiergeräusche“ Skill – mit echtem Geld!

Die Jagd auf die Millionen hat offiziell begonnen. Wir hatten davon gehört, dass Amazon seit Mai 2017 Spieleprogrammierer, deren Skills besonders „großen Wert für die Plattform Alexa bringen“, dafür bezahlt. Als eine Art Belohnung für die gute Arbeit, denn die Skills finden sich in den Top-Platzierungen der Spiele-Kategorie wieder. Andererseits ist der Wink mit dem Geldschein ein Anreiz, bestehende Skills weiterzuentwickeln. Ganz nebenbei lässt eine solche Nachricht Goldgräberstimmung unter den Entwicklern aufkommen und ist für viele, die Alexa als Plattform bis jetzt nicht in Betracht gezogen haben, ein Schubs in die richtige Richtung. Wieviele Überzeugungstäter unter ihnen sind, bleibt natürlich offen.

Die Zahlen von alexaskillstore.com belegen den Trend – seit Mai 2017 hat die Zahl der veröffentlichten Skills pro Woche einen raketenmäßigen Sprung hingelegt. Ein cleverer Schachzug, ein bisschen Geld in den Topf zu werfen, aus dem sie dann guten Entwicklern einen Teil zuweisen.

Jetzt, drei Monate nach der Meldung, der neue Kracher: Amazon belohnt nun auch Entwickler, die Skills für andere Kategorien programmiert haben. Ab sofort können sich die Entwickler von folgenden Kategorien über den ein oder anderen Dollar/Euro freuen:

  • Bildung & Nachschlagewerke
  • Essen & Trinken
  • Gesundheit & Fitness
  • Lifestyle
  • Musik & Audio
  • Produktivität

Mehr Kohlen! Mehr Skills! Mehr neue Entwickler! Wir sind gespannt, wie sich diese Neuigkeit auf die Zahlen auswirken wird. Spätestens jetzt blinken die Dollarzeichen in den Augen der Entwickler. Von welcher Plattform sonst wird man umgehend finanziell entlohnt, wenn gute Arbeit geleistet wird und die Anwendungen „einfach nur benutzt“ werden?

Aktuell gibt es in der Entwicklerszene hitzige Diskussionen zu dem Thema. Warum? Weil niemand genau erklären kann, wie sich der Verteilungsschlüssel berechnet, mit dem die Belohnungen verteilt werden. Ist es die Intensität der Nutzung oder wie oft ein Nutzer den Skill in einem bestimmten Zeitraum nutzt? Das Ranking? Die Bewertungen? Die Geister scheiden sich. Es kommt aber zutage, dass die Ausschüttung vermutlich bei 5.000$ (bei den amerikanischen Entwicklern) gekappt wird. Ebenso, dass es wahrscheinlich einen Budget-Topf pro Kategorie gibt, der unter den Skills dieser Kategorie verteilt wird. Dies führt dazu, dass mehrere Skills des selben Entwicklers untereinander im Wettbewerb stehen und bei der Belohnungsgrenze von maximal 5.000$ ein Widerspruch zum indirekten Amazon-Wunsch besteht, die Skills weiterhin zu verbessern und auszubauen. Ich müsste als Programmierer eigentlich nur zusehen, dass mein Skill mindestens genauso gut bleibt, wie er jetzt ist. Aber wie gut ist so gut, dass ich 5.000$ monatlich (?) verdienen kann mit der Bereitstellung eines einzelnen Skills? Wo ist der Maßstab?

Leider lassen die Neuerungen auch einige Copy-Cats aus der Versenkung auftauchen, die bestehende Skills 1:1 kopieren und im Zweifel besser abschneiden als das Original.

Wir möchten etwas Licht ins Dunkle bringen und haben uns dazu entschieden, unsere Zahlen offen zu legen. Amazon hat uns mit den Neuigkeiten dieser Woche auch berücksichtigt und uns für unseren Tiergeräusche Skill entlohnt.

Amazon verspricht uns 573,59€ für die Performance unseres Skills während der letzten 30 Tage. Wir waren davon sehr überrascht, da wir nicht damit gerechnet hätten, dass lange nach unserer Top-Platzierung in den Top 10 unser Skill noch so viel Mehrwert schafft in der Kategorie „Bildung & Nachschlagewerke“. Diese E-Mail erreichte uns am gleichen Abend der Bekanntgabe der Vergütung anderer Kategorien – wir hatten schon vergessen, dass unser Tiergeräusche Skill ja auch dort mitspielt.

Wir können, wie alle anderen Programmierer auch, nur mutmaßen, wie das zustande kommt. Um aber den Kollegen einen Einblick in mögliche Bewertungsparameter geben zu können, wollen wir die Nutzungszahlen unseres Tiergeräusche Skills in der Zeit vom 15. Juli 2017 bis 15. August 2017 hier veranschaulichen.

Wir waren in dieser Zeit unseres Wissens nach nicht mehr unter den „Top aktivierten Skills“. Weder in der entsprechenden Kategorie und – klar – demnach auch nicht unter allen Skills.

Wenn wir die Zahlen auf die Auszahlung herunterbrechen, ergeben sich daraus folgende Werte:

  • 573,59 Euro geteilt durch 1.890 einmalig (eindeutige) Nutzer: 30,3 Cent oder
  • 573,59 Euro geteilt durch 4.870 Sessions (Nutzungen): 11,7 Cent pro Session oder
  • 573,59 Euro geteilt durch 43.141 Utterances (Anfragen innerhalb von Sessions): 1,3 Cent pro Utterance

Wie aus dem Schaubild zu erkennen ist, sind diese Werte im Vergleich zum Zeitraum davor beachtlich zurückgegangen. Leider. 😉

Offen gestanden war unsere Intention, Anwendungen für digitale Sprachassistenten wie Alexa zu entwickeln, nicht davon getrieben, mit Skills wie „Tiergeräusche“ Geld zu verdienen (wer hätte das auch geahnt, dass das möglich sein würde?). Wir befassen uns damit, weil wir davon überzeugt sind, dass unsere Sprache die Tastatur von morgen sein wird und wir lebenserleichternde oder produktivitätssteigernde Skills entwickeln können, die das Leben der Menschen verbessern. Sich anzuhören, wie die Kuh klingt, ist sicher großartig – aber dieser Fußabdruck wird nicht der einzige sein, den wir im Markt von Voice Assistant Software hinterlassen wollen werden. Für uns ist Tiergeräusche eine Spielwiese, um die Technologie zu erforschen und um Daten zu gewinnen. Und ab heute könnt ihr daran teilhaben.

Vielleicht haben wir Glück und erfahren irgendwann, wie sich die Entlohnung durch Amazon berechnet. Werden die Finanzspritzen Bestand haben in Zukunft oder sind sie lediglich ein kurzfristiger Hebel, die Plattform zu pushen?

Bei Fragen, Anregungen oder falls Ihr Eure Daten auch mit der Welt (oder uns) teilen wollt: Kontaktiert uns per E-Mail an info@169labs.com oder in der Alexa Slack Gruppe (tkahle, dmeissner). Registrierung hier: www.alexaslack.com.

Wir sind gespannt, ob es bald noch mehr Tiergeräusche Skills gibt. 🙂 Muuuuuuh.

Da ist das Ding! Amazon Echo Show – Hands On

Stolz wie Alexa zeigen wir Euch einen kleinen Einblick in das neue Mitglied aus der Alexa Produktfamilie.

80 Tage – 1 Bergfest: Das Voice User Interface Design des Hausnotruf-Skills für Alexa

Nach der Veröffentlichung unseres Tiergeräusche Skills haben wir uns selbstverständlich wieder auf die Weiterentwicklung des Hausnotruf-Services fokussiert, den wir in genau 40 Tagen veröffentlichen wollen. Heute feiern wir Bergfest.

In der Zwischenzeit haben wir das Voice User Interface unseres Skills ausgearbeitet und auf Basis dessen die Intent-Struktur für unser MVP abgeleitet. Zur Entwicklung eines solchen Voice User Interfaces eignen sich verschiedene Ansätze. Neben der einfachen Skizze eines Gesprächsverlaufs zwischen Alexa und dem User bieten sich z.B. Flowcharts hervorragend an, um Abhängigkeiten und die Navigation in verschiedene Konversationsstränge zu visualisieren. Wir haben mit draw.io unser Design für die Sprachinteraktion in unserem Skill nach und nach erarbeitet (sehr zu empfehlen, da draw.io kostenlos ist und ähnliche Kollaborationsmöglichkeiten wie bei Google Drive anbietet).

Wie bei der Darstellung als „Chat“ bietet es sich an, zunächst den Happy Path zu skizzieren. Im Happy Path werden ausschließlich vom User gewünschte / erwartete Befehle eingegeben. Der Nutzer gelangt im Happy Path schnellstmöglich zum gewünschten Ergebnis (z.B. die erfolgreiche Einrichtung des Skills). Von diesem Happy Path aus lassen sich die Stränge des Voice Interfaces dann horizontal und vertikal erweitern, um falsche, nicht erwartete oder keine Eingaben entsprechend verarbeiten zu können. Wichtig ist hierbei, dass der Skill für jeden Fall gewappnet ist und nicht in eine Einbahnstraße gelangt, bei dem der Nutzer nicht weiterkommt oder im schlimmsten Fall eine generische Fehleransage von Alexa zurückerhält (z.B. „Bei der Antwort des angeforderten Skill ist ein Problem aufgetreten“ o.Ä.).

Wir haben uns neben dem Erfolgsweg für diese drei weiteren Optionen entschieden, die wir in jeder „Station“ des Skills verarbeiten werden können:

1. Keine Eingabe des Nutzers: Wenn der Nutzer schweigt, nutzen wir den Reprompt von Alexa und wiederholen die Aufforderung / Antwort an den Nutzer in abgewandelter und gekürzter Form
2. Der Nutzer sagt „Hilfe“: Alexa Nutzer können zu jeder Zeit „Hilfe“ als Eingabe an Alexa übermitteln und gelangen in das HelpIntent, in dem sie Hilfestellung zur Nutzung des Skills erhalten. Hier ist es ratsam, dem Nutzer eine individuelle Hilfestellung anzubieten, je nach dem an welcher Stelle im Skill er sich aktuell befindet
3. Eine nicht erwartete Eingabe des Nutzers: Wenn der Nutzer bspw. eine nicht erwartete Eingabe macht, bieten wir ebenfalls die passende Hilfe an

Vor allem bei der Eingabe der Telefonnummer des Notfallkontaktes kann unter Umständen alles und nichts richtig sein. Daher wiederholen wir hier die Eingabe des Nutzers und bieten ihm eine Ja/Nein Frage an, ob die Eingabe richtig verstanden wurde.

Bei der Erstellung des Voice Interfaces für einen Skill dieser Art, in dem Alexa eine mehrstufige Konversation initiert, steigt die Komplexität mit der Tiefe der Konversation und mögliche Fehlerquellen, wenn nicht nur A oder B der angebotene Weg für den Nutzer ist.

Selbst für unser MVP, das – wie die Bezeichnung schon verrät – einen eingeschränkten Funktionsumfang hat, ist ein mächtiges Flowchart entstanden (siehe unten).

Das Intent-Schema zu unserem Skill ist noch in der finalen Entstehungsphase. Auch hier versuchen wir, die Komplexität so gering wie möglich zu halten, was dank des Amazon Dialog Interfaces sicher gelingen wird. Das Dialog Interface ermöglicht, innerhalb eines Intents verschiedene Ebenen einer Konversation abzubilden und (Zwischen-)Zustände abzuspeichern.

Wir machen weiter – unsere nächsten Schritte sind neben dem Schliff am Intent-Schema die Fehleranfälligkeit durch irrtümliche oder zu korrigierende Eingaben zu verringern. Wir denken dabei z.B. über ein Validieren der Telefonnummer des Notfallkontaktes nach. Darüber hinaus werden in den nächsten zwei Wochen Tests mit Repräsentanten aus der Hauptzielgruppe durchgeführt. Wir stellen den Dienst vor und möchten Feedback einholen, um unser MVP unter möglichst realen Bedingungen auf Herz und Nieren zu prüfen.