Künstlerskill für Pretty Pink

Für die DJane Pretty Pink haben wir einen individuellen Künstler-Skill gebaut! So können Nutzer über Alexa die nächsten Konzerttermine erfahren, oder die Deep Woods Radio Show anhören. Wer sein Konto mit Spotify Premium verknüpft hat, kann auch direkt über den Skill Pretty Pinks letzte Tracks abspielen. Hier geht’s zum Reinhören: https://skills-store.amazon.de/deeplink/dp/B07ZHBV7C9

Neuer Meditationsskill für Alexa von 7Mind und 169Labs

In Kooperation mit der bekannten Meditationsplattform 7Mind ist ein gleichnamiger Skill entstanden! Es gibt einen 7-tägigen Grundlagenkurs, in dem die wichtigsten Meditationstechniken erlernt werden können, und aktuell drei Mini-Meditationen für morgens, abends und zwischendurch. Besonders ist, das es für diesen Skill eine Custom Voice gibt. Das heißt 7Mind haben die Inhalte selbst im Tonstudio aufgenommen, mit der aus den Kursen bekannte Stimme von Paul Kohtes. Durch die Verfügbarkeit auf dem Sprachassistenten wird es noch einfacher, sich jeden Tag etwas Zeit für Stille zu nehmen! Auf geht’s: https://skills-store.amazon.de/deeplink/dp/B081P7RB86

Neuer Skill: Tolle Pferdesport-Deals mit RidersDeal

Zusammen mit Ridersdeal haben wir einen Skill komplementär zu ihrer Website gebaut. Auf Ridersdeal können Artikel rund um Pferd und Reiter mit Mengenrabatt eingekauft werden. Das Angebot des Tages (während dem 1.-24. Dezember im Adventskalenderformat) kann ab sofort bequem über Alexa abgerufen werden. Bei Interesse können die Nutzer es sich danach per Email zusenden lassen. So muss kein Deal mehr verpasst werden! Zum Skill geht es hier: https://skills-store.amazon.de/deeplink/dp/B08227J43L?deviceType=app&share&refSuffix=ss_copy

169 Labs auf der DMEXCO 2019

Am 11. und 12.09. hat 169 Labs gemeinsam mit RMS einen Stand auf der DMEXCO in Köln (Halle 8, Stand D021)! Wir stehen für spannende Gespräche über die Entwicklung von Anwendungen für Amazon Alexa, Google Assistant oder Samsung Bixby zur Verfügung! Außerdem am 11. und 12.09. um 12:30 ein Impulsvortrag “All About Voice – next-level Kundendialog” auf der Bühne am RMS-Stand. Terminvereinbarung: https://calendly.com/169labs/dmexco-30-minuten-gespraech

AVV19 – Europas größte Voice Konferenz

Nachdem die ALL ABOUT VOICE Conference 2018 auf überaus positive Resonanz gestoßen ist, werden wir dieses Jahr am 11. Oktober mit dem Mediennetzwerk Bayern als Kooperationspartner #AAV19 veranstalten – Europas größte Konferenz zum Thema Voice und intelligente Lautsprecher.

Das Event dient als Plattform der Voice Community und richtet sich an Führungskräfte, Produkt- und Projektmanager, Entwickler sowie Marketingfachleute, die sich mit Smart Speakern und Voice Technologie beschäftigen. In den Keynotes werden neben Best Practices für die Umsetzung Ihrer Voice Strategie auch wichtige Branchentrends und Case Studies vorgestellt. Die Veranstaltung findet im Leonardo Royal Hotel in München statt.

Auch dieses Jahr sind unsere Rednerrollen hochkarätig mit international renommierten Voice Experten besetzt:

Bret Kinsella, Voicebot.ai (US): The State Of Voice – An International Overview
Adva Levin, Pretzel Labs (Israel): The art of voice design
Gary Hilgemann, Voicesurfer (Germany): Find your voice with next-level custom TTS
Max Amordeluso, Amazon (UK): Monetization
Jon Bloom, Google (US): Keeping people engaged with your voice-forward product
Tom Hewitson, Labworks (UK): How to run an award-winning voice game Studio
Tom Blaksley, what3words (UK): Location and voice: Talking to machines about where

Kane Simms, Gründer und Host des international bekannten Podcasts VUXworld wird Sie als Moderator durch die Veranstaltung begleiten.

Seien Sie dabei und folgen Sie dem offiziellen Konferenz-Hashtag #AAV19 oder unserem Twitter Account @all_about_voice, um keine Neuigkeiten zu verpassen. Tickets und weitere Informationen auf www.allaboutvoice.io.

Goolge I/O Konferenz-Highlights

In diesem Jahr wurde 169 Labs als Google Partner zur Google I/O eingeladen. Goolge I/O ist eine im Jahresturnus stattfindende Konferenz, bei der Google neue Funktionen, Dienstleistungen und Produkte präsentiert. Die dreitägige Veranstaltung findet neben dem Google Headquarter in Palo Alto California statt und wird von 5.000 Teilnehmern aus der ganzen Welt besucht. Die verschiedenen Sessions befassen sich mit Android, VR/AR, Firebase, Web Technology, KI, Machine Learning, Hardware und Technologie im Allgemeinen. Unser Hauptaugenmerk lag auf den Neuigkeiten rund um den Google-Assistant und der Sprachtechnologie von Google.

Der I/O-Schwerpunkt 2019

Die wichtigsten Ankündigungen werden während der Eröffnungs-Keynote gemacht. Wir werden in diesem Blogbeitrag die Ankündigungen mit den größten Auswirkungen auf den Bereich Voice besprechen.

Google Duplex Web-Erweiterungen

Letztes Jahr machte Google Duplex Schlagzeilen, als der Assistent telefonisch eine Reservierung in einem Restaurant machte. In diesem Jahr hat Google den Assistenten um die Möglichkeit erweitert, Online-Formulare im Namen des Nutzers mit seinen Daten auszufüllen. In der Demonstration wurde eine Mietwagen-Buchung durchgeführt, ohne dass der Benutzer irgendwelche Daten eingeben musste:

Google behauptet, dass diese Funktionalität möglich ist, ohne dass die Mietwagen-Website die Funktionalität ihrer Website erweitern muss. Ich denke, dies ist ein echter Assistent bei der Arbeit, der einfache und repetitive Aufgaben übernimmt. Mal sehen, wie das im wirklichen Leben funktioniert.

Der Google-Assistant verlegt das Natural Language Understanding (NLU) in die Geräte.

In einem interessanten Ansatz hat Google die KI für NLU aus der Cloud in das Gerät verschoben. Das Sprachmodell wurde von 100 GB auf 0,5 GB geschrumpft und bewahrt trotzdem die gleiche Genauigkeit beim Verständnis der menschlichen Stimme. In den letzten Jahren seit dem Aufkommen von Cloud Computing wurden die Clients immer dünner und dünner und die gesamte Logik wurde in die Cloud verlegt. Dieser neue Ansatz ist ein Paradigmenwechsel und bringt die Verarbeitung wieder auf die Geräte selbst zurück. Der klare Vorteil ist die Geschwindigkeit (die Verarbeitung wurde 10x schneller). Ein weiterer Aspekt, der von Google interessanterweise noch nicht erwähnt wurde: der Datenschutz. Da das Gerät selbst die Eingaben des Benutzers verarbeiten kann, ist es nicht notwendig, die Eingaben des Benutzers über das Netzwerk an die Cloud zu senden und dort zu verarbeiten. Die Stimmaufzeichnungen (und Daten) verlassen das Gerät nicht und werden dort verarbeitet, was private Gespräche nicht an Google weitergibt.

Hier ist eine Demonstration der Geschwindigkeitsverstärkung:

Natürlichere Gespräche und Multitasking

Multitasking war bei Sprachanwendungen bisher nicht möglich. Man musste jede Anwendung öffnen, die Aufgabe dort erledigen und zur nächsten Anwendung übergehen. Google zeigte eine sehr natürliche Art und Weise, wie man von einer Anwendung zur anderen wechselt und Fotos in eine Nachricht zieht. Ich denke, das ist die Zukunft, wie wir mit Assistenten umgehen können:

Alle diese Funktionen sollten noch in diesem Jahr auf neue Pixeltelefone kommen.

Fahrmodus

Die Nutzung im Auto ist einer der größten Anwendungsfälle für digitale Assistenten. Der Assistent ist bereits in Android Auto und Google Maps enthalten. Die neue Fahrmodusfunktion sperrt das Telefon während der Fahrt und versucht, Ablenkungen zu vermeiden. Aber es ermöglicht auch, grundlegende Aufgaben wie die Fortsetzung eines Podcasts, die Annahme oder Ablehnung eines eingehenden Anrufs per Stimme oder die Reservierung in einem Restaurant mit sogenannten Shortcuts.

Hier gibt die Demo einen kurzen Einblick:

Nest Nabe Max

Google bringt seine Google Home Produkte unter dem Dach der Nest Marke auf den Markt und präsentiert ein neues Gerät, den Nest Hub Max. Der Nest Hub Max ist eine neue Version des bestehenden Home Hubs mit einer hochauflösenden Kamera (mit einem physischen Schalter auf der Rückseite) und einem größeren Display.

Die neue Kamera ermöglicht es per Face Match (Profile, die verschlüsselt auf dem Gerät gespeichert sind) das Gerät darüber zu informieren, wer sich im Raum befindet und die Funktionalität zu personalisieren.

Eine weitere tolle Funktion ist die Gestensteuerung, mit der laufende Musik anstatt per Sprachbefehl per Geste angehalten werden kann.

Das neue Modell wird im Laufe dieses Sommers für 229 US-Dollar auf den Markt kommen.

 

169 Labs realisiert „Sing meinen Song“ Skill zur gleichnamigen TV-Show

Premiere – im doppelten Sinne. Heute, am 7. Mai 2019, startet die neue Staffel „Sing meinen Song – Das Tauschkonzert auf VOX. In einer der erfolgreichsten Musik-Fernsehshows in Deutschland interpretieren Künstler die Songs anderer Künstler. Dieses einzigartige Format hat in diesem Jahr auch eine einzigartigen Verlängerung in das Medium der Zukunft erhalten: Im gleichnamigen Skill (Invocation: „Das Tauschkonzert“) lebt die Show zwischen und an den Ausstrahlungsterminen weiter. Vom 7. Mai erfahren die Nutzer für 7 Wochen die Hintergrundgeschichten zu den Tauschsongs und können außerdem die Tracks des Tages, sowie die offizielle Sing meinen Song Playliste hören.

In der Anwendung kommen Sprachaufnahmen der Künstler zum Einsatz und durch Anbindung der Spotify API lassen sich Tracks und Playlisten sofort über den Smart Speaker abspielen.

Mit Hilfe der Reminder API von Amazon Alexa können sich Nutzer jeden Dienstag an die Ausstrahlung der Sendung auf VOX erinnern lassen.

Damit entstand in Zusammenarbeit mit unserem Kunden Zebralution der erste TV-Companion Skill in Deutschland. Wir freuen uns sehr über das Endergebnis! Reinhören lohnt sich – jeden Tag. Hier geht es zum Skill: http://go.169labs.com/singmeinensong

Das erste VOICE BOOTCAMP Deutschlands – präsentiert von 169 Labs

Du wolltest schon immer mehr über die Welt von Alexa und Co. lernen? Tiefer eintauchen in Voice-Technologien und Insights von Alexia Champions sowie Hands-On Erfahrungen von Professionals erhalten? Dann melde Dich jetzt für das VOICE BOOTCAMP am 10. Mai 2019 in Berlin an.

Wir veranstalten das deutschlandweit erste VOICE BOOTCAMP. In diesem 1-Tages-Intensivkurs, lernst du die Design-Tools aus der schnelllebigen Welt der Sprachassistenten kennen. Bereits heute gibt es Millionen von Anwendern mit Geräten, die natürliche Sprache verstehen. Amazon, Google und Apple etablieren Voice Interfaces für den Massenmarkt, mit großem Erfolg! Es ist ein neues Ökosystem, in dem wir zukünftig Inhalte, Marken, Services und Produkte erleben und (ver-)kaufen können. Unser Co-Founder, CEO und Alexa Champion Tim Kahle sowie die erfahrene VUI-Designerin und Innovations-Strategin Karile Klug teilen in diesem Workshop ihre Erfahrungen, Best Practices und Design-Tipps mit Dir, sodass Du zukünftig bessere Voice Apps konzipieren wirst. Jetzt zum VOICE BOOTCAMP anmelden!

Das Bootcamp startet um 9:00 Uhr morgens und dauert bis ca. 17:30 Uhr. Dich erwarten insgesamt fünf Sessions, in denen Du folgende Inhalte lernst:

Strategie: Wie findest Du sinnvolle Voice Use-Cases für Dein Produkt?

Prozess: Welche Phasen gibt es in Voice App Projekten und wie kannst Du Deine Prozesse effektiv vorantreiben?

Design: Methoden, mit denen Du Produkte für Ohren und Mund designst – und nicht für Augen und Fingerspitzen!

Wörter: “We’ve got the best words” – Wir bringen Dir die wichtigsten Basics in Dialog- und Wording-Design (Stichwort SSML) bei und wie Du für eine Voice-App Inhalte schreibst.

Testing: Du lernst wie man testet und vor allem – wann du testen solltest.

Prototyping: Lerne ein paar gute (und großartige) Prototyping-Tools kennen.

Technologie: Ein Überblick über die technischen Möglichkeiten, mit denen Du Deine Anwendung entwickeln kannst.

Marketing: Wie bekommst Du User auf Deine Anwendung und wie kannst Du sie vermarkten.

Monetarisierung: Welche Möglichkeiten gibt es, mit Voice Apps Geld zu verdienen?

Für mehr Infos rund um das Bootcamp, Preise und Bootcamps in weiteren Städten, schau Dich auf www.voice-bootcamp.com um.

Gastdozentenvortrag in Luzern

Im Rahmen des Weiterbildungskurses „Voice User Interface Strategy“ ist Tim Kahle von 169Labs am 1.Mai 2020 als Dozent an der Hochschule Luzern. Dort geht es im  vom 30.4.- 20.08.2020 um Customer Experience Management im Kontext Voice.

Das erwartet die Teilnehmer:

Das Design von Dialogmodellen für Anwendungen auf digitalen Sprachassistenten ist kritisch für den Erfolg und die Zufriedenheit der Nutzer. Das Verständnis der Technologie der Sprachassistenten, vor allem von Amazon Alexa und Google Assistant, bildet allerdings die Grundlage eines modernen Conversation Designer oder VUI Strategen. Wir werfen einen Blick auf die Funktionalitäten und Limitierungen der Sprachassistenten der neuen Generation und wie das eigene technologische Setup ermöglicht, einfach und schnell Anwendungen auf Sprachassistenten zu betreiben.

Bis dann in Luzern!

Stilles Testen von Anwendungen für Sprachassistenten

Ein gut durchdachter Testprozess ist entscheidend für die Entwicklung erfolgreicher Voice Skills. Durch einen strukturierten Prozess wird die allgemeine Benutzerfreundlichkeit verbessert und das Risiko schlechter Bewertungen eingeschränkt. Auf der anderen Seite muss der Prozess so schlank sein, um ihn für die Entwickler so einfach und zugänglich wie möglich zu machen und so teure Entwicklungszeit zu sparen sowie die Markteinführungszeit zu verbessern.

Letztendlich führt für ein robustes Testergebnis kein Weg an einer manuellen Prüfung an einem echten Gerät vorbei. Wir haben so viele Fälle gesehen, in denen das Ergebnis auf einem Hardwaregerät deutlich von den Ergebnissen auf Simulatoren abweicht und die Anwendung zerstört hat.

Da unser Team gerne in offenen Büroräumen arbeitet, um den Austausch und die Kommunikation zu fördern, ist es wichtig zu umgehen, das ganze Büro zu stören wenn Sie mit Ihrem Alexa-Gerät sprechen und die gleichen Phrasen immer wieder testen. Also haben wir uns ein Setup ausgedacht, das es uns ermöglicht, stille Tests auf echten Geräten durchzuführen.

Verwenden Sie Bluetooth-Kopfhörer, um sich mit Ihrem Gerät zu verbinden.

Wir verwenden entweder Bluetooth-Kopfhörer oder kabelgebundene Kopfhörer um die Ausgabe unserer Geräte zu hören, ohne das ganze Büro unserem Test teilhaben zu lassen.

Verwenden Sie einen Kopfhörer als Eingangsquelle für Ihr Gerät.

Alle Smart Speaker verfügen über ein sehr empfindliches Rundstrahlmikrofon, um menschliche Stimmen aus allen Richtungen des Raumes aufzunehmen. Daher gibt es keine Möglichkeit, ein zusätzliches Mikrofon an das Gerät anzuschließen. Wir müssen also improvisieren, um Sound in das Gerät zu bekommen. Wir verwenden in der Regel unsere Kopfhörer (Lautstärke auf Maximum eingestellt), die an unseren Laptop angeschlossen sind, oder einen sehr kleinen Bluetooth-Lautsprecher (Lautstärke auf Minimum eingestellt). So können wir den Ausgang unseres Laptops (siehe nächster Schritt) nutzen, um Befehle an den intelligenten Lautsprecher auszulösen.

Verwenden Sie eine TTS-Engine

Zum Testen können Sie entweder zuvor aufgezeichnete Mp3s verwenden, die von Ihnen ausgelöst werden, oder als einfachere Lösung eine Text-To-Speech (TTS)-Engine verwenden, die Texte laut vorliest. Dies ist ausreichend für die meisten unserer Tests, bei denen wir den Benutzerfluss überprüfen wollen und nicht die Robustheit der Genauigkeit der natürlichen Sprachverarbeitung unserer Anwendungen. Wir haben unsere eigene TTS Testing Suite entwickelt, die unter speechtest.169labs.com kostenlos erhältlich ist. Auf der Einstellungsseite können Sie Ihre verschiedenen Projekte und Sprachen zu konfigurieren. Wir werden das Tool im Laufe der Zeit selbstverständlich weiter verbessern. Fügen Sie die Seite zu Ihren Lesezeichen hinzu – wir freuen uns über Ihr Feedback!

Verwenden Sie eine schallisolierte Glasglocke

Um sicher zu gehen, dass der intelligente Lautsprecher keine Sprachbefehle von anderen Personen im Raum auswählt, haben wir eine schalldichte Abdeckung gesucht, um alle anderen Quellen außer unserer Kopfhörerquelle auszuschließen. Zuerst hatten wir den intelligenten Lautsprecher in einer Schublade auf dem Schreibtisch, was ausreicht, wenn wir nicht an Anwendungen arbeiten, die den integrierten Bildschirm des Gerätes nutzen. Auf der Suche nach einer Lösung, die auch den Bildschirm des Gerätes sichtbar macht, stießen wir auf diese schallisolierte Glasglocke, die für Dekorationszwecke vorgesehen ist. Sie passt perfekt über einen Amazon Echo Dot, einen Echo Spot und ein Google Home Mini-Gerät.

So haben wir am Ende unsere eigene Silent Testing Suite aufgebaut, um unseren Entwicklungsprozess zu beschleunigen, sicherzustellen, dass alles einwandfrei auf echten Geräten funktioniert und keine Mitarbeiter im selben Raum gestört werden. Wir können sogar End-to-End-Tests mit einer ganzen gestaffelten Konversation aufbauen, um Retests durchzuführen, nachdem wir den Quellcode geändert haben.