CROSS2017でAlexaについて話してきました。

Spread the love

CROSS2017 に登壇しました。

どうもです。オランダ在住プログラマー TiNm’S です。

今日は、9月8日 に 横浜で開催された勉強会 CROSS 2017 でお話する機会をいただきましたので、そのポストです。

CLOSS2017

お話させていただいたセッションは、こちらです。

音声AIアシスタントがもたらす未来とは。

私が好きすぎて止まない Amazon の Alexa をはじめ、Google Assistant や Line Clova など、最近 よくメディアでも耳にする 音声AI アシスタント とカテゴライズされる分野です。

ライブ配信された動画がありますので、もし興味があるかたはご覧ください。

いきなりではありますが、最初にどうしても語らねばならないトピック。。

Amazon Echo 来てないw

まだ日本で買えないのですよ!

LEDが「ほわん」って反応するとこを見れないのですよ!

デモれないのですよ!

はよ来い!エコー!!!!!

もしも、エコー感を少しでも感じたい、というかたはこちらにデモ動画集がありますので、少しでも未来感が伝わればなあと思います。

https://www.youtube.com/channel/UCmVYtZlr_WuEZRN9YUzIrQw

という心の叫びを放出したところで、あらためていってみましょー。

セッションで伝えたかったことをあらためて

「声で操作する」ということはどういうことか?

伝えたかったことその1。

「声でコントロールできる」ということは、僕たちにとってあまりにも自然だということです。相手が機械だから、AIだから、最先端技術だから、とか、全部レッテルだということです。

声は誰でもしゃべることができる。こどもでも、お年寄りでも、将来はたとえば、難聴で話すことが少しだけ得意じゃない人でも、会話できるようになるでしょう。

すこし話はそれますが、最近、機械をまったくさわれないうちの母にiPadを持たせたんです。オランダと日本でFaceTimeするためです。

さて、当然使い方を覚えてもらう必要があるのですが、大変ですよね。

ホームボタンも押せないし、電源は勝手に抜くし、指でスライドなんて当然彼女の文化にないわけで。。

結局どうしたかといえば、iPad のいたるところに布テープを貼り、そこにヘルプを書く、ということに。

「困ったらこのボタンを押す」とか、「右手の人差し指で画面を触って、左側にシュッてする」とか。

電源も抜かれないように、テープで固定+「外さないでください!」シールを巻きつけまくるという。。。なんとも未来感のない事態にw

こういうとき、オカン自身の声で操作ができたら、もっと簡単に、抵抗少なく操作できるなーと思うんですね。

声で何かを操作できる、というのは、やっとテクノロジーが人間と自然にやりとりするところまで追いついてきたなーということだと思います。

機械と普通にしゃべるワクワク感。

伝えたかったことその2。

機械としゃべるって、ワクワクしないですか?しかも、あたかも人間と喋ってるような感じで。

僕はずっと、機動戦艦 ナデシコ に登場するコンピュータ「オモイカネ」と話すのを夢見ていて、若干メルヘン?な大人なのですが、機械が「きこえなかったよ。ごめんね」とか、「天気はこうだよ」とか、「明日の予定は〇〇だよ」とか答えてくれるって、普通に考えてヤバくないですか?

もう人間とか機械とかどうでもよくなってきてる感がハンパないじゃないですか?

できることは、本当にたいしたことないんですが、電気つけてくれる、とか、天気を教えてくれる、とか、音楽かけてくれるとか、、、普通にしゃべってそれができるっていうのは、僕にとっては、みなさんと共有したい高揚感だったんです。

すこしでも伝わればいいな。。。

開発の敷居は意外と低い!?

伝えたかったことその3。

これはエンジニアに向けてなのですが、結構簡単にAlexa は開発することができます。

必要なのは、httpの知識と、jsonと少しのGUI操作。これだけです。(かなり極端には言ってます。。

たとえば、Alexa をデバイスに組み込むとき、私たちが実装することは、仕様に沿って

  • デバイス上で録音した音声をHTTPリクエストでAlexaに投げること
  • レスポンスの応答データをデバイス上で再生すること

これだけなんですよね。

ディープラーニングの知識はほとんど必要ないし、特別な言語を覚える必要もない。自分の得意な言語でHTTPリクエストが投げられるものであれば、どんな言語でも大丈夫です。

エコですね!エコ!

また、スキル(声で操作するアプリのようなもの)を作る場合も、json とテキストでユーザーとの会話を設計して(ここが一番難しかったりするのですが)、応答部分をAWS lambda で実装すれば終わりです。AWS lambda を触ったことがあるのであれば、さらに敷居は低くなるでしょう。

 

もし、開発したいなーって思ったかたがいたら、ぜひ10月18日に神戸におこしください。(唐突に宣伝すみません。m(_ _)m

Alexa meetup #08

また、自分でデバイスやスキルを開発してみたいなーっていうかたがいたらぜひ、こちらでチャレンジしてみてください。

JAWS DAYS 2017 ハンズオン RaspberryPi で 自作Echoを作ろう!

JAWS DAYS 2017 ハンズオン alexa skills kit で遊ぼう【基礎編】

 

と、いうわけで、CROSS2017 で伝えたかったことを書きました。ほんとに機械と話すのって楽しいので、みなさんポジティブにとらえて、ワクワクする未来を迎えようじゃないか!

最後になりましたが、モデレータのJun Ichikawaさん、パネラー Hiromichi Kogaさん、せーのさん、セッションスタッフの中田さん、そして、勉強会スタッフのみなさん、ありがとうございました。

この場を借りて。