AI活用に、過剰な期待を持つ方が絶えない中、「現状のAIでは大したことができない」という論調も目にする。
実際、AIといっても、現状ではディープラーニングという手法を使うことがAIだと主張するグループがあったり、高度な人がやりそうな判断を機械にやらせるという概念をAIと呼ぶグループもある。
AIを研究する研究者にしてみれば、脳の仕組みを数学的に解明するための数式であり、その手法はディープラーニングだけに偏らないという主張もあるだろう。
そう考えると、何がAIの今なのか?という気持ちにもなるが、多くの企業が、これまでのアルゴリムズでは解決できなかった課題を様々な数学的アプローチを使って解決しているという事実は着実に積み上がっているのだ。
今回は、春から夏にかけて、世界各国で発表された、様々な「AI」を紹介していく。
合成音声技術の進歩
Google関連企業
グーグル関連会社Deepmindは、開発したAI技術を使い、さらに自然言語に近いText-to-Speech(音声合成技術)を実現ですることができた。
「Cloud Text-to-Speech」と名付けられた、このサービスはグーグルのクラウドツールの一つとして提供され、アプリケーション、ウェブサイト、あるいはバーチャルアシスタント用の音声合成に利用可能だ。
「Cloud Text-to-Speech」はDeepMind社が開発した「Wavenet」というソフトウェアで動いている。Wavenetは他の音声合成技術と違って、音声サンプルを保存しているではなく、機械学習を使い、ゼロから音声を作成している。そのため人語データベースにある波型を分析し、1秒に24000音声サンプルを合成している。そのおかげで、最終的に合成された音声はアクセントや唇鳴らしなどの些細な部分を含み、人語と識別がつかないレベルを達成できたのだという。
グーグルは自然言語に近い音声合成の実現に力を注ぎ、2018年のGoogle I/Oにて「Duplex」というツールを発表した。同イベントにて、グーグルは相手にAIであることがわからないほど高いレベルの音声合成が可能なAIアシスタント「Duplex」によって通話のデモを行ったことは記憶に新しい。
「Duplex」は複雑な文章や速いスピーチを理解し、自然に会話ができて、アポイントメントをとることができる。最終的に、「Duplex」はユーザーに予約を確認するためのメッセージを通知するものだ。
しかし、この技術が発表されてからまもなく、相手がAIと話していることを理解していないことに関して、多くの人から疑問の声が挙がった。そこで、グーグルはそれに対して同システムに情報開示機能が組み込み、「Duplex」を利用する時、発信者はAIであることを相手に伝えることが可能だと発表した。
さらに、Google Maps上で動く、グーグルアシスタントの統合デモも公開された。この機能は今年の6月からiOS や Android上で利用可能になっている。
この機能を使い、Google Mapsの案内に従いながら運転する時にGoogle Assistantに到着予定の時間を共有するように音声指令ができるようになった。
Google Mapsアプリを閉じることなく、音楽再生、テキスト送信、電話や天気予報の確認もハンズフリーで音声指令によってコントロールが可能にもなった。
この機能はAndroid Autoや、Apple CarPlayが設置されてない車に特に役立つ。また、グーグルにとって独自のアシスタントをプロモーションできるチャンスでもある。
無料メルマガ会員に登録しませんか?

IoTNEWS代表
1973年生まれ。株式会社アールジーン代表取締役。
フジテレビ Live News α コメンテーター。J-WAVE TOKYO MORNING RADIO 記事解説。など。
大阪大学でニューロコンピューティングを学び、アクセンチュアなどのグローバルコンサルティングファームより現職。
著書に、「2時間でわかる図解IoTビジネス入門(あさ出版)」「顧客ともっとつながる(日経BP)」、YouTubeチャンネルに「小泉耕二の未来大学」がある。