2019年05月09日更新
次世代Googleアシスタントの新機能まとめ【Google I/O 2019】
「Google I/O 2019」では、Googleの次世代Googleアシスタントの新機能について発表がありました。「Google I/O」にて明らかとなったGoogleの次世代Googleアシスタントの新機能についてわかりやすくご紹介していきます。
目次
米Googleが次世代「Googleアシスタント」の新機能を発表
米Googleは現地時間の5月7日、本社キャンパス近くの野外ホールShoreline Amphitheatreで年次開発者会議「Google I/O 2019」の基調講演を開催し、次世代『Googleアシスタント/Google Home関連』について発表となりました。
Googleは公式発表として、登場から3年目となる次世代「Googleアシスタント」は、去年の5億台搭載から倍増し今年10億以上のデバイスに搭載されると発表しました。
次世代「Googleアシスタント」を利用できる対象国も、80カ国で展開されることとなり、30言語以上で利用することが可能となりました。
次世代「Googleアシスタント」の対応デバイスについても、去年5,000デバイスから大幅に増加し3,500ブランドの30,000デバイスに増加することになります。
2018年のGoogle I/Oでは、AIがレストランなどの電話予約を行う「Duplex」の発表を行いました。今年のGoogle I/Oでは、その「Duplex」をWEB向けに拡張することも発表となりました。
Googleにて発表された次世代「Googleアシスタント」の注目される機能をご紹介していきましょう。
次世代の「Googleアシスタント」について
現行の「Googleアシスタント」では、ユーザーのリクエストを解析するには、100GB程度のデータを必要としています。このリクエスト解析について次世代の「Googleアシスタント」では0.5GBのデータ量で理解することになったとしています。
次世代の「Googleアシスタント」の解析についての進化により、「Googleアシスタント」が端末内でデータを処理できるようになり、オフラインでも利用することが可能となり、対応も10倍速くなります。
次世代の「Googleアシスタント」のデモでは様々な指示を次々に行うと、「Googleアシスタント」画面がそれに対応する様子が紹介されました。
「Googleアシスタント」のデモでは「OK Google」などの起動呼びかけをしなくてもよいことがわかっています。
次世代「Googleアシスタント」は、今秋発売予定の次期Pixel端末(Pixel 4(仮称)から利用が可能になる見込みとなっています。
次世代「Gogoleアシスタント」についてはこの他、個人情報に基づいて最適な返事をするパーソナライズドヘルプや「Android Auto」での機能なども発表となりました。
今年のGoogle I/Oで発表された、WEB向けに拡張されるDuplexとは
今年のGoogle I/Oで発表された、WEB向けに拡張されるDuplexですが、「Googleアシスタント」が電話の代わりに、WEB上の予約フォームを入力してくれる機能となっています。
たとえば、ネット上でレンタカーを借りたい場合、レンタカーサービスの社名やレンタカーを借りたい日程を「Googleアシスタント」へ伝え、レンタカーの車の車種などを指示すると、「Googleアシスタント」が必要な項目を記入してくれるという機能です。
ユーザーは、「Googleアシスタント」が入力してくれた内容を最後に確認を行うことにより予約が完了する仕組みとなっています。
WEB向けに拡張される「Duplex」ではレンタカーだけではなく、映画のチケット予約を行う際にも利用できるようになるとのことです。
「Duplex」のこの機能は米国と英国でAndroid端末のChromeブラウザやカレンダー、Gmailで使えるようになる予定です。
「Duplex」のこの機能はAndroid端末のみの対象となっていますが、利用できる時期は今年の後半に利用することが可能になります。
「Googleアシスタント」のドライビングモード
「Googleアシスタント」のドライビングモードとは、車を運転中に音声のみで使えるようになる機能となっています。
「Googleアシスタント」のドライビングモードでは、ナビゲーションのほか、メッセージングや通話、メディアの操作などを音声のみで利用することができるようになります。
「Googleアシスタント」のドライビングモードでは、運転モードは車載機器にBluetooth接続を行うか、「Hey Google, let's drive」のように指示した場合に起動するようになっています。
「Googleアシスタント」のドライビングモード機能については今夏、Android端末で利用することが可能になるとのことです。
「Googleアシスタント」ではGoogleはまったくあたらしい音声認識と言語理解モデルを開発を行いました。
Googleは開発により100GB必要だった学習モデルを0.5GB以下まで削減したとされています。
これにより、学習モデルをスマートフォン内部に格納することが可能となり、AI機能の動作にネットワーク接続不要になったとのことです。この結果、ほぼ遅延なくデバイス上で音声認識が行えるようになるとのことです。
この新しいGoogleのアシスタントは、今年後半に新しいPixel向けにリリース予定となっています。
「Ok Google」起動ワードを言わずにGoogle Homeのアラームやタイマーを停止可能に
Google Homeのアラームやタイマーを停止する際、「Ok Google」の起動ワードを言わず、いきなり「ストップ」でアラームを停止可能となっています。
これまでは、Google Homeのアラームやタイマーを停止する際、「Ok Google」の起動ワードを使うことでアラームを停止可能となっていました。
今回、発表された新機能「Ok Google」を言わずに、Google Homeのアラームやタイマーを停止可能となる機能は、英語設定の「Google Home」やスマートディスプレイを対象に今日から利用することが可能となっています。
If it has audio, now it can have captions. Live Caption automatically captions media playing on your phone. Videos, podcasts and audio messages, across any app—even stuff you record yourself. #io19 pic.twitter.com/XAW3Ii4xxy
— Google (@Google) May 7, 2019
Googleのアクセシビリティ関連のライブ字幕やライブ音声読み上げる新機能
Googleは「for everyone」の一環として、アクセシビリティ関連の新機能も発表を行いました。
「Live Caption」は文字通りライブで音声にキャプション(字幕)を付ける機能となります。Googleは今年2月に発表した「Live Transcribe(日本では「音声文字変換」)」と同様の技術を採用しています。
「Live Caption」はスマートフォンでYouTube動画やInstagramの動画、Duoでの会話などの音声付き動画や、Podcastや音声チャットなどのオーディオが再生されると、「Live Caption」の機能により自動的に字幕が表示されるようになります。
この機能はデータ量80MBとコンパクトになっており、オフラインでも利用することが可能となっています。