クラウドや人工知能という言葉が展示会やテレビで多く聞かれるようになって久しいが、ガートナーが2019年に発表したハイプサイクルによると今は「エッジAI」が「過度な期待のピーク期」の位置にプロットされている。
エッジ(端)の言葉の通りエッジAIとはクラウドなどインターネットを介してデータの処理を行う人工知能ではなくカメラやマイクなどのデータの取得元に近い、もしくはデータを取得するデバイスそのものにデータの処理能力を持たせるというものだ。
本記事ではエッジAIの利点と限界の解説とMicrosoft Azureの製品を例にとって実際にどのようなエッジとクラウドの両立ができるサービスが存在しているかを紹介する。
目次
エッジでデータを処理することの利点
データ通信量の低減
テキストや数値のデータをクラウドにアップロードするだけであればそこまで通信帯域を利用することはないがカメラの画像を逐一アップロードを行うとすると相当な帯域を利用することになる。そこで画像をエッジデバイスで処理し、「リンゴ」「バナナ」といった認識結果だけをクラウド上に送信したり、デバイス上に結果を表示することで低速度の回線や回線無しでも画像認識AIが利用できるようになる。
プライバシーなどの機密性の確保
図解!AI(人工知能)でも取り上げているように人の顔を画像認識処理にかけて個人の特定をしたり、年齢、性別を判断などをする場合には個人情報保護が課題として上がってくる。
また、法律的には問題が無いとしても自分の顔の画像がインターネットを経由してクラウドにアップロードされ画像処理をされることに嫌悪感を抱く人も少なくないだろう。
医療機関などではインターネットの利用が制限されており医療に関する画像をクラウドで処理することは難しいといった実情がある。カメラで撮った画像を同じ室内にあるコンピューターチップやカメラ自体でデータ処理を行い処理結果を返すことでこれらの問題を低減することができる。
リアルタイム性
クラウドにデータを送って処理した結果を返してもらって確認をするというフローで問題になってくるのがレイテンシー(遅延)の問題だ。
例えば店舗の混雑度や顧客の購買経路を画像認識処理などの特に速度を求められない処理であればいちいちクラウドに画像や動画をアップロードし、結果を後でまとめて確認するといった方法でも問題ない。
しかし、自動運転の歩行者認識による緊急停止や、異常検知による製造ラインの停止といった即応性が求められる場合はエッジデバイスで処理を行い、インターネットを経由した場合に生じる遅延を無くすことが求められる。
クラウドとエッジの使い分け
ここまでエッジAIの利点ばかりを説明してきたがもちろんすべてのことをエッジでできるわけではない。ここではエッジとクラウドの使い分けるべきポイントを解説する。
学習モデルの作成
機械学習では推論モデルを作る工程とそのモデルを利用して推論を行う工程に分けられるが、一般的に推論モデルを作る工程では多くのコンピューターリソースを必要とするためエッジデバイスの限られたコンピューティングリソースには荷が重くなりがちだ。
そこで一定量のデータが集積されればクラウドで学習モデルの再学習を行い、エッジデバイスに学習モデルを送信し、改善された学習モデルを使ってエッジデバイスがデータの処理を行うといった役割分担が重要になる。
デバイス管理
エッジだけで処理を完結できたとしても数千のデバイスの死活管理や様々な場所にあるデバイスを一括で管理するにはクラウドでの管理が現実的な解となってくる。先ほどの学習モデルの話でも数千のデバイスのモデルの更新を一つずつ行うのは非効率なためクラウドからモデルを一斉に全デバイスに送信するなどの方法をとるべきである。
エッジAIとクラウドの融合を実現するサービス
エッジAIの利点とクラウドとエッジの使い分けるべき理由を知っても実際にどのようにすればエッジAIを利用でき、使い分けができるようになるのかマイクロソフトの実際のサービスである「Azure IoT Edge」と「Cognitive Services Containers」を例にとって説明する。
Azure IoT Hub
「Azure IoT Hub」は「Raspberry Pi」などのエッジデバイスの死活管理や学習モデルのクラウド上でできるサービスだ。
様々な通信プロトコルに対応しているため違う種類のデバイスであっても一つの画面で管理することができる。デバイス内のシステム構成を変更をしたり有効無効を切り替えることもできる。
Cognitive Services Containers
マイクロソフトはCognitive Servicesとして画像認識や異常検知、音声認識、テキスト解析などのAIをAPIサービスとして提供しているがそれらのサービスをインターネット経由でなくエッジデバイスに取り込んで利用することをできるようにしたものが「Cognitive Services Containers」だ。
例えば「Cognitive services」の一つであるFace APIは通常だとインターネットを経由して写真をアップロードすることで写真に写っている人の年齢や性別、目の位置、唇の位置などをデータとして返してくれるが、これをカメラと接続したエッジデバイスに組み込むことで、写真をアップロードしなくてもエッジデバイスで写真の処理が行われ認識結果を確認することができるようになる。
第二回は「Azure IoT Hub」「Cognitive service container」について詳しい解説を行います。
DLLAB Engineer Days Day1
画像認識AIをノンコーディングのマウスだけで作成できるCustom VisionとRasberry piとWebカメラを利用して実際のデバイスでAIが動作するまでを体験できるハンズオン「Custom visionを利用したインテリジェントエッジの実装の基礎」を10/6(日)にDLLAB主催のイベントDLLAB Engineer Days Day1内にて行うことを予定しているので興味がある方は下記ページをご覧ください。
DLLAB Engineer Days Day1: Hands-onIoTNEWS&IoTビジネス共創ラボ 共催イベント
また、10月28日(月)には本記事の内容をさらに深く掘り下げた内容やビジネスにおけるデジタルトランスフォーメーションのトレンドの説明なども行うIoTNEWS&IoTビジネス共創ラボ 共催イベントを予定しておりますので是非下記ページよりご参加ください。
無料メルマガ会員に登録しませんか?
コンサルタント兼IoT/AIライター 人工知能エンジン事業の業務支援に従事するかたわら
一見わかりにくいAIの仕組みをわかりやすく説明するため研究中