東大発、AI画像解析技術ソフトでがん検診が変わる -エルピクセルCEO島原氏インタビュー

画像認識や画像解析というと、顔認識ソフトや、工場で部品などを区別するために使われていることはよく話題になるが、医療などの「研究者向け画像解析ソフト」というと多くの方が馴染みにくい分野かもしれない。

しかし、東大の研究室からはじまったという、エルピクセル株式会社 CEO島原佑基さんの話を聞くと、何も特別なことではなく、日々研究する中で多くの研究者が困っていたことをサービス化したという、ビジネス展開は通常のスタートアップとなんら変わりはない。

研究者向けというと、スケールしにくいビジネスのように見えるが、実際は専門性と日本発であるという強みを生かし、世界へ広がる可能性があるとしたら、どうだろうか。

東大の中にあるアントレプレナープラザにて、島原さんに詳しくお話を伺った。

島原 佑基(Yuki Shimahara) / 創業者 代表取締役(CEO) 東京大学大学院修士(生命科学)。大学ではMITで行われる合成生物学の大会iGEMに出場(銅賞)。研究テーマは人工光合成、のちに細胞小器官の画像解析とシミュレーション。グリー株式会社に入社し、事業戦略本部、のちに人事戦略部門に従事。他IT企業では海外事業開発部にて欧米・アジアの各社との業務提携契約等を推進。2014年3月にエルピクセル株式会社創業。現在、「Change the Study!」の理念の元、研究者向け画像解析ソフトウェア・システム開発をはじめ、教育Webメディア運営など幅広く事業を展開している。始動 Next Innovator 2015(経済産業省)。TECH LAB PAAK第2期生(リクルート)。
島原 佑基(Yuki Shimahara) / 創業者 代表取締役(CEO)
東京大学大学院修士(生命科学)。大学ではMITで行われる合成生物学の大会iGEMに出場(銅賞)。研究テーマは人工光合成、のちに細胞小器官の画像解析とシミュレーション。グリー株式会社に入社し、事業戦略本部、のちに人事戦略部門に従事。他IT企業では海外事業開発部にて欧米・アジアの各社との業務提携契約等を推進。2014年3月にエルピクセル株式会社創業。現在、「Change the Study!」の理念の元、研究者向け画像解析ソフトウェア・システム開発をはじめ、教育Webメディア運営など幅広く事業を展開している。始動 Next Innovator 2015(経済産業省)。TECH LAB PAAK第2期生(リクルート)。

 

-エルピクセルさんの事業内容を教えてください。

弊社の大きな特徴は、ライフサイエンス(生物系)領域に特化して画像解析のソフトウェアを作っているところです。きっかけは、大学で細胞の研究をするために顕微鏡で観察していた研究室で、画像解析のソフトウェアが必要になってきたからで、それをサービス化し会社を作ったのが1年前です。

ソフトウェアを作るスキルには、ライフサイエンス領域の知見と画像解析技術が必要なのですが、全く別の分野なのです。情報×生物学といったところで、できる人が限られています。

東大の研究室では10何年間で100件以上の共同研究をしてきました。その延長線で会社としてサービスを提供しているのですが、短納期で精度がよいものができるとすごく喜ばれています。ニーズが高まる一方で、顕微鏡やCT、MRIなどが高度化していって、1秒で4兆枚画像が撮れるようになることも、技術的にはできるようになっています。どんどんデータが増える一方なのは目に見えているので、ソフトウェアを作って研究者の支援をするというのが、主にやっているところです。

 

-ライフサイエンスっていってもすごく幅が広いと思うのですが、一番始めは細胞の分野からやられていて、今は、もっといろいろな分野をやってらっしゃるのですよね。例えば、どういうものの画像解析技術をやられているのでしょうか。

宇宙から海底まであらゆるジャンルの画像を対象としていますが、最近力を入れているのは、医療系です。CT、MRIなどの画像解析技術はがんの研究などで使われています。医療機器につながるような取り組みができないかといったところを今模索しているところです。

 

-なるほど。画像解析というと、高精度かつスピーディーにきれいな画像を残すという流れがまずあって、撮影した画像に対して、何らかのノウハウをもって解析をすると、価値のあることが判明する。ということだと思うのですが、例えばどういうことがその技術によって判明できるものなのでしょうか。

まず顕微鏡そのものと、画像解析技術をセットで考える必要があります。

顕微鏡の方でいうと、本当にいろいろあるのですが、例えば、今まで顕微鏡で2次元だけでしか見ていなかったものが、今簡単に3次元とかで高精度に撮れます。2次元だけだと丸にしか見えない、これがただの小胞だと思われていたものが、3次元でちゃんと立体再構築するとそれがチューブ状だっていうことが分かったりします。

となると、この細胞内の連携というのは、チューブ状なものが物質を伝達していって、重要な役割があるっていうのが初めて分かるというような例がたくさんあります。

そして、画像解析では、まずそのものを認識をすることが難しいのです。まず画像というのはそもそも何万というパラメータがあって、通常われわれが使う特徴量、パラメータは600ぐらいですね。その中でどういったものが細胞の中で重要なパラメータかっていうのを決めなきゃいけないので、生物のことが何もわからないととんちんかんな精度、50パーセントのソフトウエアとかできちゃうわけですね。ただ、そこでちゃんとパラメータ設計、生物のことを分かったうえでやっていくと、80パーセントのものができたりします。

なおかつ、例えば細胞などは画像を撮ってからでは遅い部分があって、撮る前の顕微鏡の設定も重要です。例えばこの研究テーマなら、この顕微鏡の光を当てる時間を0.5秒じゃなくて1秒間ちゃんと当てましょうといったことや、そもそもこの細胞元気じゃないので、その前の培養をちょっとフレッシュな細胞の状態にしてからなるべく早い段階でやりましょうとか、これはA社製じゃなくてB社製のレンズにしましょうというようなコンサルをすることで、95パーセントのものができるというわけです。そういった研究者目線でコンサルができるっていうのは弊社の強みでもあります。

応用例(生命科学基礎研究)
応用例(生命科学基礎研究)

 

-撮る対象自体がすごくセンシティブなものだから、環境だったり道具だったりがきちんとしたもので撮らないと、いくら画像解析技術が高くても、要は、真っ暗な所に黒い物が置いてあっても分からないというような、それに近いことが起きるってことですよね。

そうですね。我々はお客さん、研究者が望む以上のものは最終的に作っているつもりです。

 

-画像を撮る技術があるとして、もちろんいっぱいノイズも入っているでしょうから、どういうふうなものがノイズであり、どういうものが本当に得るべきパラメータなのかということも御社の中でもちろんノウハウがあるわけですね。例えばがん細胞がこういうものだとした時に、これはがん細胞かごみなのかみたいな区別がつくということでしょうか。

そうですね。

 

-なるほど。なぜこの事業をやり始めようと思われたのでしょうか。

やっぱり一番大きいのは、困っている人が多かったからというところですね。実はここは、我々が会社を作る時には40件も共同研究で抱えていた研究室なんです。(※エルピクセルは、東京大学の中にあるアントレプレナープラザという場所に事務所を構えている)

40件も普通一人二人で解決できないですよね(笑)。どう考えても。

それだけニーズがある一方で供給できる人がいないので、それだったらちゃんと会社という組織にし、会社を大きくすることによってソリューションの力をさらに大きくして提供することが、世の中のためになるんじゃないかと思ったのです。最初は会社を作ることはリスクも感じつつ、試行錯誤でやっていったんですけど、現状は研究者に喜ばれていることを嬉しく感じています。

左:IoTNEWS代表 小泉耕二/右:エルピクセル株式会社 CEO島原佑基さん
左:IoTNEWS代表 小泉耕二/右:エルピクセル株式会社 CEO島原佑基さん

-もともと画像解析をするような研究室があったのですね。

そうです。その研究室のメンバー3名で立ち上げました。

 

-メンバーが抜けたら研究室は困りませんか?大学側は本当は残ってやってほしかったということも想像してしまいます。

教授はたぶんそう思うと思ったのですが、逆にすごく喜んでくれて、今も弊社の顧問として応援してくれています。教授は、研究自体も自由にやらせてくれて、会社を作ることも応援してくれているので、非常に恵まれている環境なのは間違いありません。

 

-産学協同プロジェクトというと、産のほうは費用や工場などを提供して、学のほうは知見だったり論文でいろいろ実証されている事や、研究成果を組み合わせるというケースが多いのですけど、御社のパターンは非常に特殊ですね。研究に付随するものを実際にそのまま事業化される方って案外いなくてユニークですね。

そういう面ではまだロールモデルがないっていうことになるので、新しいかたちを、文化を作りたいなと思っています。

 

-今一番注目されている画像解析のジャンルはありますか。

今はやはり医療で、「がん」に注目しています。もともとがんの研究機関とはよく一緒に研究をしていて、特許も出しているんですね。

それは、人工知能みたいなものが付いた画像分類の技術なのですが、がんの画像はお医者さんによっても診断にばらつきがあるし、かなり難しいところなのですね。誤診率も約10~30%と高い領域である一方で、日本人は2人に1人はがんになって、3人に1人はがんで亡くなります。そのインパクトを考えたときに、どう考えても、画像をしっかり見るのは人よりも機械のほうが向いている特徴を活かしたいと思っているのです。

もちろん、最後の診断は人が下すのですが、その補助をする強力なツールを作りたいと思っています。

応用例(癌研究)
応用例(癌研究)

-画像のどういうところを見るのでしょうか。

がんの種類とか部位によっても全然違うのですけど、CTで、「ここに特殊な白い影があればがん」などという点を見ています。そのためには機械学習が必要なので、機械に「これががんの患者さんのものですよ」というものを教示付けしてあげますが、この機械への学習はお医者さんの知識が必要になるところですね。

 

-「これは影のように見えるけど、がんかどうかはちょっと分からない」ということもあると思いますが、機械であれば見た時点でだいたい分かってしまうってことですか。

そうですね。そういったものを今開発しようとしています。ただ、がんの画像だけだと限られています。まだ何を使うかというのは詳しくお伝えできないですけど、ビッグデータ解析などを活用し、総合的に判断してこれはがんであるかとか、生存率は何パーセントぐらいだとか、そういったものがリストで出てくるようなものを作ろうとしています。そういったものは今では心電図だとできていて、心電計は当てると「これかもしれない」というものが5つぐらい出るものもあるんですよ。

 

-誤診というのはCTで撮った画像を見て、判断を間違ってしまうというところで起きやすいのでしょうか。

放射線科医とか病理医さんは、1日たくさんの画像を見ますから、画像の本当に細かい所っていうのは見落としてしまうところもあります。

 

-もしかしたら地方の総合病院だと精度が悪い機械しかなくて、影なのか何なのかはっきり分からないみたいなケースがあるってことですよね。きっと。

それでいうと、医療の標準化というのは一つのキーワードです。専門領域の人が見るのとそうじゃない人が見るのとで全然精度が違うので、そこを人工知能作る時には、今第一線で活躍している人の情報を学習させていきたいと思っています。

そうすると、例えば東南アジアのあまり医療技術発展してない所などに、お医者さんを派遣しなくても、どこにいても日本と同じ医療が受けられる、そういったものができるんじゃないかなと思っています。

東大発、AI画像解析技術ソフトが世界へ広がる可能性を探る -エルピクセルCEO島原氏インタビュー
-なるほど。それはしびれますね。遠隔医療の話というと、その場で手を動かすと世界中のどこの場所でも治療ができるという話が多いのですが、それはまだ先の話ですね。
アメリカなんかも予防医療のほうに進んでいるので、検査で早期発見、早期治療という考え方って、今すごく定着しつつあるじゃないですか。これなんかまさにそうですよね。

そういったことも、標準化になると思います。

アメリカという話が出てきましたが、日本はIBMのWatsonなどに一つ対抗できるところがあります。人工知能を作るときに重要なのは、もちろん技術も大事なのですが、あとはデータ量なんですよね。Watsonなどの技術は優れているところもあるのですが、日本のCTやMRIの導入率はずば抜けて1位なので、データを圧倒的に持っているの日本は有利なのです。

日本では、予算を使いすぎだと問題になっているぐらい、導入が進んでいるので、撮れる画像もべらぼうに多いわけです。そうなるとデータ量があるので、やっぱ一番いいものができるのは日本であるべきです。特に人間ドックで毎回MRIとか撮るのって日本だけなんですよ。毎年20万枚ぐらい画像が撮れ、そのデータ量は日本が世界一ですので、「医療画像を人工知能化」というのは勝負できるんじゃないかなと思っています。

 

-AIに画像を学習させる中で、これががんだよっていうのはマークするみたいな形で覚えさせていくのでしょうか。

そうですね。そういったやり方もありますが、「これが大事だよ」という教示付きのものだと、1万枚ぐらい必要なこともあるので、すごく時間かかります。そこをわれわれは、最小限の分類だけで済むようにしています。例えば人工知能にAからGぐらいのところまで分けさせるんですけども、何かを覚えさせたら、次は分からないものだけを機械のほうから聞いてくる、アクティブラーニングと呼んでいる能動学習を用いています。最初は教示付きもするので、半教示付きの能動学習も付いた効率的な学習によって、通常1万枚の画像が必要なものだったら100枚ぐらいででき、かつ、いい精度ができます。それ自体の仕組みが特許になっているので、広めていきたいと思っています。

 

-1万枚の学習が100枚ぐらいで済むようになるのですか。例えば今後、写真を撮ったらがん細胞の有無が1時間後には分かる、というような世界にいくのが近そうですね。

『セカンドオピニオンは人工知能で』という世界は来てもおかしくないと思います。ゆくゆくは、もうそれに委ねるといったこともあるでしょうが、それは人間の生命倫理に関わってくるので、人間がどこまで許容できるかという話になります。

自分の医療画像は病院に言えば、数千円でいつでももらうことができますので、自宅で自分で調べるということもできるようになるかもしれません。

IoTNEWS代表 小泉耕二
IoTNEWS代表 小泉耕二

-ほかに注目されている分野はありますか。

我々の母体である研究の現場です。研究の現場では画像がたまって、どう解析していいか分からないという悩みが多いのです。今は我々が1件1件対応してるわけですけど、プラットホームとして、ここに行けば何でも解決できるというようなものを作ろうとしています。

今1件1件情報を蓄積しているのでそれをパッケージ化して、汎用的な物を作っていきたいと思っています。今後は、面で解決していきたいとは思っていますので、それを今実際ソフトウエアとして一つずつ、毎月1本ずつぐらい最近出してるんですけど、そういうのも全部その中に組み込んで、研究の高速化、高精度化に貢献したいと思っています。

 

-なるほど。オールインワン研究データ解析システムですね。
将来的に、この研究というか学術研究の分野から離れて、例えば顔認識の技術などの市場に出ていこうというお気持ちはありますか。

そこは、今のところはあまりないですね。さっきの重複になりますけど、人工知能を作ろうとかなるとデータ量と技術が必要なんですね。だから技術だけあってもデータ量がないと意味がないので顔認識などはデータ量について圧倒的優位性が足りません。

我々は、今ライフサイエンスのことが分かるということが一番のバリューで、そこにプレイヤーがいないので、まずはそこに集中しようと思っています。

 

-今後の展望を教えてください。

先ほどもお話したことと重なりますが、研究室でもなく、かつ大企業でもない、その間ぐらいの、第三極みたいな新しいロールモデルを作っていきたいと考えています。尖った技術集団が集まって大学でもできない、民間企業でも、大きな企業でもできないことができる場所みたいのを、研究所みたいなのを作っていきたいなと思っています。

IMG_9429
-本日はありがとうございました。

人工知能を育てていくには技術だけでなく、膨大なサンプルデータが必要だ。世界の中で日本が圧倒的に持っている医療画像に目をつけたのは、研究者ならではだが、顔認識などすでに他社が圧倒的にデータを保持している領域へ踏み込まないのは、データ量の大事さを痛感しているからだろう。

なかなかライフサイエンスや医療という分野は、専門性がないと参入しにくい領域だが、他領域で人工知能を取り入れたサービスの展開を検討している企業は、他国や他社にはない圧倒的なデータ量を利用するというとよいという考え方は参考になる。

Previous

ThingWorxとアナログ・デバイセズ、IoTアプリケーション向けクラウド環境の提供で協業

トレードショーオーガナイザーズ、『サービスロボット開発技術展2016』初開催決定

Next