ARM、エッジからクラウドまでのAI体験を促進する最新プロセッサを発表

この記事は英ARMのブログ記事で発表された内容である。

英ARMは、エッジからクラウドまでのAI(人工知能)体験を促進する次世代のCPUおよびGPUプロセッサ、「ARM Cortex-A75」、「ARM Cortex-A55」および「ARM Mali-G72」を発表した。

ARMが今後発表予定の調査データによると、世界の消費者の85%がAIテクノロジーのセキュリティに不安を感じているという。これは、AIのプライバシーに対する信頼感を高める上で、エッジデバイスでより多くの個人データを処理し、保存する必要があることを示している。

ARMテクノロジーにとってセキュアでユビキタスなAIの実現は、設計理念における基盤だという。したがってARMには、AIや、ヒューマンライクの他の機器でのコンピュート エクスペリエンスを再設計する責任があると考えている。このためには、ネットワークのエッジ部分からクラウドにわたり、高速、高効率、高セキュリティの分散型インテリジェンスが必要。

3月に発表されたARM「DynamIQ」テクノロジーは、チップからクラウドへインテリジェンスの分散を可能にする最初の布石だったという。そして今回、DynamIQテクノロジーをベースとした最初の製品である「ARM Cortex-A75」および「Cortex-A55」プロセッサの発売により、ARMは次のマイルストーンに到達したとしている。両プロセッサには、以下が含まれる。

  • DynamIQテクノロジーを介したAI性能タスク専用の命令により、今後3~5年でAI性能を50倍以上に向上可能
  • DynamIQ big.LITTLE構成のシングルコンピューティングクラスターにおける優れたマルチコア機能と柔軟性
  • 数十億デバイスのセキュリティ基盤である、ARM TrustZoneテクノロジーがエッジデバイスのSoCを強化
  • ADASおよび自動運転向けの機能安全性能の向上

ARMは、分散型インテリジェンスとデバイスベースの機械学習に対してSoCをさらに最適化するため、最新のARM Mailハイエンドバージョンも発売する。新しいMali-G72グラフィックスプロセッサは、Bifrostアーキテクチャをベースとし、デバイス上での機械学習、高忠実度のモバイルゲーム、モバイルVRといった新しい高性能を要する用途向けに設計されている。

  • Cortex-A75
    Cortex-A75は効率性を損なうことなく、シングルスレッド性能を大幅に向上させている。Cortex-A75は、50%という大幅な性能向上とマルチコア機能の改善を実現するという。これにより、パートナー各社は、ノートパソコン、ネットワーキングおよびサーバーを含む高性能用途に、ひとつのスマートフォンの電力プロファイルで対処できるとしている。
  • Cortex-A55
    Cortex-A53をベースとするSoCは2013年に市場へ投入された。以来、ARMのパートナー各社は15億個のSoCを出荷し、その数はさらに急成長を続けている。Cortex-A55は、専用のAI命令を搭載し、一部の用途ではCortex-A53搭載機器と比較して2.5倍の効率向上を達成するという。
  • Mali-G72
    Mali-G72は、前世代であるMali-G71の成功を踏まえながら、Bifrostアーキテクチャに改善を加え、40%の性能向上を実現。これにより、パートナーはモバイルVRの進歩、より高いリアリティのあるモバイルゲーム実現することができるという。また、算術最適化とキャッシュ増加により帯域幅が削減され、機械学習の効率性が17%向上。
    ARM、エッジからクラウドまでのAI体験を促進する最新プロセッサを発表
    エネルギー効率の25%向上、面積効率の20%改善、また新しい機械学習の最適化により、ARMはSoC全体でインテリジェンスをより効率的に分散できるとしている。

エッジからクラウドへインテリジェンスを分散させるには、処理能力に関するニーズのさまざまな側面を検討しなければならない。DynamIQ big.LITTLEは、初めて単一の処理クラスター上でbigとLITTLEのプロセッサ構成を可能にすることにより、幅広い性能やユーザーエクスペリエンスにマルチコアの柔軟性を提供する。
ARM、エッジからクラウドまでのAI体験を促進する最新プロセッサを発表
DynamIQ big.LITTLEの柔軟性は、これらの先進的な用途に求められるシステムレベルアプローチの中核。ARMは、フレキシブルなCPUクラスター、GPU、およびAIアクセラレーターを効率的に追加する機能とARM Compute Librariesにより、AI性能をさらに強化。ARM Compute Libraryは、Cortex CPU およびMali GPUアーキテクチャに最適化した低レベルのソフトウェア機能を集めたもの。

これにより、ソフトウェアを利用してタスク切り替え機能をさらに強化することができるという。これは、効率を損なうことなくハードウェアから最大限のパフォーマンスを引き出すため、ARMのソフトウェア投資に対するさらなるコミットメントの最新例。CPUだけでもARM Compute Libraryは、新しいARMベースのSoCと既存のARMベースのSoCの両方でAIワークロードとMLワークロードのパフォーマンスを10倍〜15倍向上させることができるとしている。
ARM、エッジからクラウドまでのAI体験を促進する最新プロセッサを発表
下の図は、エッジデバイス向けに最適化されたARMベースのSoCを示している。最高の性能と効率性を備えたモバイルエクスペリエンスを提供するために、一連のコンピュート、メディア、ディスプレイ、セキュリティ、システムIPがまとめて設計され、検証されているという。

このIPスイートと併せて、新たなモバイルのためのシステムガイダンス(SGM-775)も提供される。これには、SoCアーキテクチャから詳細なプレシリコン分析文書、モデルおよびソフトウェアなど、が盛り込まれ、ARMパートナー各社に無料で提供される。また、市場投入までの時間短縮と最適化された実装で常に最高のパフォーマンスと効率性を実現する、Cortex-A75向けのARM POP IPが提供される。
ARM、エッジからクラウドまでのAI体験を促進する最新プロセッサを発表
ソフトウェアは、効率性とセキュリティに優れた未来の分散型インテリジェンスの中心部。CPUとGPU IPへのサポートを拡大するため、総合的なソフトウェア開発環境もリリースするという。これによりARMのエコシステムは、ARMの仮想プロトタイプや、DS-5 Development Studioなどの開発ツールを組み合わせ、ハードウェアの提供前にDynamIQテクノロジーを活用したソフトウェアを効率的に開発できるようになるとしている。

ARMは、パートナー各社と協力し、今後5年間でさらに1,000億個のチップ出荷を目指している。

【関連リンク】
ARM

Previous

ISID、ソニーCSL、クウジット、AI技術による大規模データ解析サービス「CALC」提供開始

富士通、生産現場の工程と一体化できるデジタル生産準備ツールVPSを販売開始

Next