MCU AI/ML - インテリジェンスと組み込みシステムとの間のギャップを埋める

2024 年 6 月 26 日 | Gopinath Krishniah | この記事は 5 分で読めます

人工知能(AI)と機械学習(ML)は、システムがデータから学び、推論を行い、時間の経過とともにパフォーマンスを向上させることを可能にするキーテクノロジーです。この技術は、大規模なデータセンターや強力な GPU でよく使用されていますが、マイクロコントローラ(MCU)などのリソースに制限のあるデバイスにこれらの技術を導入する需要が高まっています。

このブログでは、MCU 技術と AI/ML の接点、そしてそれが低消費電力エッジ・デバイスにどのように影響するかを検証します。バッテリー駆動型 MCU で AI を実行する際の困難、イノベーション、実用的な使用事例について説明します。


AI/ML および MCU:概要

AI は、言語の理解、パターンの発見、決定など、人間のようなタスクを行うことができるコンピュータシステムを作成します。AIのサブセットである機械学習には、コンピューターがデータから学び、時間の経過とともに改善するアルゴリズムの使用が含まれます。ML モデルは、パターンを見つけ、オブジェクトを並べ替え、例から結果を予測することができます。

MCU は、エッジデバイスで AI と ML を実現する上で重要な役割を果たします。

エッジの MCU ベースの AI/ML のユースケースには、次のようなものがあります。

  • キーワードスポッティング: クラウド接続を必要とせずに、特定の単語やフレーズ(音声コマンドなど)を認識します
  • センサーの融合: 複数のセンサーからのデータを組み合わせて、単一のセンサーソリューションよりも情報に基づいた意思決定を行います
  • 異常検知: 故障、エラー、または脅威を示す可能性のあるセンサデータの異常値または異常なパターンを検出して、予知保全または品質管理を行います
  • オブジェクト検出: カメラまたはその他のセンサーがキャプチャした画像やビデオ内の関心対象物(顔、歩行者、車両など)の特定および位置特定。
  • ジェスチャ認識: カメラや他のセンサーでキャプチャされた画像やビデオの人間のジェスチャー(手の動き、表情、体型など)を解釈して、人間のコンピュータとの相互作用を改善します


MCU の AI/ML に関する課題

ディープラーニング モデル、特にディープ ニューラル ネットワーク (DNN) は、コンピューター ビジョンや自然言語処理などの複雑なタスクに不可欠です。しかし、彼らの計算上の要求はかなり大きいものです。このようなリソース集約型モデルは、日常的なデバイス、特にエッジデバイスに見られる低エネルギー MCU によって駆動されるデバイスでは実用的ではありません。ディープラーニング・モデルの複雑性が高まっているということは否定できません。DNN が高度化するにつれ、サイズが膨らみ、MCU で利用できる限られたコンピューティング・リソースと互換性がなくなります。


TinyML とは?

TinyML とは、リソースに制約のあるデバイスへの導入に最適化された機械学習モデルと手法を指します。これらのデバイスは、データが生成されるエッジで動作し、推論はローカルで実行されます。通常、低電力 MCU で実行される TinyML システムは、ノードにローカルで収集されたデータに対して推論を実行します。推論は、AI モデルの真実の瞬間であり、トレーニング中に学んだ知識をどの程度うまく適用できるかをテストします。ローカル推論により、MCU は AI モデルを直接実行し、外部サーバーやクラウド・サービスに頼ることなく、リアルタイムで意思決定を行うことができます。

AI/ML の文脈におけるローカル推論は、いくつかの理由で重要です。

リソースの制約: 多くの組み込みデバイス、特にバッテリー電源で動作しているデバイスは、メモリ、処理能力、エネルギー効率などのリソースが限られています。従来の汎用マイクロコントローラは、処理能力やメモリが限られていること、エネルギー資源が限られていること、オンチップ・アクセラレーションが不足していることから、AI タスクを効率的に実行するのに苦労しています。ローカル推論により、リソースに制約のあるこれらのデバイスは、過剰な電力を浪費することなくAIワークロードを実行し、以下のような効率性とパフォーマンスを向上させることができます。

ユーザ体験の強化: 例を挙げてみましょう。AI対応猫用電子フラップ。猫と他の物体を区別するように訓練することで、許可された猫に対してのみドアを開けることができます。ここではローカル推論により、RFID 首輪などの追加のハードウェアを必要とせずに、安全性と利便性を確保することで、ユーザ体験を向上させます。

効率とパフォーマンス:GPU は、効果的な AI トレーニングに不可欠な多くのプロセスを並行して実行できるため、大規模な AI 導入に一般的に使用されています。しかし、GPU はコストがかかり、小規模の組み込みアプリケーションの電力予算を上回っています。特殊なアーキテクチャを備えた AI 最適化 MCU は、AI ワークロードのパフォーマンスと電力効率を向上させることでバランスを取ります。Silicon Labs は、その AI/ML のイネーブルメントの一部としてマトリックス・ベクトル・プロセッサを搭載しています。この特殊な周辺機器は、AI/ML アルゴリズムまたはベクトル数学演算のパフォーマンスを強化して推論時間を短縮し、これらの重要なタスクを低消費電力で実行するために設計されています。

要約すると、エッジでのローカル推論は、リアルタイムの意思決定を強化し、レイテンシーを削減し、セキュリティを強化し、AI 機能で電池駆動デバイスを強化し、ユーザ体験を強化し、リソースの制限を尊重しながら、現代のコンピューティングシステムの重要なコンポーネントにします。


エッジ向け AI/ML Silicon Labs パイオニア・ソリューション:

ダイナミックな技術環境の中で、Silicon Labs は人工知能(AI)と機械学習(ML)をエッジに導入する先駆者として際立っています。当社のイノベーションに対するコミットメントは、インテリジェント機能を備えたマイクロコントローラ(MCU)などのリソースに制約のあるデバイスを強化する画期的なソリューションにつながりました。


TinyML に最適化されたデバイス

MCU およびワイヤレス MCU の EFR32xG24、EFR32xG28、EFR32xG26 ファミリは、78 MHz ARM Cortex®-M33 プロセッサー、高性能無線、高精度アナログ性能、AI/ML ハードウェア・アクセラレータを組み合わせ、開発者にエッジインテリジェンスを展開するための柔軟なプラットフォームを提供します。幅広いワイヤレス IoT プロトコルをサポートするこれらの SoC は、市場最高の RF パフォーマンス/エネルギー効率比を備えた最高のセキュリティを組み込んでいます。

今日の開発者たちは、エッジでの AI/ML の展開に対して、急激なパフォーマンスやエネルギーペナルティの支払いを強いられることが多々あります。xG24, xG28、xG26 ファミリは、設計の全体的な複雑さを低減する専用の AI/ML アクセラレータを搭載した初の超低消費電力デバイスとして、これらのペナルティを軽減します。この特殊なハードウェアは、ファームウェアのみのアプローチと比較して最大 8 倍高速な推論と最大 6 倍のエネルギー効率の向上、クラウドベースのソリューションと比較してさらに多くのパフォーマンスが得られるように複雑な計算を処理するように設計されています。ハードウェア・アクセラレータを使用すると、メイン・アプリケーション MCU からの推論の負担が軽減され、アプリケーションのサービスに使用できるクロック・サイクルが増えます。

ワイヤレス担当スタッフ製品マーケティング・マネージャーの Mark Beechum が、Silicon Labs が開発者が機能豊富な低消費電力デバイス AI/ML の開発を始めるのにどのように役立つかについて語ります。

AI/ML 開発を簡素化するツール

機械学習に必要なアルゴリズムを構築、テスト、展開するためのツールは、これらのアルゴリズムを実行する MCU と同じくらい重要です。TensorFlow、SensiML、Edge Impulse などの TinyML 分野のリーダーと提携することで、Silicon Labs は初心者にも専門家にもオプションを提供します。この新しい AI/ML ツールチェーンを Silicon Labs の Simplicity Studio と併用することで、開発者はさまざまなコネクテッドデバイスから情報を引き出すアプリケーションを作成して、インテリジェントな機械学習主導の意思決定を行うことができます。

Silicon Labs は、機械学習(ML)アプリケーションをサポートするさまざまなツールとリソースを提供しています。以下はその一部です。

機械学習アプリケーション: この開発プラットフォームは、TensorFlow Lite for Microcontrollers(TFLM)フレームワークに裏付けられた組み込み機械学習(TinyML)モデル推論をサポートしています。リポジトリには、ML を活用する組み込みアプリケーションのコレクションが含まれています。

機械学習ツールキット(MLTK): これは、Silicon Lab の組み込みプラットフォーム向けの機械学習モデルの開発を支援するコマンドラインユーティリティとスクリプトを備えた Python パッケージです。コマンドライン・インターフェースまたは Python スクリプトから ML 操作を実行し、組み込みプラットフォームで ML モデルがどの程度効率的に実行されるかを決定し、Google TensorFlow を使用して ML モデルをトレーニングする機能が含まれています。

Silicon Labs は、機械学習ツールキット(MLTK)の一部として TinyML ソリューションを提供します。ツールキットには、TinyML ベンチマークで使用されるいくつかのモデルが含まれています。これらのモデルは、Silicon Labs GitHub で利用可能で、異常検出、画像分類、キーワード・スポッティングが含まれています。

AI/ML パワードエッジデバイスは、私たちが周囲とどのように関わるかについて新しい視野を開きつつあり、すぐに私たちの生活を驚くべき方法で変えるでしょう。Silicon Labs は TinyML のイノベーションの最前線に立っており、これまでにないほど、これらの機能を低電力のコネクテッド・エッジ・デバイスにもたらすことが可能になりました。

当社の EFR および EFM MCU プラットフォームがどのように Edge AI/ML 向けに最適化されている方法については、最近の Wireless Compute Tech Talk セッション、A Optimized Platform for AI/ML the Edge をご覧ください

Gopinath Krishniah
Gopinath Krishniah
シニアマネージャー、製品マーケティング
閉じる
ロードの結果
閉じる
Powered by Translations.com GlobalLink OneLink Software