2019年 2月 26日
東芝デバイス&ストレージ株式会社
当社は、人工知能(AI)技術の一つである深層学習を用いた画像認識を、高速かつ低消費電力で実行できる車載向けSoC(System on a Chip)を開発しました。本SoCは、当社の従来技術と比較して、SoCの処理速度は約10倍注1、電力効率は約4倍注1を達成しています。今回開発した技術の詳細を、米国サンフランシスコで今月開催された国際学会「ISSCC(International Solid-State Circuits Conference) 2019」にて発表しました。
近年、自動車市場では、自動ブレーキなど運転支援システムの重要性が高まっています。運転支援システムを高度化するためには、多様な交通標識や道路状況を瞬時に把握する必要があり、同システムの基幹となる画像認識SoCには、車載機器として実装可能な消費電力の水準を満たしながら、さらなる精度の向上と処理の高速化が求められています。
深層学習は、人間の脳の神経回路をモデルとしたアルゴリズムです。従来のパターン認識や機械学習よりも高精度な認識が可能とされており、車載用途への活用が期待されています。一方、深層学習による画像認識では、多数の積和演算を実行しなければならないため、通常のプロセッサで処理すると時間がかかり、高速で処理しようとすると多量の電力を消費してしまうというトレードオフの関係がありました。
そこで当社は、深層学習による画像認識をハードウェア上で実行するDNNアクセラレータを開発し、SoC上に実装することで、この課題を解決しました。今回開発したDNNアクセラレータには、3つの特長があります。
第一に、積和演算プロセスの並列化です。今回開発したDNNアクセラレータは、256個の積和演算ユニットを搭載したプロセッサを4つ保持しています。演算を並列に処理することで効率化し、画像認識の処理速度を高めることができました。
第二に、DRAMへのアクセスにより消費される電力の低減です。従来のSoCでは、深層学習による画像認識を実行するユニットの近くに、演算プロセスの中間データを一時的に保持するためのメモリが配置されておらず、メモリへアクセスする度に多くの電力を消費していました。また、処理に必要な重みデータを読み込む動作も、電力消費を増加させる要因でした。今回開発したSoCでは、中間データを保持する専用のSRAMが実行ユニットの近くに配置されています。そのSRAMに収まるように深層学習の推論処理を分割することで、DRAMへのアクセス回数を削減しました。さらに、重みデータを事前に圧縮して保存しておき、読み込む際にそのデータを伸長する回路を追加することで、重みデータの読み込みに使用するデータ量を削減しました。
第三に、SRAMへのアクセスにより消費される電力の低減です。従来では、深層学習の推論処理の各レイヤーにおいて、それぞれの処理が終わるたびに SRAMを参照していたため、メモリ動作時に消費される電力が大きくなっていました。今回開発したSoCでは、各レイヤーをパイプライン接続し、中間データをSRAMへ書き込むことなく、1回のSRAM参照で複数レイヤーの処理を実行することで、消費電力を抑制しました。
これらの技術により、従来の機械学習やパターン認識よりも高精度な深層学習による画像認識を、当社の前世代の技術に比較して処理速度は約10倍、電力効率は約4倍で実行可能としました。
なお、今回開発したSoCは、自動車の機能安全に関する国際規格であるISO 26262にも対応しています。
今後、当社は、SoCのさらなる精度向上や消費電力の抑制など開発を進め、車載向け画像認識AIプロセッサ「ViscontiTM5」として、2019年9月にサンプル出荷を開始する予定です。
注1
国際学会「ISSCC(International Solid-State Circuits Conference) 2015」にて発表した当社画像認識SoCとの比較。(論文タイトル:1.9TOPS and 564GOPS/W Heterogeneous Multicore SoC with Color-based Object Classification Accelerator for Image-Recognition Applications)
*ViscontiTMは、東芝デバイス&ストレージ株式会社の商標です。
*その他の社名・商品名・サービス名などは、それぞれ各社が商標として使用している場合があります。
*本資料に掲載されている情報(製品の価格/仕様、サービスの内容及びお問い合わせ先など)は、発表日現在の情報です。予告なしに変更されることがありますので、あらかじめご了承ください。