乗算をLookup Tableで代替するビットスケーラブルな量子化ニューラルネットワーク向けインメモリアクセラレータ
LUT-CIM: Lookup Table-based Multiplication-free and Bit-scalable In-memory Accelerator for Quantized Neural Networks

概要

深層ニューラルネットワークの推論処理では、大量の積和演算による高い電力消費とレイテンシが課題となっている。本研究では乗算と加算の効率化に着目し、演算のエネルギ効率スループットを高めるアーキテクチャを提案する。まず、乗算処理を事前計算されたLookup table (LUT)参照に置き換え、行列演算を軽量化する。次に、積和演算におけるアキュムレーション処理に注目し、LUT内部のBL/BLB配線を活用した二線式ダイナミックラッチとインメモリ加算回路による高速・省エネルギ化を狙う。さらに、インメモリ演算を活用したLUT更新の並列化と、回路のモジュール化によるビットスケーラブルなマクロを実現する。

研究者

氏名 コース 研究室 役職/学年
田形寛斗 通信情報システムコース 情報回路方式研究室 (佐藤・粟野研) 博士2回生
粟野皓光 通信情報システムコース 情報回路方式研究室 (佐藤・粟野研) 准教授
佐藤高史 通信情報システムコース 情報回路方式研究室 (佐藤・粟野研) 教授