巨大言語モデル(LLM)が持つ卓越した能力により、人間の生産性は飛躍的に向上している。一方で、個人情報の保護やリアルタイム処理の需要が高まる中、LLMをエッジデバイスで実用化するには、消費電力の大幅な削減が不可欠である。本研究では、「Compute-in-ROM(CIROM)」アーキテクチャを提案し、従来と比べて20倍以上のエネルギー効率の向上を目指す。CIROMは、高密度なROMにLLMのパラメータを固定的に格納することで、全ての計算をメモリ内で完結させることを可能とするアーキテクチャである。これにより、現在のLLMアクセラレータにおいてボトルネックとなっているデータ転送によるエネルギー消費を劇的に削減し、従来比で20倍以上の効率向上を実現する。さらに本研究では、アルゴリズムの観点から、LLMの量子化や枝刈り技術の活用についても積極的に検討している。