And Family Voice 研究所
プライバシー・セキュリティ

暗号化したまま推論できる未来へ――GPU加速で完全準同型暗号LLMが現実に近づく

📄 GPU Acceleration of TFHE-Based High-Precision Nonlinear Layers for Encrypted LLM Inference

✍️ Chen, G., Pan, X., Li, Q., Mao, B., Gao, C., Huan, C., Zhang, M., Zhang, J.

📅 論文公開: 2026年4月

完全準同型暗号 プライバシー保護推論 GPU最適化 LLM TFHE

3つのポイント

  1. 1

    データを暗号化したままAIに推論させる「完全準同型暗号(FHE)」の非線形処理を、GPUで最大17倍高速化するフレームワーク TIGER が提案されました。

  2. 2

    従来の暗号方式では精度が不十分だった活性化関数や正規化処理を、TFHE方式のルックアップテーブルを拡張することで高精度に実現しています。

  3. 3

    クラウドにデータを送っても中身が一切見えない推論が、速度面で実用に一歩近づいたことを示す研究です。

論文プロフィール

  • 著者: Guoci Chen, Xiurui Pan, Qiao Li, Bo Mao ほか(8名)
  • 発表: 2026年4月 / arXiv (cs.CR)
  • 研究対象: 完全準同型暗号(FHE)を用いた大規模言語モデル(LLM)の暗号化推論における非線形処理
  • 研究内容: TFHE 方式のプログラマブル・ブートストラッピングをGPUで高速化し、GELU・Softmax・LayerNorm といった非線形レイヤーを暗号文のまま高精度かつ高速に処理するフレームワーク「TIGER」を提案

エディターズ・ノート

AIクラウドサービスに音声テキストを送るとき、「サーバー側で中身が見えてしまう」ことへの不安は本質的な課題です。データを暗号化したまま計算できる完全準同型暗号は、その根本的な解決策として注目されており、本論文の高速化成果は「プライバシーと利便性の両立」を一歩前に進める研究として取り上げました。

実験デザイン

課題: 暗号化したままの計算は「遅くて不正確」だった

LLMの推論では、GELU(活性化関数)・Softmax(確率変換)・LayerNorm(正規化)といった非線形関数が不可欠です。しかし、暗号化データに対してこれらを適用するのは極めて困難でした。

従来のアプローチには2つの壁がありました。

  • CKKS 方式: 暗号文上で多項式近似を行うが、高精度にするほど計算コストが爆発する
  • TFHE 方式: ルックアップテーブル(対応表)で正確な値を引けるが、精度に上限があり、GPU活用も不十分
🔍 完全準同型暗号(FHE)とは何か

完全準同型暗号は、「データを暗号化したまま足し算や掛け算ができる」暗号技術です。

たとえば、あなたが「3」と「5」を暗号化してクラウドに送ると、サーバーは中身を知らないまま「暗号化された8(= 3+5)」を返せます。あなただけが復号して「8」という答えを得られます。

通常の暗号(AES など)はデータを「保管・転送」するときだけ守りますが、FHE は計算中もデータを守る点が画期的です。一方で、暗号化したままの計算は通常の計算より何千倍も遅いという課題があり、今回の論文はその速度の壁に挑んでいます。

TIGER の3つの工夫

研究チームが提案した TIGER フレームワークは、以下の3つのアプローチで課題を解決しています。

  1. 高精度化: WoP-PBS(Without-Padding Programmable Bootstrapping)と数値アルゴリズムを組み合わせ、ルックアップテーブルの精度上限を突破
  2. 非線形レイヤーの実装: GELU・Softmax・LayerNorm を暗号文上で高精度に実行する具体的な手法を設計
  3. バッチ並列化: 複数の入力データを同時処理するGPU最適化で、並列性を最大限に活用

結果: CPU比で最大17倍の高速化

TIGER は CPU ベースライン(Concrete ライブラリ)と比較して、大幅な速度向上を達成しました。

TIGER のCPUベースラインに対する高速化倍率(論文 Table 3 より) 0 3 7 10 14 17 高速化倍率(×) 7.17 GELU 16.68 Softmax 17.05 LayerNorm
TIGER のCPUベースラインに対する高速化倍率(論文 Table 3 より)
項目 高速化倍率(×)
GELU 7.17
Softmax 16.68
LayerNorm 17.05
TIGER のCPUベースラインに対する高速化倍率(論文 Table 3 より)

特に Softmax と LayerNorm は16〜17倍の高速化を実現しており、これはバッチ並列化がGPUの特性と相性のよい処理であることを示しています。精度面でも、浮動小数点演算との絶対誤差が十分小さく、実用的な水準を満たすことが報告されています。

🔍 なぜ非線形関数が暗号化推論のボトルネックなのか

FHE では「足し算」と「掛け算」は比較的効率よく実行できます。しかし、GELU のような活性化関数は指数関数や誤差関数を含むため、単純な加算・乗算の組み合わせでは表現できません。

CKKS 方式ではこれを多項式(x の累乗の足し合わせ)で近似しますが、精度を上げるには次数を高くする必要があり、暗号文の「ノイズ」が蓄積して破綻します。TFHE 方式のルックアップテーブルは正確な値を返せる利点がありますが、テーブルサイズに精度が制限されます。TIGER はこの制限を数値的な工夫で克服した点が新しい貢献です。

技術的背景

FHE の2大方式と TFHE の優位性

現在の FHE 実装は主に2つの方式に分かれます。

  • CKKS 方式: 近似計算に向いており、行列演算は得意だが、非線形関数の高精度計算が困難
  • TFHE 方式: プログラマブル・ブートストラッピング(PBS)により、任意の関数をルックアップテーブルとして正確に評価可能

TIGER は TFHE 方式を採用し、さらに WoP-PBS という拡張手法を用いてルックアップテーブルの精度限界を超える計算を実現しています。

暗号化推論の全体像における位置づけ

エンドツーエンド暗号化 は「転送中」と「保管中」のデータを保護しますが、サーバーが計算する瞬間にはデータを復号する必要があります。FHE はこの「計算中」の保護を実現する技術であり、E2EE の先にある究極のプライバシー保護といえます。

ただし、本研究の段階では LLM 全体の暗号化推論にはまだ大きな速度的課題が残っています。TIGER は非線形レイヤーという重要なボトルネックを解消しましたが、線形レイヤー(行列積)の暗号化処理や、レイヤー間の暗号方式変換のコストなど、実用化にはさらなる研究が必要です。

🔍 TIGER の限界と今後の課題

本論文にはいくつかの重要な制約があります。

  • LLM全体の推論時間は未評価: TIGER は非線形レイヤー単体の高速化を示しており、LLM 全体のエンドツーエンド推論時間は報告されていません。
  • メモリ消費: 暗号文は平文の数百〜数千倍のサイズになるため、大規模モデルへの適用にはGPUメモリの制約が大きな壁となります。
  • 実用速度との差: 17倍の高速化は大きな進歩ですが、暗号化推論全体がリアルタイム処理に達するにはさらに数桁の高速化が必要と考えられます。

それでも、この研究は「暗号化したままの推論」を少しずつ現実に近づける着実な一歩です。

And Family Voice としての解釈

プロダクトの視点から

And Family Voice は現在、音声データをオンデバイスで処理し、承認されたテキストのみを E2EE(AES-256-GCM) でクラウドに送る設計を採用しています。この設計は「音声データを端末外に出さない」という明確な原則に基づいています。

一方、Gemini AI によるテキスト推敲や日記自動生成は、クラウド側での処理を伴います。現在はE2EEによって転送・保管時のデータを保護していますが、TIGER のような FHE 技術が将来的に成熟すれば、クラウド上でデータを復号することなく AI 処理を行うという、さらに強固なプライバシー保護の選択肢が生まれる可能性があります。

私たちはこの技術の実用化にはまだ時間がかかることを理解しています。しかし、「計算中もデータを守る」という方向性は、And Family Voice が目指す「家族のプライバシーを一切妥協しない」という思想と深く共鳴しています。将来の技術選択肢として、注視し続けたいと考えています。

読者の皆さまへ

今日から意識できるプライバシーのヒントを1つ。クラウドAIサービスを利用するとき、「暗号化通信(HTTPS)で送っているから安全」と思いがちですが、サーバー側では復号されて処理されています。お子さまの写真や家族の会話をAIサービスに入力する際は、そのサービスのデータ利用ポリシー(学習に使われるか、いつ削除されるか)を一度確認してみてください。

読後感

完全準同型暗号は、まだ「研究段階の夢の技術」という側面が強い分野です。しかし、TIGER のような着実な高速化研究の積み重ねが、いつか「暗号化したままAIに任せられる」という当たり前を作るかもしれません。

あなたが日常的に使っているAIサービスに、家族の情報をどこまで預けていますか?そして、「計算中もデータが守られる」世界が来たら、あなたのプライバシーへの判断基準はどう変わるでしょうか?