Please enable JavaScript in your browser.

企業間のAIエージェント共創を支えるセキュアエージェントゲートウェイ - fltech - 富士通研究所の技術ブログ

fltech - 富士通研究所の技術ブログ

富士通研究所の研究員がさまざまなテーマで語る技術ブログ

企業間のAIエージェント共創を支えるセキュアエージェントゲートウェイ

こんにちは、データ&セキュリティ研究所の宇野、三宅、Inderjeetです。

近年、AI技術の発展は目覚ましく、単一の企業や組織内だけでなく、複数の企業や組織のAIエージェントが連携し、共創することで、より複雑で多様な課題を解決できる未来が現実味を帯びてきました。世の中に公開されている情報だけでは、AIの性能向上に必要な知識が限界に近づく中、企業が積み上げた知識を学習したAIエージェントが相互に連携することによって、サプライチェーンなどの産業全体の課題解決や、企業間共創による新たなイノベーション創出が期待されます。

しかし、これらを実現するためには、企業が抱えるセキュリティへの懸念を解消する必要があります。例えば、「自社の機密情報を安易に公開したくない」、「データ漏洩などのセキュリティリスクを避けたい」、「悪意あるAIエージェントに騙されるのではないか」といった懸念は、企業間の連携を阻む大きな壁となっています。

富士通研究所では、このような背景を踏まえ、企業のAIエージェント同士が、セキュアにデータや知識の連携を行うためのセキュアエージェントゲートウェイの開発に注力しています。

この技術を活用し、複数の組織のAIエージェントが協調、学習、データ活用などで連携する協働空間であるAIスペースを社会実装することで、産業全体での課題解決やイノベーションを加速し、新たな価値が創出される未来の実現を目指しています(参考:データスペースにおける分散プライベートAI実現に向けた概念と必要な技術の方向性を示すDecentralised and Collaborative AI for DataspacesのホワイトペーパーをFraunhofer ISSTと共著 : 富士通))

セキュアエージェントゲートウェイとは?

私たちが開発を進めるセキュアエージェントゲートウェイは、各企業において、異なるベンダで開発されたAIエージェントを、A2Aプロトコルを活用してシームレスに繋ぐとともに、セキュリティ、トラスト、そしてプライバシー保護を担保した上で、AIエージェント同士がデータおよび知識を連携するための技術を搭載します。各企業のAIエージェントは、セキュアエージェントゲートウェイを介することにより、企業や組織の意図に沿った安心・安全な連携が実現可能になります。

セキュアエージェントゲートウェイ

今回は、セキュアエージェントゲートウェイに実装する以下の2つ技術についてご紹介します。

  1. セキュアな分散AI学習技術
  2. AIエージェント間ガードレール技術

1. セキュアな分散AI学習技術

各企業が自社の機密情報や知的財産を守りながらAIエージェントの学習を効率的に行い、企業間の共創を促す。これが、私たちが提供するセキュアな分散AI学習技術の大きな目的です。 多くの企業が自社のAIの性能向上を目指す中で、高品質な学習データの確保は常に課題となります。しかし、他社とのデータ連携には、先ほど述べたような機密性やセキュリティに対する懸念がつきまといます。そこで注目されるのが、分散AI学習というアプローチです。 分散AI学習とは、複数の企業や組織がそれぞれのデータを外部に公開することなく、各組織のAIモデルが学習した結果や知識を安全に連携させることで、AIモデルの性能を共同で高めるための学習手法です。

分散AI学習技術による解決策

当社の分散AI学習技術の中でも、今回は「分散型知識蒸留技術」を取り上げて紹介します。この技術では、生データを直接共有するのではなく、各企業が持つ教師AIの知識情報のみを交換・学習します。これにより、以下のメリットが生まれます。

機密情報の保護(Zero-Exposureアーキテクチャ)

従来のAIの連合学習とは異なる非集約型のフレームワークにより、各企業が保有する機密性の高い生データやモデルのパラメータに含まれる情報が外部に公開されることなく、AIの知識やノウハウだけを安全に共有できます。生データやモデルのパラメータは企業のローカル環境から1バイトたりとも離れることなく、完全なデータ主権を実現します。さらには、交換される知識は当社のガードレール技術を通過するため、2重のセキュリティが働きます。これにより機密性の高い個人情報などが意図せず共有されることを防ぎ、各企業はAIエージェント連携のために提供する情報を完全にコントロールできます。

AI性能の向上

最適教師モデル選択アルゴリズムであるCPM(Central Profiler/Matchmaker)により、連携学習後のAI性能を飛躍的に向上させることが可能です。

 
これらを実現するために、中央集権に頼らないハイブリッド分散型のアーキテクチャを採用したフレームワークを開発しました。

分散型知識蒸留

これにより、単一障害点のリスク、プライバシー攻撃のリスク、通信データ量 、低速かつ不安定な収束といった従来の分散学習技術が抱えていた課題を克服します。

このフレームワークの中核をなすのは、以下の技術です。

マッチメイキングアルゴリズム(CPM:Central Profiler/Matchmaker):

各AIエージェントのモデルの種類や、これまでの連携での性能向上寄与や信頼性に関するプロファイルを基に、最適なペアを動的にマッチングする仕組みです。LinUCBアルゴリズムを活用することで、連携の信頼性と累積的な知識獲得を最大化するペアを効率的に見つけ出します。このやり取りには、実際のモデルパラメータや生データが一切含まれないため、企業の機密性が厳重に保護される設計となっています。

分散知識交換

異なるアーキテクチャを持つ多様な大規模言語モデル(LLM)間で知識を効果的に伝達するために、モデルの構造に非依存な知識情報を交換する「適応型知識蒸留」を採用しています。これにより、それぞれが固有の高いスキルを持つAIエージェント同士で互換性の問題なく能力を移転でき、CPMによるマッチング技術と合わせることにより複数のAIエージェントが連携する環境下での知識の獲得を最大化できます。その結果、様々な企業や組織が利用する異なるAIモデル間でも、円滑な連携学習を実現します。

 
分散型知識蒸留技術は、以下のステップで進みます。まず、各クライアント(企業)が自身のプロファイルを更新し、中央のプロファイラー/マッチメーカーに送信します。次に、プロファイラー/マッチメーカーが最適なペアをマッチングし、クライアント(企業)のAIエージェント間で、安全なPeer-to-Peerのチャネルを通じて知識情報を交換します。その後、各企業内のローカル環境で新たに得た知識情報による学習が行われ、その結果が再びプロファイラー/マッチメーカーにフィードバックされ、学習サイクルが回ります。

これらの仕組みにより、データ共有に伴うリスクを最小限に抑えながら、連携学習のメリットを最大限に享受できるのです。

本技術により、ソフトウェアのコードを生成するタスクに関するベンチマークテストにおいて、従来のランダムに連携を行う場合と比較して性能が約50%向上することを確認しています。

2. AIエージェント間ガードレール技術

企業間のAIエージェント連携において、安全性を確保するためのもう一つの重要な技術が「AIエージェント間ガードレール技術」です。

高度化するAIエージェント同士の連携が進む一方、頻繁なやり取りの中で、企業における機密情報やプライバシー情報が、相手のAIエージェントに推測されてしまったり、悪意あるAIエージェントが紛れ込んだ際に、巧妙なリクエストによってこれらの情報を抜き出されてしまったり、AIエージェント自身が不正な行動を実行したりするリスクが顕在化していきます。

AIエージェント間ガードレール技術による解決策

AIエージェント間のセキュアエージェントゲートウェイにおいて、AIエージェントの通信に対するガードレール機能を配備することによって、セキュアなAIエージェント間の通信を実現します。本技術による主なメリットは以下です。

機密情報・プライバシー情報の保護

AIエージェント同士のやり取りによって、交換する情報量が増加していきます。一度のやり取りでは、相手のAIエージェントは、機密情報やプライバシー情報の推測は困難ですが、複数のやり取りによって、過去の情報と照合することによって、それらを推測されるリスクは高まります。本技術は、頻繁にやり取りするAIエージェントから企業の機密情報やプライバシー情報を推測されることを防止します。

悪意ある攻撃の防止

AIエージェントは益々高度化する中で、悪意あるAIエージェントが紛れ込んだ際に、巧妙なリクエストによって、企業の機密情報あるいはプライバシー情報を誤って共有したり、AIエージェント自身が、不正なソフトウェアコードを生成してしまったりするリスクが増加していきます。本技術は、外部のAIエージェントからの不正なリクエストを検出し、ブロックします。

 
これらを実現するためAIエージェント間ガードレール技術を開発しました。本技術の特徴は以下です。

会話シミュレーションによる機密情報提供の防止

AIエージェントは、相手のAIエージェントにメッセージを送る際に、過去の会話の履歴を含めて、相手AIエージェントが推定する内容をシミュレーションします。もし、機密情報あるいはプライバシー情報が推定される可能性がある場合には、送信するメッセージにおいて該当する情報を抽象化することで、推定を防ぎます。

AIエージェントの機密情報保護

当社LLMガードレールのAIエージェント通信拡張

当社は、7,700以上ものLLMの脆弱性を検証するLLM脆弱性スキャナーと、それらの脆弱性に対応するLLMガードレール技術を保有しています。本技術では、LLMガードレールをAIエージェント通信に拡張しました。悪意あるAIエージェントが、不正なリクエストを送信してきた場合、本技術が検出を行い、通信をブロックします。

LLMガードレールのAIエージェント通信拡張

 
AIエージェント通信における新しい脅威は益々増加していますが、本技術は、それらの脅威に対応するためのアップデートも行っています。また、AIエージェント通信においては、AIエージェントから提供される情報に対するハルシネーションの防止なども重要になってきます。本ブログでは、それらの技術も今後紹介していきます。

広がる利用シーンと未来への展望

これらのセキュアエージェントゲートウェイに関する技術は、様々な産業分野で大きな可能性を秘めています。

例えば、サプライチェーンの分野では、複数のサプライヤー、メーカー、物流会社のAIエージェントが、製品の需要予測、在庫状況、物流データなどの機密情報を保護しつつ共有・分析することで、サプライチェーン全体の最適化、効率向上、および予期せぬ障害に対するレジリエンス強化に貢献できるでしょう。 医療分野では、複数の医療機関のAIエージェントが、患者の機密情報を保護しつつ、疾患の診断支援や新薬開発のための知見を共有することで、医療の質向上や研究開発の加速が期待されます。
サイバーセキュリティ分野では、各社のAIエージェントが脅威情報を共有し、共同でサイバー攻撃を検知・防御することで、業界全体のセキュリティレベル向上が見込めます。
また、金融分野では、不正取引の検知や顧客に適した金融商品の提案など、機密データを守りながら連携を深めることで、新たな付加価値を創出できることが考えられます。

私たちは、この技術をさらに発展させるべく、現在PoC(概念実証)を進められるようなプラットフォームの開発に取り組んでいます(参考:企業をまたがるサプライチェーンを最適に運用するマルチAIエージェント連携技術を開発し、実証実験を開始 )。関連する分散AIセキュリティ技術の開発も積極的に行い、AIエージェントを連携した共創を望む皆さんが、これらの技術を簡単に、そして安心して利用できるようになることを目指しています。

AIエージェントが当たり前のように連携し、社会課題を次々と解決していく未来。富士通研究所は、その安全で信頼できる基盤を築き上げるために、これからも研究開発に邁進してまいります。

おわりに

今後も個々の技術について、順次ご紹介する予定です。どうぞお楽しみに!

関連情報