ホワイト ペーパー

AI時代におけるデータ リスクの最小化

適切な管理体制によるAI導入のサポート

AIの導入が加速するなか、データ漏洩や規制違反のリスクが高まっています。

 

大規模言語モデル(LLM)は、従来のデータベースのように記録を保存せず、パターンを学習します。ひとたび機密データがモデルの重みに影響を与えてしまうと、モデル全体を再学習させることなしに、機密データを「消去」する標準的な方法はありません。そして再学習は、複雑で非常にコストがかかるのが一般的です。

 

さらに、従業員が無許可のオープンソース モデルを使用する「シャドーAI」の増加により、可視化が不完全となり、問題がさらに複雑化しています。

 

セキュリティ リーダーは、従来のデータ保護ではAI環境には対応できないことを認識する必要があります。標準的なアプリケーションとは異なり、AIシステムでは、固有の敵対的な入力データに対する継続的な検証が必要です。

AIセキュリティの中核機能

クラウド データのアイコン
LLMにおける機密データの保護

組織の機密情報が公開モデルの重みに影響を与えることを防ぎます。モデルの重みに影響が及ぶと、それを元に戻すことは複雑で、コストがかかります。データ セキュリティ ポスチャー管理(DSPM)を活用し、専有データがAIトレーニング パイプラインまたはプロンプトに入る前に、そのデータ フローを識別、分類、制御します。

データ コンプライアンスのアイコン
AIコンプライアンスの簡素化

組織のセキュリティ態勢を、EU AI法、オーストラリアのAI倫理原則、インドのデジタル個人データ保護法などの世界中の新たなフレームワークやガイドラインに合わせて調整し、セキュリティ部門が、監査や規制当局の調査に適合するために必要な詳しい資産インテリジェンスを確保できるようにします。

ノートパソコンの鍵のアイコン
AIによる脅威の未然の防御

従来のネットワーク セキュリティを超えて、AI固有の脆弱性に対処します。AIレッド チーミングとランタイム セキュリティを実装し、敵対シナリオのシミュレーション、プロンプト インジェクションのブロック、ジェイルブレイクの防止を行うほか、悪意のあるツールの使用をリアルタイムで阻止することで、AIモデルが操作に対して耐性を維持できるようにします。

クラウドの鍵のアイコン
AIの使用状況の完全な可視化

サードパーティーのアプリケーション、モデル、エージェントなど、すべてのAI資産の包括的なインベントリーを確立することで、組織全体の死角を排除します。「シャドーAI」を検出して管理し、規制されていないシステムや保護されていないシステム、または非推奨のシステムに機密データが誤って公開されないようにします。