AIの導入が加速するなか、データ漏洩や規制違反のリスクが高まっています。
大規模言語モデル(LLM)は、従来のデータベースのように記録を保存せず、パターンを学習します。ひとたび機密データがモデルの重みに影響を与えてしまうと、モデル全体を再学習させることなしに、機密データを「消去」する標準的な方法はありません。そして再学習は、複雑で非常にコストがかかるのが一般的です。
さらに、従業員が無許可のオープンソース モデルを使用する「シャドーAI」の増加により、可視化が不完全となり、問題がさらに複雑化しています。
セキュリティ リーダーは、従来のデータ保護ではAI環境には対応できないことを認識する必要があります。標準的なアプリケーションとは異なり、AIシステムでは、固有の敵対的な入力データに対する継続的な検証が必要です。
AIセキュリティの中核機能
LLMにおける機密データの保護
組織の機密情報が公開モデルの重みに影響を与えることを防ぎます。モデルの重みに影響が及ぶと、それを元に戻すことは複雑で、コストがかかります。データ セキュリティ ポスチャー管理(DSPM)を活用し、専有データがAIトレーニング パイプラインまたはプロンプトに入る前に、そのデータ フローを識別、分類、制御します。
AIコンプライアンスの簡素化
組織のセキュリティ態勢を、EU AI法、オーストラリアのAI倫理原則、インドのデジタル個人データ保護法などの世界中の新たなフレームワークやガイドラインに合わせて調整し、セキュリティ部門が、監査や規制当局の調査に適合するために必要な詳しい資産インテリジェンスを確保できるようにします。
AIによる脅威の未然の防御
従来のネットワーク セキュリティを超えて、AI固有の脆弱性に対処します。AIレッド チーミングとランタイム セキュリティを実装し、敵対シナリオのシミュレーション、プロンプト インジェクションのブロック、ジェイルブレイクの防止を行うほか、悪意のあるツールの使用をリアルタイムで阻止することで、AIモデルが操作に対して耐性を維持できるようにします。
AIの使用状況の完全な可視化
サードパーティーのアプリケーション、モデル、エージェントなど、すべてのAI資産の包括的なインベントリーを確立することで、組織全体の死角を排除します。「シャドーAI」を検出して管理し、規制されていないシステムや保護されていないシステム、または非推奨のシステムに機密データが誤って公開されないようにします。