生成AIは、AIの試験的導入への関心を広く呼び起こしましたが、組織がAIのリスクについて考慮するのは、AIモデル/アプリケーションの本番稼働や使用が開始された後になることが少なくありません。包括的なAIの信頼性/リスク/セキュリティ・マネジメント (TRiSM) プログラムを利用することで、強く必要とされるガバナンスを事前に組み込み、能動的にAIシステムのコンプライアンス、公正性、確実性、データ・プライバシーを確保できます。
AIモデル/アプリケーションでは、当初から確実性、信頼性、公正性、セキュリティが確保されているわけではない
AI TRiSM (AIの信頼性/リスク/セキュリティ・マネジメント) は、能動的にリスクを特定して軽減するためのソリューション・セットである
2024年2月22日更新
要旨
生成AIは、AIの試験的導入への関心を広く呼び起こしましたが、組織がAIのリスクについて考慮するのは、AIモデル/アプリケーションの本番稼働や使用が開始された後になることが少なくありません。包括的なAIの信頼性/リスク/セキュリティ・マネジメント (TRiSM) プログラムを利用することで、強く必要とされるガバナンスを事前に組み込み、能動的にAIシステムのコンプライアンス、公正性、確実性、データ・プライバシーを確保できます。
「AI TRiSM」は、2024年の戦略的テクノロジのトップ・トレンドのひとつに取り上げられています。
eBookをダウンロード: 2024年の戦略的テクノロジのトップ・トレンド
関連資料: 生成AI導入プラン策定のためのワークブック
AI TRiSMの必要性について確信が持てない場合は、以下に挙げた6つのリスク要因をご確認ください。これらの多くは単に、AIモデルの内側で実際に起こっていることをユーザーが理解していないために生じています。
ガートナーはお客様にマネジメントやテクノロジに関する実績のあるリサーチへのアクセスをご提供します。
ガートナーのプロダクトおよびサービスにご興味ありましたら、下記よりお問い合わせください。
生成AIは企業の競争環境や働き方を変革する可能性を秘めているが、従来のコントロールでは対処できない新たなリスクももたらす
詳細を見る: 生成AI (ジェネレ―ティブAI) とは?
自社のユーザーが他社のAIモデル内にある機密データにアクセスできるようになり、場合によっては規制/商業/評判面で組織に影響が生じる可能性がある
2026年までに、AIの透明性/信頼性/セキュリティを運用化する組織のAIモデルは、導入/ビジネス目標/ユーザー受け入れの成果が50%向上する
出典:ガートナー
AIのコンプライアンス、公正性、倫理性を維持するために、専用のリスク・マネジメント・プロセスをAIモデルの運用 (ModelOps) に統合させる必要がある
既製ツールはあまり多くないため、AIパイプラインに適したカスタム・ソリューションの開発が必要になる可能性が高い
常にコントロールが適用される必要がある (モデル/アプリケーションの開発、テストとデプロイ、継続中のオペレーションなど)
AI (自社開発とサードパーティ・モデルへの組み込み型の両方) に対する悪意ある攻撃は、財務的にも、風評的にも、あるいは知的財産/個人情報/独自データなどとの関連においても、さまざまな種類の組織的損害や損失につながる
AIワークフローの堅牢性のテスト/検証/改善のために専用のコントロールとプラクティスを追加し、別のタイプのアプリに使用されるものとは区別する
プライバシー保護に関する規則などへの対応で以前から必要とされているもの以外についても、コンプライアンス対策をする
「首尾一貫したAIリスク・マネジメントを行っていない組織は、プロジェクトの失敗や侵害といった弊害を被る傾向が格段に高まります。AIの結果が不正確/非倫理的または意図しない場合や、プロセス・エラー、攻撃者からの妨害が生じる場合は、セキュリティ障害、財務的/風評的な損失や法的責任のほか、社会的損害を招く恐れがあります。また、AIの誤作動は、ビジネス上の意思決定が最適にならない事態を招く可能性もあります」
重要な3つのポイント
AI TRiSMは、AIモデルの確実性、信頼性、セキュリティ、プライバシーを確保するために必要である
AI TRiSMは、AIの導入、ビジネス目標の達成、ユーザー受け入れに関連する成果を向上させる
より効果的にAIデリバリの保護を構築し、AIガバナンスを確立するためのソリューション・セットとして、AI TRiSMを検討する
ガートナーのリサーチサービスに関するお問い合わせについては、下記のフォームにご記入ください。