AI活用によってもたらされる機会をつかむために、実行すべき重要なポイントをご紹介します。
AI活用によってもたらされる機会をつかむために、実行すべき重要なポイントをご紹介します。
AI 活用によってビジネス機会をつかむためには、AI をどのような目的で、どの程度まで活用するのかを早期に決定し、明確な計画を示すことが重要です。そして、以下の3 つの領域で組織をAI-Ready (AI 導入目的を達成するための準備ができている状態) にする必要があります。
本eBook「AI の活用機会を理解する - 成功に向けてIT チームの準備を整える」では、AI-Readyになるために知っておくべきこと、今すぐ実行すべきことを明確にし、AIを利用する機会とリスクを理解し、AIにまつわる複雑な状況を打破するための知見をご提供します。
今すぐダウンロードして、AI導入のための最新の知見をご覧ください。
多くの企業がAIの重要性を認識していますが、実際の導入と効果的な活用との間には大きなギャップがあります。ガートナーの調査では、AIの活用をイノベーション・プランの重要な要素だと考えているCIOは60%以上に及びますが、その反面、AI実装にあたってリスク管理ができていると考えるCIOは50%以下しかいません。そのため、このギャップを埋めるにあたり、まずAIを活用する目標設定を明確にする必要があります。
生成AIの登場により、マシンは単なるツールから共に働く存在へと進化しました。これは大きな変化であると同時に潜在的なリスクも伴うようになりました。経営幹部は、CIOおよびITリーダーが組織のAI戦略をリードし、AIのメリットを活かし、かつリスクを回避することを期待しています。
しかし多くの組織では、AIへの期待と失望が混在しています。失望の理由は、大半のAIプロジェクトが計画通りに展開されていないためです。
ガートナーの調査によると、2019年から2024年にかけて、毎年17%〜25%の組織が12ヶ月以内にAIを導入する計画を立てています。しかし、実際の年間導入率はわずか2%〜5%にとどまっています。
組織のAIに対する目標を設定すること、つまり、組織内でどこでどのようにAIを使用するかを決定することが重要な課題となっています。現代のAIは意思決定、行動、発見、生成など、あらゆることができるため、AIでするべきでないことは何かを知ることも同様に重要です。
AI導入の計画立案については、以下の3つの主要な要素を考慮する必要があります。
1. AI活用の目標と範囲
AIによって実現したいビジネス上の成果の種類を特定します。AI活用の目標と範囲は、以下の通りです。
ガートナーがご提供する目的別に整理したAI 活用による機会を示したレーダー (AI Opportunity Radar) を使って、自社のAI活用の方向性をマッピングすることができます。
2. AI導入方法
組織がAIを実際に導入する際の技術的なアプローチについて検討します。選択する方法によって、達成可能な目標の範囲や限界が決まってきます。
組織が検討できる主な導入方法として、既存のAIサービスの利用、カスタマイズされたAIソリューション、あるいは完全なカスタム開発があります。
これらの選択肢の中から、組織の目標、リソース、テクノロジに応じて最適な方法を選ぶことが重要です。より高度なカスタマイズを行うほど、独自の価値を生み出す可能性が高まりますが、同時にコストや開発期間も増えていきます。組織はこのトレードオフを慎重に検討し、自社に最適なアプローチを選択する必要があります。
3. AIリスク管理
AIの導入には様々なリスクが伴います。これらのリスクを理解し、適切に管理することが重要です。
AIの主なリスクとしては、AIが誤った判断や予測を行なったため信頼性の低い、または不透明な出力をする可能性があること、AIが生成したコンテンツの著作権や、使用データの権利関係が不明確になり知的財産リスクが発生すること、個人情報の不適切な取り扱いや漏洩のリスクといったデータ・プライバシーの懸念、そして、AIシステムへの不正アクセスや、データの改ざん・盗難のリスクといったサイバー脅威があります。また、AIに関する法規制の変更や、国および地域ごとの規制の差異への対応も行う必要が出てくるでしょう。
組織は、こういったリスクに対して、どの程度まで許容できるかを明確にする必要があります。例えば、自動化の程度として、人間の介入なしでAIに意思決定を任せる範囲を明確にしたり、透明性の程度として、AIの判断プロセスをどこまで説明可能にするかといったことが挙げられます。
これらの許容度を定義することで、AIの活用範囲や導入方法を適切に選択し、リスクを最小限に抑えながら、AIのメリットを最大限に活かすことができます。
組織におけるAIは、大きく2つのカテゴリーに分類されます。
エブリデイAIとゲーム・チェンジングAIの両方に、組織内利用と組織外および顧客向けの利用があります。AIの目標を定義するには、エブリデイAIとゲーム・チェンジングAI、そして組織内利用と組織外および顧客向け利用のケースのどの組み合わせを追求するかを検討する必要があります。
ゲーム・チェンジングAIの方が高コストになるため、AIをどの目標で活用するかの決定が、投資に対する期待に影響を与えます。ガートナーの調査では、CIOの73%が2024年のAI投資を2023年より増やす計画だと言及していますが、CFOは結果に懐疑的です。実際に、財務責任者の67%がデジタル投資は期待を下回る成果しか上げていないと述べています。
期待を下回らない現実的なAIの目標を定義するためには、経営幹部チームと共に次の3つのAI投資シナリオを検討する必要があります。
現状維持のシナリオ: 特定のタスクを改善する即効性のある投資を行います。日常的なAIツールは導入コストが低いですが、持続可能な競争優位をもたらすものではありません。この投資は現状を維持するためのものとなります。
ポジションの拡大 :競争優位をもたらすカスタマイズされたアプリケーションに投資します。これらのAI投資はより高額で、効果が出るまでに時間がかかりますが、ビジネス価値も高くなります。
ポジションの抜本的変革:新しいAI駆動の製品やビジネスモデルを創造します。これらの投資は非常に高額でリスクが高く、時間もかかりますが、巨大な報酬の可能性があり、業界を変革する可能性があります。
最後に、CIOおよびITリーダーが経営幹部とAIの機会について議論する際は、実現可能性について、共通の理解があることも忘れないようにします。例えば、AI導入に必要なテクノロジがなければ機会を捉えることはできません。また、組織内外を問わず、適切にAIを使用する人材が採用できていない場合、AIを導入することは難しいと言えるでしょう。
ガートナーのAI機会を示したレーダー (AI Opportunity Radar) を活用することで、機会と実現可能性の両面からAIの目標をマッピングすることが可能となります。
最大の機会としてAI活用する目的であれば、業界に変革を起こし、経済的な高リターンをもたらす可能性のある破壊的イノベーションである可能性が高くなります。しかし、未実証のテクノロジや非協力的なステークホルダーも含まれてくるようであれば、実現の可能性は低くなるでしょう。
これまでに市場では多くのAIモデルやツールが登場しました。また、数ある大手ソフトウェア・ベンダーが、既存のアプリケーションにAIを組み込んでいます。このような競争の激化は、高リスクな初期段階の市場によく見られる特徴で、選択肢が多様化し複雑になっています。
ガートナーでは、AIの導入には5つのアプローチがあると考えています。生成AIの場合は以下のようになります。
どの導入アプローチにも、メリットとリスクのトレードオフが伴います。これらのトレードオフに影響を及ぼす主な要素は以下のとおりです。
コスト:組み込みアプリケーションを利用するアプローチとモデルAPIを組み込むアプローチは、AI導入オプションの中で最もコストが低く、モデルをゼロから構築するアプローチは、最もコストがかかります。それらの中間のコストは大きく異なり、特にパラメータの数が数十億もあるモデルを更新する際には、ファインチューニングのコストが跳ね上がります。
モデルのアウトプットのコントロール:AIのファウンデーション・モデルは、ハルシネーション (捏造された回答) のリスクや、バイアスのかかった行動、有害な行動を蔓延させる危険性があります。データ検索、モデルのファインチューニング、独自モデルの構築は、コントロール・レベルが高い環境では好まれるかもしれません。ビジネス・クリティカルなアプリケーションでは、人間の関与が必要です。
組織が追求するAI活用に対する機会を最終決定するには、ビジネス・リーダーがAIの信頼性、プライバシー、説明可能性、セキュリティに関連するリスクの許容レベルを明確にする必要があります。
AIの訓練方法によっては、以下のような脆弱性がある程度存在する可能性があります。
プライバシーの問題は、トレーニング・データ内の特定可能な詳細情報に関する懸念から、データ共有やアウトプットに至るまで多岐にわたります。例えば以下のようなものがあります。
機械学習 (ML) モデルは、ユーザーや、時には高いスキルを有する専門家にとってさえ不透明なものです。データ・サイエンティストやモデル開発者は、MLモデルが何をしようとしているかは理解していても、そのMLモデルがデータを処理する際の内部構造やアルゴリズムを読み解くことはできません。このようなモデルの分かりにくさ、ひいては説明の難しさによって、組織がAIリスクを管理する能力も制限を受けます (ガートナーでは、「分かりやすさ [理解可能性]」と「説明のしやすさ [説明可能性]」をモデルの機能を明確に示すものと定義しています)。説明可能性が欠如していると、モデルのアウトプットは次のようなものになります。
AIは、個人データへのアクセスや、コードや学習パラメータの挿入を試みる攻撃者の新たな標的になり、攻撃者の利益になるように操られる可能性があります。以下に例を挙げます。
「AIがもたらすリスク」と「組織が追求する機会」のバランスを図るには、人間とAIの相対的な役割を定義する作業をCIOおよびITリーダーが支援する必要があります。目標は、自動化の度合い (完全自動化から人間の介入まで) と説明可能性の度合い (完全に不透明な「ブラック・ボックス」型AIから完全に説明可能なAIまで) のバランスを取ることです。
Cレベルの経営幹部は、自部門の主要なプロセスにおいて許容できるAIのリスク・レベルを申告し、追求したいAIの活用機会と整合させる必要があります。例えば、人事部門の責任者は、人事業務がデリケートなものであるため、確実であることを重視してリスク許容度を設定するかもしれません。一方、顧客サービス部門の責任者は、必要に応じて自動化について顧客に説明できるように「責任ある自動化」を目指す可能性があります。
ガートナーの各種コンファレンスでは、CIOをはじめ、IT投資、導入、運用管理にかかわるすべての意思決定者に最新・最適な情報とアドバイス、コミュニティを提供します。