AIと共に研ぎ澄ます未来:
ビジネス成功への準備のために知るべきこと、為すべきこと

AI活用によってもたらされる機会をつかむために、実行すべき重要なポイントをご紹介します。

eBook「AI の活用機会を理解する - 成功に向けてIT チームの準備を整える」をダウンロード

AI導入を成功させるためのガイド

「進む」ボタンをクリックいただいた場合、利用規約 および プライバシー・ポリシー に同意したものとみなします。

連絡先情報

すべて必須項目となります。

勤務先情報

すべて必須項目となります。

Optional

AI導入における目的を達成するために重要なポイント

AI 活用によってビジネス機会をつかむためには、AI をどのような目的で、どの程度まで活用するのかを早期に決定し、明確な計画を示すことが重要です。そして、以下の3 つの領域で組織をAI-Ready (AI 導入目的を達成するための準備ができている状態) にする必要があります。

  • AI-Readyのセキュリティを実装する
  • データをAI-Readyにする
  • AI-Readyの原則を確立する

本eBook「AI の活用機会を理解する - 成功に向けてIT チームの準備を整える」では、AI-Readyになるために知っておくべきこと、今すぐ実行すべきことを明確にし、AIを利用する機会とリスクを理解し、AIにまつわる複雑な状況を打破するための知見をご提供します。

今すぐダウンロードして、AI導入のための最新の知見をご覧ください。

 

AIへの大志 (目的と計画) :可能性を見極め、好機をつかみ、リスクを制す

多くの企業がAIの重要性を認識していますが、実際の導入と効果的な活用との間には大きなギャップがあります。ガートナーの調査では、AIの活用をイノベーション・プランの重要な要素だと考えているCIOは60%以上に及びますが、その反面、AI実装にあたってリスク管理ができていると考えるCIOは50%以下しかいません。そのため、このギャップを埋めるにあたり、まずAIを活用する目標設定を明確にする必要があります。

AI導入の成功率を上げるために、組織全体のAI戦略を明確に定義し、具体的な活用分野と方法を特定する

生成AIの登場により、マシンは単なるツールから共に働く存在へと進化しました。これは大きな変化であると同時に潜在的なリスクも伴うようになりました。経営幹部は、CIOおよびITリーダーが組織のAI戦略をリードし、AIのメリットを活かし、かつリスクを回避することを期待しています。

しかし多くの組織では、AIへの期待と失望が混在しています。失望の理由は、大半のAIプロジェクトが計画通りに展開されていないためです。

ガートナーの調査によると、2019年から2024年にかけて、毎年17%〜25%の組織が12ヶ月以内にAIを導入する計画を立てています。しかし、実際の年間導入率はわずか2%〜5%にとどまっています。

組織のAIに対する目標を設定すること、つまり、組織内でどこでどのようにAIを使用するかを決定することが重要な課題となっています。現代のAIは意思決定、行動、発見、生成など、あらゆることができるため、AIでするべきでないことは何かを知ることも同様に重要です。

AI導入の計画立案については、以下の3つの主要な要素を考慮する必要があります。

1. AI活用の目標と範囲
AIによって実現したいビジネス上の成果の種類を特定します。AI活用の目標と範囲は、以下の通りです。

  • AIをどこで使用するか(例:内部業務や顧客対応活動)
  • AIをどのように使用するか(例:日常業務の効率化や革新的な機会の創出)

ガートナーがご提供する目的別に整理したAI 活用による機会を示したレーダー (AI Opportunity Radar) を使って、自社のAI活用の方向性をマッピングすることができます。

2. AI導入方法
組織がAIを実際に導入する際の技術的なアプローチについて検討します。選択する方法によって、達成可能な目標の範囲や限界が決まってきます。

組織が検討できる主な導入方法として、既存のAIサービスの利用、カスタマイズされたAIソリューション、あるいは完全なカスタム開発があります。

これらの選択肢の中から、組織の目標、リソース、テクノロジに応じて最適な方法を選ぶことが重要です。より高度なカスタマイズを行うほど、独自の価値を生み出す可能性が高まりますが、同時にコストや開発期間も増えていきます。組織はこのトレードオフを慎重に検討し、自社に最適なアプローチを選択する必要があります。

3. AIリスク管理
AIの導入には様々なリスクが伴います。これらのリスクを理解し、適切に管理することが重要です。

AIの主なリスクとしては、AIが誤った判断や予測を行なったため信頼性の低い、または不透明な出力をする可能性があること、AIが生成したコンテンツの著作権や、使用データの権利関係が不明確になり知的財産リスクが発生すること、個人情報の不適切な取り扱いや漏洩のリスクといったデータ・プライバシーの懸念、そして、AIシステムへの不正アクセスや、データの改ざん・盗難のリスクといったサイバー脅威があります。また、AIに関する法規制の変更や、国および地域ごとの規制の差異への対応も行う必要が出てくるでしょう。

組織は、こういったリスクに対して、どの程度まで許容できるかを明確にする必要があります。例えば、自動化の程度として、人間の介入なしでAIに意思決定を任せる範囲を明確にしたり、透明性の程度として、AIの判断プロセスをどこまで説明可能にするかといったことが挙げられます。

これらの許容度を定義することで、AIの活用範囲や導入方法を適切に選択し、リスクを最小限に抑えながら、AIのメリットを最大限に活かすことができます。

経営幹部の参画を得て、AIの戦略的機会を特定する

組織におけるAIは、大きく2つのカテゴリーに分類されます。

  1. エブリデイAI ( 日常型AI):既存の業務をより速く、効率的に行えるようにすることで生産性を向上させます。
  2. ゲーム・チェンジングAI ( 革新的AI):新しい製品やサービス、あるいは新しい中核的能力を通じて結果を生み出すことを可能にし、創造性を高めます。このタイプのAIはビジネスモデルや産業を変革する可能性があります。

エブリデイAIとゲーム・チェンジングAIの両方に、組織内利用と組織外および顧客向けの利用があります。AIの目標を定義するには、エブリデイAIとゲーム・チェンジングAI、そして組織内利用と組織外および顧客向け利用のケースのどの組み合わせを追求するかを検討する必要があります。

ゲーム・チェンジングAIの方が高コストになるため、AIをどの目標で活用するかの決定が、投資に対する期待に影響を与えます。ガートナーの調査では、CIOの73%が2024年のAI投資を2023年より増やす計画だと言及していますが、CFOは結果に懐疑的です。実際に、財務責任者の67%がデジタル投資は期待を下回る成果しか上げていないと述べています。

期待を下回らない現実的なAIの目標を定義するためには、経営幹部チームと共に次の3つのAI投資シナリオを検討する必要があります。

  1. 現状維持のシナリオ: 特定のタスクを改善する即効性のある投資を行います。日常的なAIツールは導入コストが低いですが、持続可能な競争優位をもたらすものではありません。この投資は現状を維持するためのものとなります。

  2. ポジションの拡大 :競争優位をもたらすカスタマイズされたアプリケーションに投資します。これらのAI投資はより高額で、効果が出るまでに時間がかかりますが、ビジネス価値も高くなります。

  3. ポジションの抜本的変革:新しいAI駆動の製品やビジネスモデルを創造します。これらの投資は非常に高額でリスクが高く、時間もかかりますが、巨大な報酬の可能性があり、業界を変革する可能性があります。

最後に、CIOおよびITリーダーが経営幹部とAIの機会について議論する際は、実現可能性について、共通の理解があることも忘れないようにします。例えば、AI導入に必要なテクノロジがなければ機会を捉えることはできません。また、組織内外を問わず、適切にAIを使用する人材が採用できていない場合、AIを導入することは難しいと言えるでしょう。

ガートナーのAI機会を示したレーダー (AI Opportunity Radar) を活用することで、機会と実現可能性の両面からAIの目標をマッピングすることが可能となります。

最大の機会としてAI活用する目的であれば、業界に変革を起こし、経済的な高リターンをもたらす可能性のある破壊的イノベーションである可能性が高くなります。しかし、未実証のテクノロジや非協力的なステークホルダーも含まれてくるようであれば、実現の可能性は低くなるでしょう。

AIの導入オプション、ならびにスピードと差別化のトレードオフを理解する

これまでに市場では多くのAIモデルやツールが登場しました。また、数ある大手ソフトウェア・ベンダーが、既存のアプリケーションにAIを組み込んでいます。このような競争の激化は、高リスクな初期段階の市場によく見られる特徴で、選択肢が多様化し複雑になっています。

ガートナーでは、AIの導入には5つのアプローチがあると考えています。生成AIの場合は以下のようになります。

  1. 利用する:アプリケーションに組み込まれた生成AIを利用します。例えば、現在では画像生成機能を備えた定評のあるデザイン・ソフトウェア・アプリケーション (Adobe Fireflyなど) を使用する場合が挙げられます。
  2. 組み込む:カスタム・アプリケーション・フレームに生成AI APIを組み込み、企業が独自のアプリケーションを構築し、ファウンデーション・モデルAPIを介して生成AIを統合できるようにします。
  3. データ検索を介して生成AIモデルを拡張する:例えば、検索拡張生成 (RAG) を使う場合が該当します。これにより、企業はファウンデーション・モデルの外からデータを取得し (多くの場合、内部データ)、そのデータを使ってプロンプトを拡張し、領域固有のタスクに対するモデル応答の精度と品質を高めることができます。
  4. ファインチューニングによって生成AIモデルを拡張する:新しいデータセットを使って、事前学習済みの大規模なファウンデーション・モデルのファインチューニングを行い、生成AIモデルを拡張します。これにより、その領域の知識を増やしたり、特定タスクのパフォーマンスを向上させたりすることができます。その結果、多くの場合、組織に特化したカスタム・モデルが生まれます。
  5. 独自のファウンデーション・モデルをゼロから構築する:自社のデータとビジネス領域に合わせて全面的にカスタマイズします。

どの導入アプローチにも、メリットとリスクのトレードオフが伴います。これらのトレードオフに影響を及ぼす主な要素は以下のとおりです。

  • コスト:組み込みアプリケーションを利用するアプローチとモデルAPIを組み込むアプローチは、AI導入オプションの中で最もコストが低く、モデルをゼロから構築するアプローチは、最もコストがかかります。それらの中間のコストは大きく異なり、特にパラメータの数が数十億もあるモデルを更新する際には、ファインチューニングのコストが跳ね上がります。

  • 組織と領域の知識:AIファウンデーション・モデルのほとんどは一般的な知識モデルです。精度を向上させるには、データ検索、ファインチューニング、または独自の構築によって、領域やユースケースの特異性を取り込む必要があります。
  • セキュリティとプライバシーのコントロール能力:生成AIに関するセキュリティとプライバシーに関する検討事項は、非常に多岐にわたります。独自のモデルを構築したり、ファインチューニングによってカスタム・モデルを作成したりすることで、主要資産の所有権を強固なものにし、実装可能なコントロールの柔軟性を高めることができます。
  • モデルのアウトプットのコントロール:AIのファウンデーション・モデルは、ハルシネーション (捏造された回答) のリスクや、バイアスのかかった行動、有害な行動を蔓延させる危険性があります。データ検索、モデルのファインチューニング、独自モデルの構築は、コントロール・レベルが高い環境では好まれるかもしれません。ビジネス・クリティカルなアプリケーションでは、人間の関与が必要です。

  • 実装の簡素化:組み込みアプリケーションの利用とモデルAPIの組み込みには、本質的にシンプルであること、そして市場投入までの時間が短いという利点があります。現在のワークフローに大きな悪影響を与えることはありません。

各部門や事業単位のAIリスク許容度を明確にする

組織が追求するAI活用に対する機会を最終決定するには、ビジネス・リーダーがAIの信頼性、プライバシー、説明可能性、セキュリティに関連するリスクの許容レベルを明確にする必要があります。

AIの信頼性

AIの訓練方法によっては、以下のような脆弱性がある程度存在する可能性があります。

  • 事実の不正確性 (部分的には正しいが、重要な詳細部分が誤っているアウトプット)
  • ハルシネーション (捏造されたアウトプット)
  • トレーニング・データ内の知識のカットオフを原因とする古い情報
  • トレーニング・データに偏った情報が含まれていたことを原因とする偏りのあるアウトプット

AIのプライバシー

プライバシーの問題は、トレーニング・データ内の特定可能な詳細情報に関する懸念から、データ共有やアウトプットに至るまで多岐にわたります。例えば以下のようなものがあります。

  • 事前に通知することなく、ユーザー情報をベンダー、サービス・プロバイダー、関連会社、他ユーザーなどの第三者と共有する
  • 識別 (再識別) 可能なデータを処理する
  • 本番環境では実際に影響を及ぼす可能性のある識別 (再識別) 可能なデータを使用して学習する
  • 機密データや個人データが意図せず流出される
  • プロンプトとして入力された、またはデータ検索のために入力された専有情報、機密情報、社外秘情報が、他のユーザーのアウトプットに使用されるナレッジ・ベースの一部になる

AIの説明可能性

機械学習 (ML) モデルは、ユーザーや、時には高いスキルを有する専門家にとってさえ不透明なものです。データ・サイエンティストやモデル開発者は、MLモデルが何をしようとしているかは理解していても、そのMLモデルがデータを処理する際の内部構造やアルゴリズムを読み解くことはできません。このようなモデルの分かりにくさ、ひいては説明の難しさによって、組織がAIリスクを管理する能力も制限を受けます (ガートナーでは、「分かりやすさ [理解可能性]」と「説明のしやすさ [説明可能性]」をモデルの機能を明確に示すものと定義しています)。説明可能性が欠如していると、モデルのアウトプットは次のようなものになります。

  • 予測不可能
  • 検証不可能
  • 説明不可能

 

AIのセキュリティ

AIは、個人データへのアクセスや、コードや学習パラメータの挿入を試みる攻撃者の新たな標的になり、攻撃者の利益になるように操られる可能性があります。以下に例を挙げます。

  • AIモデルが保管する個人情報や機密情報にハッカーがアクセスする
  • ハッカーがプロンプトを使用して大規模言語モデル (LLM) を操作し、情報を不正に入手する
  • LLMをだまして、マルウェアやランサムウェアのコードを作成させる

経営幹部らと連携して、リスクに関する目標を定める

「AIがもたらすリスク」と「組織が追求する機会」のバランスを図るには、人間とAIの相対的な役割を定義する作業をCIOおよびITリーダーが支援する必要があります。目標は、自動化の度合い (完全自動化から人間の介入まで) と説明可能性の度合い (完全に不透明な「ブラック・ボックス」型AIから完全に説明可能なAIまで) のバランスを取ることです。

Cレベルの経営幹部は、自部門の主要なプロセスにおいて許容できるAIのリスク・レベルを申告し、追求したいAIの活用機会と整合させる必要があります。例えば、人事部門の責任者は、人事業務がデリケートなものであるため、確実であることを重視してリスク許容度を設定するかもしれません。一方、顧客サービス部門の責任者は、必要に応じて自動化について顧客に説明できるように「責任ある自動化」を目指す可能性があります。

ガートナーのリサーチ・サービスについてのお問い合わせ