生成AI (ジェネレ―ティブAI) とは?

企業が抱く生成AIに関する質問に、ガートナーのエキスパートが回答

生成AIとは?

生成AIとは、既存の成果物 (Artifact) から学習して、新たに現実に即した成果物を大規模に生成できるテクノロジです。この新しい成果物は、トレーニング・データの特徴を反映しますが、データをそのまま繰り返すことはありません。画像、動画、音楽、音声、テキスト、ソフトウェア・コード、商品設計といった分野で、非常に多岐にわたるまったく新しいコンテンツを生み出すことができます。

生成AIでは、さまざまな手法が用いられており、それらは絶えず進化し続けています。その中でも特に重要なのは、「AIファウンデーション・モデル」と呼ばれるものです。このモデルは、ラベル付けされていない広範なデータセットを使ってトレーニングされ、微調整を加えることで、さまざまなタスクに利用することができます。

こうしたトレーニング済みのモデルを作成するには、複雑な数学と桁外れのコンピュータ処理能力が必要ですが、これらは本質的には予測アルゴリズムです。

現在最も一般的なユースケースは、生成AIが自然言語でのリクエストに応答してコンテンツを作成することであり、コードの知識や入力は不要です。

しかし、企業のユースケースとしては、医薬品/チップ設計、材料科学開発のイノベーションなど、多数あります(「生成AIの実用的な用途にはどのようなものがあるのか?」も参照)。

生成AIが突然にハイプ(「過度な期待」のピーク期)を迎えた背景とは?

ガートナーは2020年以来、生成AIを人工知能ハイプ・サイクルで追跡していますが (生成AIはガートナーの2022年の戦略的テクノロジのトップ・トレンドの1つでもある)、同テクノロジは黎明期から「過度な期待」のピーク期に移行しました。しかし、生成AIが主流メディアで大きく取り上げられたのは、極めて人間のようにやりとりができるチャットボット「ChatGPT」が公開された2022年後半のことでした。

ChatGPTは、OpenAIによって発表されると瞬く間に人気を博し、世間を驚かせました (OpenAIのツール「DALL·E 2」も、関連する生成AI革新テクノロジにおいて、テキストから画像を生成)。

ガートナーは、生成AIが、蒸気機関、電気、インターネットと同様の影響力を持つ汎用テクノロジになると見ています。生成AIブームは、実装という現実が迫れば落ち着くでしょう。しかし、生成AIの影響は、個人や企業が日常業務や生活の中でこのテクノロジのさらに革新的な適用方法を見出すにつれて、拡大していくと思われます。

生成AIの利点と応用例とは?

ChatGPTの原動力となったGPT (Generative Pre-trained Transformer:事前学習済みの生成型トランスフォーマー)をはじめとするファウンデーション・モデルは、自動化、人間/機械のオーグメンテーション (拡張)、ビジネス/ITプロセスの自律的な実行を可能にするAIアーキテクチャ・イノベーションの1つです。

生成AIの利点としては、例えば、商品開発の迅速化、カスタマー・エクスペリエンスの向上、従業員の生産性の向上がありますが、詳細はユースケースごとに異なります。エンドユーザーは、達成したい価値について現実的になるべきです。特にこのサービスをそのまま利用する場合は、大きな制約を受けることになります。生成AIが生み出す成果物は不正確であったり、バイアスが含まれていたりする可能性があります。そのため、人間による妥当性の確認が不可欠であり、それにより望まれている労働時間の短縮が制限される可能性もあります。ガートナーは、どのプロジェクトも業務効率化や新しい収入源/より良いエクスペリエンスの創出を確実に成し遂げられるよう、ユースケースとKPIを結び付けることを推奨します。

ガートナーがウェビナーで2,500人以上の経営幹部を対象に最近実施した調査によると、経営幹部の38%は、生成AIに投資する第1の目的は「カスタマー・エクスペリエンス/顧客の定着」であると回答しています。この後、売り上げ拡大 (26%)、コスト最適化 (17%)、事業継続 (7%) と続きます。

生成AIのリスクとは?

生成AIに関連するリスクは重大で、急速に進化しています。既に多様な攻撃者がこのテクノロジを利用して「ディープ・フェイク」やプロダクトの複製を作成し、複雑化する詐欺行為に加担する成果物が生まれています。

ChatGPTや同類のツールは、公開されている大量のデータでトレーニングされています。こうしたツールは、一般データ保護規則 (GDPR) や他の著作権法に準拠するように設計されていないため、このプラットフォームの企業利用においては、細心の注意を払うことが極めて重要です。

注視すべきリスクとして、以下があります。

  • 透明性の欠如:生成AIとChatGPTモデルは予測不能である。これらを後押しする企業でさえ、その動作に関して常にすべてを把握しているわけではない

  • 正確性:生成AIシステムの応答は時に不正確で、捏造されている。アウトプットされる情報を頼りにしたり、公に分散したりする前に、すべてのアウトプットの正確さ、適切さ、実用性を評価する

  • バイアス:バイアスがかかったアウトプットを検出し、企業のポリシーや関連の法的要件に沿う形でこれに対処するには、ポリシーと規制手段を事前に準備しておく必要がある

  • 知的財産 (IP) と著作権:現在は、企業の機密情報に関わる検証可能なデータ・ガバナンスとデータ保護保証はない。ユーザーは、ChatGPTやその競合製品に入力したどのようなデータやクエリも公開情報となると想定しておくべきである。ガートナーは、不注意から知的財産をさらすことを回避する規制手段を導入するよう企業にアドバイスを提供している 

  • サイバーセキュリティと不正行為:企業は、従業員へのソーシャル・エンジニアリングにディープ・フェイクを使う人物など、悪意ある行為主体による生成AIシステムを利用したサイバー攻撃/不正行為に備え、これを緩和するための規制手段を確実に配置する必要がある。自社のサイバー保険取り扱い会社に相談して、現在の保険証書がAI関連の侵害をどの程度カバーしているかを検証する

  • サステナビリティ (持続可能性):生成AIは、大量の電気を消費する。ベンダー選定の際は、自社のサステナビリティ目標に対する影響を軽減するために、消費電力を削減して高品質の再生可能エネルギーを活用する企業を選ぶ

また、ガートナーは以下の点を検討することも推奨します。

  • 文化的な規範は進化し、ソーシャル・エンジニアリングへのアプローチが地域全体で多様化している中、誰が「責任ある生成AI利用」を定義するか。そして、誰がコンプライアンスを確保し、無責任な利用によってどのような結果が生じるか

  • 問題が発生した場合、個人はどのようにアクションを起こせるか

  • ユーザーはどのように同意を与え、これを撤回するか (オプトイン/オプトアウト)。プライバシーに関する議論から何を学ぶことができたか

  • 生成AIの利用は組織、そして制度全体への信頼に役立つか。あるいは信頼を損なうか

  • コンテンツの作成者と所有者が確実に自らの知的財産を管理下に置き、報酬を適切に受け取れるようにするにはどうすればよいか。新たな経済モデルはどうあるべきか 

  • 誰が、ライフサイクル全体で生成AIを適切に機能させるようにするか。また、それをどのように行うか。例えば、取締役会がAI倫理を先導する必要があるか

最後に、生成AIに関する規制の進展と訴訟を継続的に注視することが重要です。中国とシンガポールは既に、生成AIの利用に関する新たな規制を設けています。一方でイタリアは生成AIを一時禁止 (後に解除) しました。米国、カナダ、インド、英国、EUでは現在、それぞれ規制環境を整備中です

生成AIを利用するためのベスト・プラクティスとは?」や「生成AIの利用ポリシーを策定すべきか?」もご参照ください。

生成AIの実用的な用途にはどのようなものがあるのか?

生成AIの分野は、科学的な発見とテクノロジの商用化の両面で、今後急速に発展していくでしょう。しかし、ユースケースは、クリエイティブ・コンテンツ、コンテンツ改善、シンセティック・データ、ジェネレーティブ・エンジニアリング、ジェネレーティブ・デザインといった領域で次々と出現しています。

現在使用されている高度で実用的な生成AI適用例として、以下があります。

  • 文章内容の増強と作成:望みどおりのスタイルと長さで、テキストの「草案」のアウトプットを生成する

  • 質疑応答と発見:ユーザーは、インプットに対する、データとプロンプトの情報に基づく回答を見つけられる

  • 文体:テキストを修正する。言葉を和らげたり、文章の専門性を高めたりする

  • 要約:会話、記事、電子メール、Webページを短くまとめる

  • 簡素化:見出しを分析し、概要を作成し、重要な内容を抽出する

  • 特定のユースケースのためのコンテンツの分類:センチメントやトピックなどを基準に分類する

  • チャットボットのパフォーマンス向上:エンティティを抽出する、会話全体のセンチメントを分類する、概要からジャーニーの流れを作成する

  • ソフトウェアのコーディング:コードを生成/変換/説明/検証する

長期的に影響を与える最新のユースケースには、以下があります。

  • 病気の今後の進行を示す医療画像の生成

  • 不十分なデータを増強し、バイアスを軽減し、データ・プライバシーを保護し、将来のシナリオをシミュレーションするのに役立つシンセティック・データ

  • 先を見越して追加のアクションをユーザーに提案して情報を提供するアプリケーション

  • レガシー・コードの近代化

将来的に、生成AIはどのようにビジネス価値に貢献するのか?

生成AIは、売り上げ増加、コスト削減、生産性向上、リスク・マネジメント向上のための、新しく破壊的な機会をもたらします。こうした機会は近い将来、競争優位性、そして差別化要因となります。

ガートナーは、生成AIがもたらす機会を3つに分類しています。

売り上げ増加の機会

商品開発:生成AIにより、企業は新商品開発に要する時間を短縮できます。例えば、新薬、毒性の低い家庭用洗剤、新しい香料/芳香剤、新しい合金、医療診断の向上/時間短縮があります。

新たな売り上げチャネル:ガートナーの調査では、AIの成熟度が高いほど、売り上げに関して得られるメリットが大きくなります。

コストと生産性の機会

労働者のオーグメンテーション :生成AIで、テキスト/画像/その他媒体の草案の作成と編集を行う労働者の能力を拡張することができます。また、コンテンツの要約/簡素化/分類、ソフトウェア・コードの生成/変換/検証、チャットボットのパフォーマンス向上も可能です。この段階では、幅広い成果物の大規模かつ迅速な作成において、同テクノロジは高い能力を発揮します。

長期的な人材最適化:将来、従業員を分ける1つの能力は、AIと連携してアイデア/プロジェクト/プロセス/サービス/関係性を考案し、実行し、改良できる能力です。人間とAIの共生関係によって、労働者の習熟までの時間が短縮され、労働者全体の幅とコンピテンシが大幅に広がります。

プロセスの改善:生成AIで、膨大な量のコンテンツから、コンテキストの中にある真の価値を引き出すことができます。今日まで、そうした価値の大部分が開拓されてこなかったのかもしれません。これによって、ワークフローが変化します。

リスク軽減の機会

リスク軽減:生成AIには、顧客との取引や誤っている可能性があるソフトウェア・コードといったデータを分析して、それを幅広くかつ奥深く可視化できる能力があります。そのためパターン認識や、企業にとっての潜在的なリスクをより素早く特定する能力が強化されます。

サステナビリティ (持続可能性):生成AIは、企業によるサステナビリティ規制の遵守、不良資産リスクの軽減、意思決定/商品設計/プロセスへのサステナビリティの組み込みに役立つかもしれません。

生成AIで最も影響を受けるのはどの業界か?

生成AIは、コア・プロセスをAIモデルで拡張することで、製薬、製造、メディア、建築、インテリア・デザイン、エンジニアリング、自動車、航空宇宙、防衛、医療、エレクトロニクス、エネルギーといった業界に影響を及ぼすでしょう。また、多くの組織に広がる支援プロセスを拡張することで、マーケティング、デザイン、コーポレート・コミュニケーション、トレーニング、ソフトウェア・エンジニアリングにも影響を及ぼします。以下に例を挙げます。

  • 2025年までに、新薬や新材料の30%以上が生成AI手法を用いて体系的に発見される (現在の0%から増加する) とガートナーでは予測している。創薬のコストを減らして時間を短縮できる機会をもたらすため、生成AIは製薬業界にとって有望だと思われる

  • 2025年までに、大企業から送信されるマーケティング・メッセージの30%は、生成AIを利用して合成的に生成されたものになる (2022年の2%未満から増加する) とガートナーでは予測している。GPT-3のようなテキスト生成ツールは既に、マーケティングのコピーやパーソナライズされた広告の作成に使用できる

  • 製造、自動車、航空宇宙、防衛などの業界は、ジェネレーティブ・デザインを活用することで、性能、材料、製造方法などの具体的な目標や制約に合わせて最適化されたデザインを作成できる。そのため、見込まれるソリューションを多数生成してエンジニアが探索できるようにすることで、デザイン・プロセスが加速される

生成AIを利用するためのベスト・プラクティスとは?

AIの信頼性と透明性を高めるテクノロジは、生成AIソリューションを補完する重要な存在になります。幹部リーダーには、大規模言語モデルや他の生成AIモデルを倫理的に利用するために、以下の手引きに従うことが推奨されます。

  • 組織内から始める:生成AIを用いて顧客や外部向けのコンテンツを作成する前に、組織内のステークホルダーと従業員のユースケースを使って、幅広くテストを行う。生成AIの「幻覚 (hallucination)」現象によって、ビジネスに損害をもたらすべきではない
  • 透明性を大切にする:従業員、顧客、一般市民のいずれであろうと、会話全体に明確に繰り返しラベルを付け、自分は機械とやりとりしているという事実を包み隠さず示す
    デュー・デリジェンスを行う:バイアスや他の信頼性の問題を追跡するプロセスとガードレールを設定する。結果を検証し、モデルの脱線を継続的にテストする
  • プライバシーとセキュリティの懸念に対処する:機密データが確実に入力および引き出されないようにする。機密データが組織の枠を超えた機械学習のために使用されないことをモデルのプロバイダーに確認する
  • 時間をかけて慎重に進める:大規模言語モデルの機能を長期間にわたりベータ版にとどめる。これは、完璧な結果への期待を和らげるのに役立つ

生成AIの利用ポリシーを策定すべきか?

従業員は既に、実験的に、あるいは業務関連のタスクのいずれかで、生成AIを利用している可能性が高いため、隠れた利用と誤ったコンプライアンス認識を回避するために、ガートナーでは、全面的な禁止ではなく、「利用ポリシー」を策定することを推奨します。

利用ポリシーはシンプルにすることが重要です。ChatGPTや他の既製モデルを使用する場合、以下に示す3つの「実行しない」と2つの「実行する」を使って簡潔にまとめることができます。

  • 実行しない:個人を特定できるいかなる情報も入力しない

  • 実行しない:いかなる機密情報も入力しない

  • 実行しない:企業のいかなる知的財産も入力しない

  • 実行する:履歴のオン/オフが可能な社外ツール (ChatGPTなど) を使用する場合、履歴をオフにする

  • 実行する:アウトプットを注意深く注視する。生成AIは、気付きにくいが重大な意味を持つ「幻覚」現象、事実誤認、バイアスまたは不適切な記述に陥ることがある

大規模言語モデルの独自インスタンスを使用する企業の場合、入力データは限られているため、プライバシー上の懸念はなくなります。とは言え、アウトプットには引き続き、細心の注意を払う必要があります。

生成AIは未来の働き方にどのように影響を及ぼすか?

ビジネスでは多くの人々が、何らかのコンテンツ・クリエーターだと言えます。生成AIは、作成するのがテキスト、画像、ハードウェア設計、音楽、動画などのいずれであれ、彼らの仕事を大幅に変えるでしょう。これを受け、労働者はコンテンツ作成とは違ったスキルセットが必要な、コンテンツ・エディターになることが求められます。

一方、アプリケーションが会話型、事前対応的、双方向的になるにつれ、アプリケーションとのやりとりの方法は変化するため、ユーザー・エクスペリエンスの再設計が必要になります。近い将来、生成AIモデルは自然言語クエリへの応答を超え、尋ねていないことまで提案し始めるでしょう。例えば、データ・ドリブンな棒グラフをリクエストすると、生成AIモデルはユーザーが使用できると推測する代替のグラフを提示するかもしれません。これによって理論上は少なくとも、労働者の生産性が向上しますが、戦略策定は人間が主導する必要があるという従来の考え方に異を唱えることにもなります。

従業員が実際にどのように変化するかは、業界、場所、企業規模、提供している商品/サービスなどによって大幅に異なるものと思われます。

生成AIはどこから始めるべきか?

多くの企業がコード生成、テキスト生成、ビジュアル設計の生成AIを試験的に導入しています。試験導入を始める際は、以下の3つのルートから1つを選択します。

  1. 既製品:既存のファウンデーション・モデルを利用して、プロンプトを直接入力する。例えば、ソフトウェア・エンジニアの職務記述書の作成や、マーケティング・メールの「件名」の代替案の提案をファウンデーション・モデルに依頼してみる
  2. プロンプト・エンジニアリング:ソフトウェアをプログラムしてファウンデーション・モデルに接続し、活用する。3つの中で最も一般的なこの手法は、知的財産を保護し、プライベート・データを活用しながら、公開されているサービスを使ってより正確で具体的で有用な回答を作成することが可能である。プロンプト・エンジニアリングの一例としては、人事の福利厚生チャットボットの構築、企業のポリシーに関する従業員からの質問への回答がある
  3. カスタマイズ:新しいファウンデーション・モデルの構築は、大半の企業にとって力が及ばないが、モデルを調整することは可能である。1つの方法は、ファウンデーション・モデルの動作を大幅に変えるように、レイヤまたは独自データを追加することである。費用はかかるが、ファウンデーション・モデルのカスタマイズによって最大限の柔軟性を得られる

生成AIを利用するために、何を購入する必要があるか?

生成AIのコストは、企業のユースケース/規模/要件に左右され、ごく少額から数百万ドルにまで上ることがあります。中堅・中小企業は、ChatGPTのようなオープンにホストされた公開アプリケーションの無償版を使用したり、低額のサブスクリプション料金を支払ったりすることで、多大なビジネス価値を引き出しているかもしれません。例えば、OpenAIは現在、1ユーザーにつき1カ月20ドルで有料プランを提供しています。しかし無償版や低コストのオプションでは、企業データと、アウトプットの関連リスクに対する保護は最小限になります。

大企業や、高度なセキュリティとIP/プライバシー保護を保ちつつ企業データをさらに分析または利用したいと考える企業は、さまざまなカスタム・サービスに投資する必要があります。この一例となる可能性があるのが、データ/機械学習プラットフォームを備えた、ライセンス供与されるカスタマイズ可能で独自のモデルを構築することです。そのためには、ベンダーやパートナーとの協業が必要になります。この場合、コストは数百万ドルになる可能性があります。

また重要なことは、生成AIのケイパビリティ(能力) が、Bing、Office 365、Microsoft 365 Copilot、Google Workspaceといった、日常的に使用しているソフトウェア・プロダクトに組み込まれることが増えるという点です。こうした能力は実質的に「無償利用枠 (free tier)」ですが、ベンダーは最終的に、自社プロダクトにバンドルされた価格増分の一部をコストとして顧客に転嫁するでしょう。

将来の生成AI利用について、ガートナーはどのように予測しているか?

生成AIは今後5年間で、企業に一段と強い衝撃を与えられる態勢になるでしょう。ガートナーは、以下のように予測しています。

  • 2024年までに、エンタプライズ・アプリケーションの40%には会話型AIが組み込まれるようになる (2020年の5%未満から増加)

  • 2025年までに、企業の30%はAI拡張型開発/テスト戦略を導入する (2021年の5%から増加)

  • 2026年までに、ジェネレーティブ・デザインAIによって、新規Webサイト/モバイル・アプリの設計作業の60%が自動化される

  • 2026年までに、1億人以上の人々は、業務の一助とするために、ロボットの同僚 (robocolleague) に関与するようになる

  • 2027年までに、新規アプリケーションの15%近くは、人間をやりとりに関与させず、AIによって自動的に生成される。この状況は、現時点ではまったく生じていない

生成AI市場における主要なテクノロジ・プロバイダーはどの企業か?

生成AIマーケットプレースは沸き立っています。巨大なプラットフォーム・プレーヤー以外にも、豊富なベンチャー資金に支えられた何百もの専門プロバイダーが存在し、新たなオープンソース・モデル/ケイパビリティが急増しています。SalesforceやSAPなどのエンタプライズ・アプリケーション・プロバイダーは、大規模言語モデルのケイパビリティを自社のプラットフォームに組み込んでいる最中です。Microsoft、Google、Amazon Web Services (AWS)、IBMといった企業は、何億ドルもの資金と莫大なコンピューティング・パワーを投入して、ChatGPTなどのサービスや他が拠り所とするファウンデーション・モデルを構築してきました。

ガートナーは、現在の主要プレーヤーを以下のように考えています。

  • Google:マルチモーダル・モデルのPaLMと、純粋な言語モデルであるBardという2つの大規模言語モデルを持っている。現在は、自社の生成AIテクノロジをワークプレース・アプリケーション・スイートに組み込んでおり、間もなく多くの人々が利用できるようになる
  • MicrosoftとOpenAI:足並みをそろえて進撃中である。Googleと同様に、Microsoftも生成AIテクノロジを自社のプロダクトに組み込んでいるが、同社には先行者利益があり、ChatGPT旋風にも後押しされている
  • Amazon:ソリューションを構築するために、オープンソース・ベースで多数の利用可能な大規模言語モデルを持つHugging Faceと提携している。また、AWS経由で生成AIにアクセスできるようにするBedrockを持っているほか、テキストを生成して検索/パーソナライゼーションを改善する2つのAIモデルのセットであるTitanに関する計画を発表した
  • IBM:複数のファウンデーション・モデルのほか、データを注入し、モデルを再トレーニングして適用することで自社/サードパーティの両モデルを微調整できる優れた能力がある

これは汎用人工知能 (AGI) の始まりか?

現時点では意見が分かれています。汎用人工知能 (AGI: Artificial General Intelligence )とは、人間の知能に匹敵するか、これを超える能力を持ち、トレーニング中に遭遇したことのない問題を解決することのできる機械の能力です。AGIは激しい議論を巻き起こし、畏怖の念とディストピア (反理想郷、暗黒世界) を混在させた感情を生み出しています。AIの能力は確かに高まっており、人間がプログラムしていない動作が突然出現することもあります。

考えられる道筋は、人間の知能に似ているものの、最終的には複雑な問題を解決する人間を助けようとする機械知能 (マシン・インテリジェンス) の進化です。そのため、ガバナンスや新たな規制、そして社会からの幅広い関与が必要となるでしょう。

Gartnerは、お客様のミッション・クリティカルな課題について、より優れた意思決定と大きな成果へと導く実行可能かつ客観的な知見を提供します。

TOP