ガートナー ジャパン
メインメニュー ホーム リサーチ コンサルティング ベンチマーク エグゼクティブ プログラム イベント 会社情報 メインメニュー
SAMPLE RESEARCH

サンプル・リサーチ

イメージ 2013年の展望:ビッグ・データと情報インフラストラクチャ
アプリケーション (APP) /APP-13-45
Research Note
R. Edjlali, R. Casonato, M. Beyer, J. Lovelock, A. Lapkin, D. Feinberg, T. Friedman
掲載日:2013年5月14日/発行日:2013年4月5日

本リサーチ分析レポートのテーマに関心をお持ちの方は、2013年5月27日(月)・5月28日(火)に開催する 「ガートナー ビジネス・インテリジェンス&情報活用 サミット 2013」 のページを是非ご覧ください。
本サミットでは、ビジネス・インテリジェンスに加え、マーケティングにおける意思決定のためのアナリティクス、ソーシャル技術を活用した意思決定支援など、さまざまな領域での意思決定の在り方、多様なテクノロジによる情報の活用の方法を検討します。
(イベント終了後も開催実績としてご覧いただけます)

 

ビッグ・データと情報インフラストラクチャに関する2013年の展望では、ビッグ・データ現象が企業、リソース、情報インフラストラクチャに及ぼす影響について述べる。将来的な変化の重要性を考慮するならば、企業は変化に適応すべく、前もって計画をする必要がある。

要約

主要な所見

    ●ソーシャル・ネットワーク分析、オペレーショナル・テクノロジ、工作/設計データを利用することでビッグ・データのインフラストラクチャとアナリティクスの実装に着手した企業は、ビッグ・データを活用しない同業他社に比べ、既に優れた経済的な成果を得ている。

    ●ビッグ・データのユースケースをサポートするスキルを獲得できるかどうかが、既に問題になっている。この状況は短期的には改善されない。

    ●多くの企業は、専任の組織によってサポートされたデータ管理戦略を備えていない。大量、高速、多様なデータへの対応が必須であることから、適切な戦略や組織モデルの必要性がより重要になっている。

    ●2012年にガートナーに寄せられたデータウェアハウス関連の全インクワイアリにおいて、約8%に当たる組織が、新たなデータ管理問題に対処するために、論理データウェアハウスの何らかの側面を実装すると述べていた。同時に、30%強が、論理データウェアハウスの実装の進め方を理解するための支援を求めていた。

推奨事項

    ●情報の量、多様性、速度にどのような期限で対処しなければならないにせよ、組織的な側面や必要となる新たな役割も含めた情報管理戦略を、直ちに準備する。

    ●自社の情報インフラストラクチャの現状を、組織と能力の両方の視点から評価し、情報管理を専門的な領域に進化させる計画を用意する。

    ●論理データウェアハウスを、ビッグ・データやアナリティクスを幅広く活用してビジネス価値を得るための情報インフラストラクチャを開発する足掛かりと見なす。

目次

 戦略的プランニングの仮説事項

 分析

  要旨

  戦略的プランニングの仮説事項

  過去の予測

 推奨リサーチ

 

戦略的プランニングの仮説事項

    ●2015年までに、ビッグ・データの需要は、世界的に440万件の求人をもたらすが、こうした求人はわずか3分の1しか満たされない。

    ●2015年までに、Global 1000企業の20%が、「情報インフラストラクチャ」に対し、アプリケーション管理と同様に、戦略的な重点を置く。

    ●2015年以降、「ビッグ・データ」という用語は、もはやテクノロジ・プロバイダーにとって差別化要因ではなくなる。

    ●2014年までに、エンタプライズ・ウェアハウスの20%が、論理データウェアハウスを配備するに当たり、MapReduceのような分散処理機能を実稼働環境に付加するようになる。

分析

要旨
現在はビッグ・データが牽引する変革の初期にすぎず、2011年に確認された動向の多くが今も有効である。ガートナーは引き続き、「2015年にかけて、Fortune 500企業の85%が、ビッグ・データを競争優位性確保のために効果的に活用することに失敗する」(「Predicts 2012: Information Infrastructure and Big Data」参照) と考える。しかし、ビッグ・データは2016年までIT支出の大きな部分を牽引する (「Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016」参照)。

2012年を通じて、企業は、ビッグ・データとは何であり、どのような潜在的価値があり得るかについて、理解を発展させてきた。ガートナーの顧客との対話において、質問は「ビッグ・データとは何か」「なぜ気にしなければならないか」から、「どのような投資対効果 (ROI) を見込むことができるか」「どのような組織的変化やスキルが必要か」へ移行した。多くの企業がまだ試行の初期段階にあり、戦略を検討し尽くした企業や、ビッグ・データが組織や情報インフラストラクチャにもたらす深遠な影響を認識している企業は少ない。しかし、ビッグ・データの道程を歩み始めようとする企業にとって、スキル不足が既に懸念事項になっていることは明白であり、この点は今後も課題であり続けるとガートナーは考える。

ガートナーでは、情報インフラストラクチャを「情報の作成者や利用者が、何らかのタイプのデータやコンテンツを、いつでも、どこでも、記述/整理/共有/統合/統制することができるようにする、テクノロジを利用した能力」と定義している。ビッグ・データは情報インフラストラクチャに、より多くの価値を実現するための変化を強いる。多くの企業が、やみくもに惰性で現状に従っているか、または「分析まひ」で動きがとれなくなっている一方で、既に不足要素を分析し、それらに対処し始めている企業もある (「The Information Capabilities Framework: An Aligned Vision for Information Infrastructure」参照)。量、速度、多様性のニーズを満たそうとする際の現行データウェアハウスの課題を企業が理解するにつれ、論理データウェアハウスなどの構想が成熟し始めている。結果として、企業はリレーショナル・データベースだけでなく、ほかのリポジトリ様式を活用して、従来のデータウェアハウスのデータに、その他のデータ・タイプ、例えばテキスト、ビデオ、画像、センサ・データ、クリックストリーム・データなどを組み合わせるようになった。さらにこうしたことは、例えば、HadoopやNoSQLへの優れた接続性を提供するリレーショナル・データベースやデータ統合ツールのベンダーによって、より容易になった。

また、ビッグ・データをめぐるハイプは、多分にテクノロジ・プロバイダーによって牽引されている。これは、メモリ価格の下落、フラッシュやソリッドステート・ドライブの使用の一般化、大量のデータを手頃な価格で管理できることなど、テクノロジの進歩によって、革新的なテクノロジ製品やサービスが登場する環境が作られたことによる。各種のテクノロジ製品やサービスを最適に活用して自社のユースケースに対応する方法について、企業が理解を深めるにつれて、こうしたハイプは消滅する。

戦略的プランニングの仮説事項

2015年までに、ビッグ・データの需要は、世界的に440万件の求人をもたらすが、こうした求人はわずか3分の1しか満たされない

分析:Regina Casonato、Mark Beyer、John Lovelock、Anne Lapkin

主要な所見:

    ●ビジネス部門のユーザーは、分析の結果を自らの日常業務に取り入れることを求めている。また、ビッグ・データ・プロジェクトから得た判断を自身の役割や任務における意思決定の支援や洞察に使用するユーザーは、2011年は28%であったが、2014年は50%に、さらに2020年には75%に拡大する。

    ●IT系従業員の職種の内訳が急激に変化しており、ITとビジネスを橋渡しする情報管理のプロフェッショナルが増加し、純粋なITスペシャリストが減少している。

    ●今後24〜36カ月間に企業が直面する主要な課題とは、高度な情報管理/アナリティクスのスキルを備えた人材の採用、入社時研修、維持、育成である。こうした人材とは、データ・サイエンティスト、情報リーダー、データ・スチュワード、最高データ責任者、情報アーキテクトなどである。

市場への影響:
企業はビッグ・データからビジネス・メリットを引き出そうとしており、以下の3つの主要な動向がビッグ・データの需要を牽引する。

    ●第1に、企業は次第に、社内外の多様なデータセットを活用し、組み合わせて、情報全体における不足を埋めようとしている。

    ●第2に、テクノロジの進歩は、情報資産の量、速度、多様性を活用する機会を提供する。

    ●第3に、新しいユースケースが登場しており、そこでは新たなタイプの情報 (例:位置情報、感情、ジェスチャ、トレーサビリティ、インターネット・オブ・シングズによって実現されるセンサ・リッチな環境) や、構造化情報と非構造化情報という新しい組み合わせが、ビジネスの革新や競争優位にとって、次第に中心的で不可欠な役割を果たしている。

企業はこうした機会を生かすために、コンピテンシやスキルを再評価しなければならないとみられる。求人が満たされれば、企業にとって財務上/競争上の現実的なメリットになる。これらの求人を満たすという課題において重要な側面とは、新しいスキルを備えた人材が必要であるという事実である。例えば、データ (構造化とコンテンツ) やアナリティクスのスキル、ビジネスの専門知識、ビッグ・データから価値を引き出すために必要な従来とは異なるスキル (例:言語学) のほか、データを視覚化するためのアーティストやデザイナーである。ビッグ・データ資産をフル活用するために必要な専門知識の獲得は困難である (備考1参照)。こうした観点から見た主要な役割 (データ・サイエンティスト) には、高度な教育のほか、プログラミングやコンピュータ言語の有意なスキルが必要とされる。統計数理にかかわる経歴や豊富な経験も必要である。テクノロジが比較的未熟であることから、サービスに対する需要が高まり、今後3年間でITサービスの分野で、世界的に240万件の求人が生まれる。

この影響は、あらゆる業界に及ぶ。特定の業種では、ビッグ・データの需要によって、従来行われていた手法の拡張が見られる。例えば、金融サービスにおける不正検出や取引、テレコム業界における顧客チャーン分析である。その他の業種において、ビッグ・データのアナリティクスは、顧客サービス、リスク管理、プロセス効率、コスト最適化の向上のために採用される。ユースケースが多様であることからも、企業はスキルを適切な組み合わせで採用しなければならない。これらのスキルのために必要な報酬の上乗せは増加する一方となるため、多くの企業では包括的なマネージド・サービスの活用を増やす。こうすることで多くの企業において規模の経済性が生まれる。

推奨事項:

    ●高度な統計分析、情報管理、ビジュアライゼーションの原理について、上級スタッフの再研修を今すぐ開始する。ビッグ・データの担当でない場合も、これらの概念のスキルを身に付けることは、今後の成功に不可欠である。

    ●ビッグ・データの明確なビジネスケースを策定し、価値の高いスキルのコストを念頭に置いて、それらのメリットを評価する。

    ●どのような新しい役割が必要であるかを判断し、ビッグ・データの戦略的な活用に必要な情報スキルを獲得するために、研修または採用に着手する。

    ●言語学のスペシャリスト、アーティスト、デザイナーなどの従来とは異なる新しいIT職の求人に向けて、新しい雇用プログラムを準備する。能力に劣る人材は厳しく評価され、排除されるため、採用担当者は、資格要件を満たす志願者の不足と高い離職率に備える必要がある。

    ●企業は、包括的なマネージド・サービスを提供しているプロバイダーを活用し、契約要件に照らしたこれらのパフォーマンスについて、新たな評価指標を策定することを計画する。

    関連リサーチ:
     ・「Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016」
     ・「CIO Alert: You Need Information Professionals」
     ・「Prepare to Be an Information Leader」
     ・「Market Trends: Big Data Opportunities in Vertical Industries」
     ・「ツールキット:データ・サイエンティストの職務記述書」(BIIM-12-06、2012年6月5日付)
     ・「ツールキット:データ・スチュワードの職務記述書」(BIIM-12-02、2012年3月5日付)

2015年までに、Global 1000企業の20%が、「情報インフラストラクチャ」に対し、アプリケーション管理と同様に、戦略的な重点を置く

分析:Ted Friedman

主要な所見:

    ●データ管理プロジェクトは通常、データウェアハウジング、パフォーマンス改善プロジェクト、またはアプリケーション間データ共有など、ほかのイニシアティブをサポートするために開始されることが多い。

    ●データ管理は、上記プロジェクトのいずれにおいても中心的な関心事ではなく、プロジェクト間におけるデータの一貫性や正確性については誰の責任でもない。その結果、データはしばしばサイロ内に保存されるため、セマンティクスがわずかに異なる冗長なデータの保存につながる。時間を経てさらにプロジェクトが追加されるにつれて、データの複製が複数保存され、しかもセマンティクスや品質に関する合意が一切ない、ますます複雑な環境が作り出される。

    ●重複するデータの管理に掛かる余分な経費のために、IT部門は新たなイニシアティブに対応しにくくなり、ビジネス部門とIT部門間の不信がいっそう強まる。この状況に、情報資産の量、速度、多様性、複雑性の各側面における高度化という課題が加わると、データ管理の総合的なアプローチをサポートするために、特殊なスキルと役割を追加しなければならなくなる。

    ●多くの企業は、データを個々のアプリケーションと切り離して捉えており、単一アプリケーションによる制御よりも、再利用や共有に着目している。

    ●多くの企業は、情報インフラストラクチャに戦略的な関心を向けており、重複する冗長なツールを整理する一方で、各種アプリケーション (およびその他のタイプのデータ利用者) をサポートし、一般的に使用される一連の機能を配備したいと考えている。

市場への影響:
アプリケーション非依存の原則に従って情報を管理するために、企業は情報管理テクノロジ (情報インフラストラクチャ) や、それをどのように発展させるかについて、見方を変える必要がある。特に、情報インフラストラクチャを主要なコンピテンシと見なす必要がある。したがって、アプリケーション管理などの、その他の主要なコンピテンシと同等の注力が必要である。企業は自社の情報インフラストラクチャについて、すべての情報利用者が活用できる情報管理テクノロジ機能に重点を置いて、全社的な方法で検証する必要がある。情報インフラストラクチャの発展を支援するためには、戦略的なビジョンが必要である。

ガートナーの「情報ケイパビリティ・フレームワーク」は、情報資産からビジネス価値を生み出すために必要な技術的な機能の集合である。これは人、プロセス、テクノロジのいずれにも依存しない、概念上のモデルである。またこのフレームワークによって、ITリーダーは情報の記述/整理/統合/共有/統制に必要な機能について、アプリケーションから独立して、全体的に検討できる。ユースケースや情報源に対して非依存であり、どのテクノロジやアーキテクチャの形式にも依存せず、支持もしない。ただし、ユースケースの細目を考慮している。「情報ケイパビリティ」とは、情報が企業の一般的な運営や全社的な特定の目的のために使用/操作/編成/開発される上で必要な行動を示している。

推奨事項:
サポートすべき情報のユースケースやタイプが多岐にわたるため、情報インフラストラクチャを戦略的なものと見なし、一体的で連携のとれた方法で、時間とともに発展させていくビジョンを持つ。

    ●近代的なデータ管理システムの設計に情報ケイパビリティのアプローチを採用する。ガートナーの情報ケイパビリティ・フレームワークはこうしたビジョンを示している。このフレームワークは、確固たる情報インフラストラクチャを実現するために必要な各種テクノロジ機能や、こうした機能を各種の情報ユースケースやアプリケーション・タイプに統合し、公開する方法を示すモデルである (「The Information Capabilities Framework: An Aligned Vision for Information Infrastructure」参照)。

    ●一体的で、アプリケーションや情報源に依存しない、一連の情報管理テクノロジ機能の実現に向けたロードマップを策定する。これらの機能を、企業情報管理プログラムが注力する適切なビジネス成果を達成するように最適な形で配備する。情報インフラストラクチャを、アプリケーションなどのほかのテクノロジと対等のレベルに引き上げるためには、同様に本質的にアプリケーション非依存である情報管理テクノロジに注力する必要がある。情報インフラストラクチャを広く見渡せるようにリソースを割り当てることによって、重複や相乗効果を発見し、冗長性を排除する計画を立て、最も広範囲で必要とされる共通の能力に優先順位を付ける。これらを通じて企業は自社の目標をサポートする、より堅実なテクノロジ基盤を形成できるようになる。これはつまり、ツールの標準を策定し、強化し、企業情報管理モデルと一致する再利用可能な能力を配備することを意味する。

情報インフラストラクチャの指針となるビジョンとしてこれらの原則を採用することで、企業は自社の能力をより戦略的なレベルに引き上げ、情報資産から非常に高い価値を引き出すことができる。

    関連リーチ:
     ・「Information Management in the 21st Century」
     ・「The Information Capabilities Framework: An Aligned Vision for Information Infrastructure」
     ・「Ten Ways to Strengthen Your Information Infrastructure」

2015年以降、「ビッグ・データ」という用語は、もはやテクノロジ・プロバイダーにとって差別化要因ではなくなる

分析:Donald Feinberg

主要な所見:

    ●ほぼすべてのITプロバイダーが、「ビッグ・データ」という用語との何らかのつながりや一致を主張している。

    ●ビッグ・データとは新しいものではない。大容量、高速、多様なデータは、長年存在してきた。新しいのは、このデータを効果的な方法で処理/管理/分析できる低コストのソリューションやツールである。

    ●ビッグ・データは既に市場のどこにでも存在するようになっており、一般のデータ処理と切り離すことはできない。

    ●ビッグ・データには多様な形態があり、MapReduceと同義ではない。MapReduceは、ビッグ・データ処理の一形態にすぎない。

    ●ビッグ・データ市場という個別の市場はなく、IT市場全体を横断する複合的な市場である (「Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016」参照)。

市場への影響:
ビッグ・データが魅力を失う主に2つの理由がある。1つ目は、多用され、誤用される用語であると考えられることである。「ビッグ・データ」という用語を純粋な市場のハイプであると表現することは正確ではない。確かに、この用語は多くの意味に誤って用いられており、主として、大量のデータに対して使用され、また新しい形態のデータという意味で使用されることも多い。リサーチノート、APP-12-94、2012年9月5日付「『ビッグ・データ』の重要性の定義」において、ガートナーはビッグ・データを「高度な洞察と意思決定のために、コスト効果が高く革新的な情報処理プロセスを必要とする、大量、高速、かつ多様な情報資産である」と定義している。留意すべき重要な点として、大量のデータ、高速のデータ、多様な (非構造化) データは、何年も前から存在している。

2つ目の理由は、すべてのベンダーがビッグ・データの管理や分析へ移行するに従い、対応/非対応の差別化が消滅することである。データを管理するすべてのソフトウェア (例:データ統合ツール、データベース管理システム [DBMS]) は、あらゆる形態のデータを管理するようになる。例えば構造化と非構造化を比較した場合のように、管理をより得意とするデータ形態はソフトウェア製品によって異なるが、既にこれらのソフトウェアは各種形態のデータの一体化に着手しようとしており、境界は曖昧になる。既に、大半のプロバイダーがビッグ・データの「3つのV」(量 [Volume]、多様性 [Variety]、速度 [Velocity]) に何らかの形で対応しているため、確かに境界は曖昧になっている。既にMapReduce処理や、MapReduce対応環境に接続してデータの送受信を行う多数のツールに見られるように、ビッグ・データを管理し分析する新たなツールが登場すると、それらは既存製品にも統合されるようになる。

ビッグ・データは、IT市場のどこにでも存在するようになり、最終的に死語になり、単なるデータになる。その過程で、ITの世界では、新たなプロセシングを通じてあらゆるタイプや規模の情報資産についてより深い洞察を得られるようになり、また各種の情報資産をどのように組み合わせるかについて知識を大いに拡充することでメリットを得る。

推奨事項:

    ●ビッグ・データのハイプの犠牲にならない。ニーズが存在すると思い込まない。ビッグ・データ・プロジェクトに飛び付く前に、まずガートナーの情報ケイパビリティ・フレームワークのような枠組みを使用して、自社の情報資産を評価する。

    ●どの規模の企業も、すべてのタイプのデータを処理する新たなツールによってメリットを得られる。まず、これらのツールの採用に関する戦略とビジネスケースを策定することが重要である。

    ●企業は、情報管理戦略を備える必要がある。ビッグ・データという用語が消滅しても、情報管理戦略の必要性は残る。インフォメーションなしにクラウド、モバイル、ソーシャルは存在できないため、インフォメーションは、力の結節 (Nexus of Forces) の基本である。

    ●新たな形態のデータや新たなツールが登場した際は、その採用に先立ち、これらのツールはどのビジネス・ユースケースに役立つ可能性があるか、また情報インフラストラクチャにおけるどの不足部分に対処するかを評価する。

    関連リサーチ:
     ・「『ビッグ・データ』の重要性の定義」(APP-12-94、2012年9月5日付)
     ・「Operationalizing the Information Capabilities Framework」
     ・「The Multidiscipline Aspect of the Information Capabilities Framework」
     ・「Information and the Nexus of Forces: Delivering and Analyzing Data」

2014年までに、エンタプライズ・ウェアハウスの20%が、論理データウェアハウスを配備するに当たり、MapReduceのような分散処理機能を実稼働環境に付加するようになる

分析:Roxane Edjlali、Mark Beyer

主要な所見:
2011年におけるエンドユーザーの新たなニーズと最新テクノロジの登場によって、一連の新たなベスト・プラクティスが台頭し始めているが、これらはデータウェアハウジング・アプローチにおける有意な分裂を示している。これらは、従来のデータ仮想化による統合リポジトリに、MapReduceやその代替手段のような分散並列処理のほか、セマンティクス解釈レイヤにおける動的な監視と最適化のアプローチを組み合わせたものである。ガートナーでは、この発展中のプラクティスを論理データウェアハウスと呼んでいる。

    ●論理データウェアハウスに関するガートナーの顧客との対話件数が増加しており、2009年においてデータウェアハウスに関する問い合わせの3%未満であったが、2012年中頃には8%を超えるようになった。サービス・レベル合意 (SLA) の期待値に比べ、監視統計を使用する原理 (戦略間の切り替えをより容易にするプロセス) の採用が急速に増加している。

    ●並行して、データウェアハウスDBMSベンダーは、こうした要件に関するニーズを理解しており、Hadoopディストリビューションのような、主要なMapReduceやその代替手段へのコネクタを提供している。同様に、データ統合ベンダーも、多様なデータ・タイプの採用に乗り出しており、これらの新たなリポジトリやデータ・タイプを全般的な情報インフラストラクチャの一部として、より容易に統合することを可能にしている。

    ●あいにく、セマンティクスの調和、動的な監視、最適化の多くのアプローチは、まだ対処されていない。またHadoopやMapReduceなどの非リレーショナル・リポジトリの多くは、データの共有性と再利用や、意味的な調和を実現するために必要なメタデータが不足している。

市場への影響:
論理データウェアハウス構想を実現する上で利用可能な既製のツールはまだない。結果として、主要な企業は、分散並列処理のような新しい専用のリポジトリを付加することで自社の情報インフラストラクチャを拡張し、リポジトリ間の切り替えによって監視と最適化の戦略を自ら管理してきた。

ほとんどの企業は、自社のデータウェアハウスを分散処理テクノロジによって拡張し、データの多様性の管理という課題に対処することを重視している。ガートナーの顧客との対話において、ビッグ・データの3つの特性のうち、多様性は通常ほかの2つよりも重視されている。ほかの2つが重要でないというのではなく、大多数の企業は、多様性の課題に対処することで最もビジネス価値を得られると考えている。

また、データウェアハウスDBMSベンダーやサービス・プロバイダーも、このユースケースに注目し、企業がより容易に利用できるようにしている。結果として、分散処理は、データウェアハウスの拡張として、あらゆる業種、あらゆる規模の企業を通じて急速に採用されることになる。

推奨事項:

    ●MapReduceやその代替手段などの分散処理機能を既に備えている企業は、メタデータ管理とセマンティクスの一貫性に重点的に取り組むことでそれを継続する。そうすることで、新たなタイプのデータのサイロが作られることを回避できる。

    ●自社のデータウェアハウスにコンテンツなどの新たなデータ・タイプを付加して拡張したいと考える企業は、情報ケイパビリティ・フレームワークを使用して、自社の情報インフラストラクチャの不足部分を特定し、論理データウェアハウスへと発展させる。

    ●データ統合ベンダーやデータウェアハウスDBMSベンダーは、永続性モデル間の切り替えのために戦略ベースのソリューションを提供することと併せて、情報のメタデータやセマンティクスの管理に重点的に取り組む。

    関連リサーチ:
     ・「Understanding the Logical Data Warehouse: The Emerging Practice」
     ・「The Logical Data Warehouse Will Be a Key Scenario for Using Data Federation」
     ・「Does the 21st-Century 'Big Data' Warehouse Mean the End of the Enterprise Data Warehouse?」

過去の予測
顧客からの要望に応え、今回ガートナーはこれまでの主要な予測を振り返ることにする。ここでは対極に位置する予測を意図的に選択している。すなわち、完全に (またはおおむね) 実現した予測と、実現しなかった予測である。このテーマは新しいため、実現した予測または実現しなかった予測はまだ存在しない。

    推奨リサーチ
     ・「Hype Cycle for Information Infrastructure, 2012」
     ・「ビッグ・データのハイプ・サイクル:2012年」(APP-12-106、2012年10月5日付)

    備考1 人材採用の課題
    人材採用の課題は、いくつかの公開文書において指摘されている。2011年のMcKinseyのレポート『Big Data: The Next Frontier for Innovation, Competition, and Productivity』( http://www.mckinsey.com/Insights/MGI/Research/Technology_and_Innovation/Big_data_The_next_frontier_for_innovation ) によると、「米国のみで、詳細な分析スキルを備えた人材の不足は14万〜19万人であり、またビッグ・データを分析し、所見に基づき意思決定を下せるマネージャーやアナリストの不足は150万人である」。同様に、2012年にダボスで開催された世界経済フォーラムの資料『Big Data, Big Impact: New Possibilities for International Development』における指摘によれば、「正確かつ実用的なデータマイニングと分析にはかなりの技術スキルが必要であり、データ・サイエンティストは供給不足であると同時に人件費が高い」。またChris Eaton、Dirk DeRoos、Tom Deutsch、George Lapis、Paul Zikopolous共著『Understanding Big Data: Analytics for Enterprise Class Hadoop and Streaming Data』(McGraw Hill Professional、2011年10月) の中で、IBMは次のように報告している。「過去5年間で、IBMは24件のアナリティクス関連の買収に140億ドル以上を投資した。今日、アナリティクス専任のIBMコンサルタントは8,000人以上であり、200人の数学者がIBM Research内で画期的なアルゴリズムを開発中である」

    (監訳:堀内 秀明)

APP: APP-13-45

※本レポートの無断転載を禁じます。

←INDEXに戻る

 

gartner.com
TOP OF PAGE
Copyright