データ ウェアハウスの機能強化
詳細はこちら
ウィキペディアによると、ビッグデータとは「従来のデータ処理アプリケーションで処理することが困難なほど大規模または複雑なデータセットの集合体を包括的に指す用語」のことを指します。テラデータでは、ビッグデータをいくつかの「V」(量、多様性、速度、変動性、真実性)と表現することがあります。これらの観点は、ビッグデータの収集、保存、管理、分析、そしてビッグデータを活用してもっとも重要な「V」である「価値」を生み出すための複雑さと難しさを表しています。今日の厳しいビジネス環境の中で、競合他社よりも迅速に顧客のニーズに適応し差別化を図る企業は、すなわちトップ企業は、ビッグデータによる分析を頼りにしてます。こうした企業は、目的を持って体系的にビッグデータを活用し、アナリティクス分析と組み合わせ、より良いビジネスの成果を得るための機会を見出すことができるのです。
成熟した企業にとって、人工知能 (AI) や機械学習と組み合わせたビッグデータ分析が、さらに複雑なビジネス課題の解決に役立っています。
顧客体験(カスタマーエクスペリエンス): 顧客中心であり、顧客体験を最適化することで、競争力を高める
財務変革: 財務および会計プロセスを通じて新たな企業価値の創出と戦略的インプットを提供する
製品イノベーション: より安全で、需要があり、収益性の高い製品を創造し、それを繰り返す
リスク軽減: 金融詐欺やサイバーセキュリティリスクへの露出を最小限に抑える
資産の最適化: IoTやセンサーデータを活用して資産価値を最適化する
オペレーショナル・エクセレンス: 人員、設備、その他のリソースを活用し最高のパフォーマンス価値を実現する
ビッグデータは、多くの場合、データセットが巨大かつ複雑で、標準的なツールを使用して操作またはクエリを実行することができません。ビッグデータに全面的に取り組んでいる企業、つまりビジネスケースを定義し、試験的な「サイエンスプロジェクト」の段階を超えて運用する準備ができている企業であっても、ビッグデータをどのように活用するかを検討する必要があります。
大規模な宣伝文句や、様々なビッグデータ技術の選択肢やベンダーの存在は、適切な答えを見つけることを必要以上に難しくしています。目標とすべきことは、低コストで複雑性の低い基礎となるビッグデータ環境を設計、構築することです。また、組織全体を真のデータ分析中心に導くのに十分な安定性、高度な統合性、拡張性を備えていなければなりません。データと分析の中心性とは、ビッグデータとビッグデータ分析の力を、それらを必要とする組織のすべての部分で利用できる状態のことです。基盤となるインフラストラクチャ、データストリーム、およびユーザーツールセットがあれば、価値あるインサイトを発見し、より良い意思決定を行い、実際のビジネス上の問題を解決することができます。
ビッグデータを活用するためには、ビッグデータをエンジンと見立てる必要があります。パフォーマンスを向上させるには、シームレスに、安定的に、また持続的に適切なコンポーネントを組み立てる必要があります。これらのコンポーネントには、次のものがあります。
データソース: 業務システムや機能システム、マシンログやセンサー、Webやソーシャルなど、様々なソース。
データ・プラットフォーム、ウェアハウス、およびディスカバリー・プラットフォーム: データの取得と管理を可能にし、さらに重要なこととして、データを顧客のインサイトに変換し、最終的にはアクションにつなげることができます。
ビッグデータ分析ツールおよびアプリケーション: 経営幹部、アナリスト、マネージャーなどが、顧客のインサイトにアクセスしたり、シナリオをモデル化したりする際に使用する「フロントエンド」です。
この段階では、ビジネス価値を生み出すために、ビッグデータ資産のフル・パワーを最大限に活用することが求められます。そのためには、戦略的なビッグデータの設計と、現在のデータの流れやリポジトリを調べるだけでなく、特定のビジネス目標や長期的な市場動向を考慮した、思慮深いビッグデータ・アーキテクチャが必要です。つまり、ビッグ データを機能させるための決まったテンプレートは存在しないということです。
ビッグデータの重要性が今後さらに高まることを考えると、これらのインフラストラクチャは将来の業務の基盤になるものと考えられます。確かに設備投資には多額の費用がかかるかもしれません。しかし、多くの先進的な企業やビッグデータをいち早く導入した企業は、適切なビックデータ環境を設計することが最終的にはコスト削減につながるという、意外でやや直感に反する結論に達しています。驚きべきことといえば、これらのコスト削減は驚くほどに大きく、比較的すぐに達成できることです。
ここで重要なのは、柔軟なフレームワークを導入することで、ビッグデータの技術やプログラムが企業の複数の部分をサポートし、ビジネス全体の業務を改善できるということです。そうでもなければ、先進的で野心的なビッグデータ・プロジェクトであっても、迷走した投資に終わってしまうという危険性があります。Gartner社は、ビッグデータ・プロジェクトの 90% が企業全体で活用または繰り返されると推定しています。明日のビッグデータの勝者は、この10%内に入っており、微小なことにとらわれるのはとっくにやめています。
データセットをシームレスに利用: データセットの混合、結合、対比によって多くの利点がもたらされるため、統合なくして分析によるイノベーションはあり得ません。
柔軟性と低コスト: 複雑性が低く、低コストでありながら、大規模化や特定のユーザーグループを対象とした将来的なニーズに合わせて対応できる柔軟性を備えていることが目標です。
安定性: データ量が膨大で、ユーザーが簡単にデータにアクセスして操作する必要があるため、安定性は非常に重要です。この意味で、インフラストラクチャのパフォーマンスは、ビッグデータによってビジネスパフォーマンスを向上させるための鍵を握っています。
再利用性の低さは、大部分が統合性の低さに起因しています。実際、ビッグデータを成功させるための方程式において、統合がもっとも重要な変数である可能性があります。
Forrester Research社は、ビッグデータの価値の80%は統合によってもたらされると述べています。ビッグデータの価値を高めるには、適切なユーザーが容易にアクセスでき、強固で明確に定義されたビジネス・ルールとガバナンス構造が必要であるというのが、大局的な考え方です。より深いデータ セット (従来のトランザクションデータや長い顧客の履歴) は、信頼性の高いストレージと堅牢なデータ管理があれば十分で、データサイエンティストやデータエクスプローラが、必要に応じてデータ検討やモデル化を行うことができます。
ビッグデータの統合とは、大きく考えることでもあります。この場合の「大きく」とは、全体的、包括的かつ多次元的にということを意味します。点と点をつなぎ、データの塊をつなぎ、機能的なサイロを(完全に破壊しないまでも)相互に接続しなければなりません。
高度に統合されていること。上手に設計されたエコシステム。統一されたアーキテクチャ。データとアナリティクスの中心性。これらの短いリストは、ビッグデータプログラムを機能させるために、必ずしもすべてのコンポーネントや技術的詳細を必要とするものではありません。しかし、これらの要素は、ビッグデータプログラムを効果的に機能させるための重要な要素であることは間違いありません。