IBMが“コンピュータの巨人”と
呼ばれていた時代との違いは?
「Web 2.0」ということばは、Webブラウジングをしていても、電車に乗っていても見聞きするようになった。もはやIT用語という域を脱し、一般用語になったと言ってもよいほどだ。
Web 2.0という概念が、なぜ、このタイミングで登場したのかを考えたことがあるだろうか。もちろん「Google」や「Amazon」といったサービスが出現したからだが、では、それらのサービスが出現した背景には、いったい何があったのかをご存じだろうか。これをきちんと説明できる人は少ないだろう。
IBMが“コンピュータの巨人”にのし上がったときのことを覚えているだろうか。当時、インターネットはまだ登場していなかった。フリーソフトウェアやオープンソースという概念もなかった。また、テクノロジーの標準化も叫ばれていなかった。現在とは、このような違いがあったはずである。
IBMが圧倒的なシェアを握った当時のコンピュータは非常に高価であり、1台のシステムで数億円以上もした。当然のことだが、コンピュータ上で稼働するソフトウェアを開発するには、その開発環境を用意する必要がある。だが、コンピュータそのものが、大企業でなければ購入できないほど高価な代物だったので、中小規模のソフトウェア会社が開発用としてコンピュータを導入することは不可能だった。“時間貸し”のサービスも提供されていたが、これも非常に高価だった。
このような状況下では、コンピュータの世界のビジネスモデルは、大資本が多額の投資を行い、長い月日を経てそれを回収していくという方式にならざるをえない。このため、低価格商品のように大量生産されることはなく、“多品種少量生産”の典型的な業態となった。
そうなると、業界は自然と「元請け」「下請け」といった階層構造を採るようになる。この階層構造では、何らかのアイディアを持った優秀なプログラマーがいたとしても、みずからリスクを背負って開発することはできない。大資本に対してビジネスとして認めさせなければ、開発環境すら用意できないからだ。
当時は、コンピュータだけでなく、ネットワークも非常に高価だった。しかも低速であり、信じられないかもしれないが、当初は公衆電話網をデータ通信で使用することが規制されていたほどだった。ダイヤルアップで使用する場合でも通信コストは非常に高かったため、コンピュータネットワークは、ある特定のアプリケーションを利用するための専用ネットワークでしかなかった。日本最初のオンラインシステムと言われる国鉄の座席予約システムや銀行のオンラインシステムは、まさにこの形である。現在の概念で言えば、これはネットワークではなく、単なる“線”となるだろう。
コンピュータやネットワークがこのような状態だったため、対象とする市場は大型かつ汎用性の高いものにならざるをえなかった。市場の大半に受け入れられるものでなければ、高い開発費を投資するわけにはいかなかったからだ。もちろん、各ユーザーのニーズに合わせて細かなチューニングが必要ではあったが、数百万人もの“マス向け”ではなく、たかだか数万人を対象とするものなので、人海戦術による対応が可能だった。そして、それを引き受けるのは、一次代理店となる大手システムインテグレーター数社のみであり、彼らだけで業界全体をほぼ手中に収めていた。逆に言うと、あるユーザーの特定のニーズや、ニッチマーケット向けのシステムは無視せざるをえなかったのである。
PCの高性能化と低価格化で
状況が一変
ところが、PCの高性能化と低価格化という2つの巨大なうねりがこの状況を一変させてしまった。現在では、クライアントPCが搭載するCPUとサーバマシンが搭載するCPUの性能には、ほとんど差がない。稼働するOSもほとんど同じである。また、オープンソースのOSも登場し、必要に応じて自分でコードに手を加えることも可能となっている。
PCの普及とともにインターネットの利用者も増え、やがて世界中がネットワーク化された。コンピュータよりも遅れて登場したネットワークのほうが、オープンかつ“集中管理者”を不要とする世界を先に築き上げてしまったわけだ。インターネットに接続したユーザーどうしならだれとでも通信できるということは、専用のネットワークしかなかった時代には考えられなかったことだ。こうして、コンピュータとネットワークそれぞれの進化に伴って「ネットワークコンピューティング」という概念が発展し、異なる拠点にある複数のコンピュータで構成されたシステムを構築できるようになった。
高価かつ低速だったコンピュータとネットワークが安価かつ高速になったことにより、これまでと異なり“ニッチ”の市場をターゲットとするビジネスが可能となった。しかし、この段階でも根本的な仕組みは変わらなかった。すなわち、アプリケーションやネットワークシステムを構築する側(=ベンダーやシステムインテグレーター)と、それを使う側(=ユーザー企業)は、明確に分けられていた。ユーザーにカスタマイズをさせたり、ユーザーでも簡単に操作できるとうたわれた簡易言語のようなものも提供されたが、ごく限られた使用にとどまり、やはり核となる部分は、大手システムインテグレーターによって構築されていた。ネットワークレベルでは標準化が進んだが、その上で稼働するアプリケーションのレベルまで完全にオープン化されたわけではなかったからである。
作り手と使い手が同じになると
何が起こるのか?
ところで、ユーザー企業の情報システム部のスタッフに求められる能力とは、いったい何なのだろうか。一昔前であれば、コンピュータを操作できるだけでスキルがあると見なされたが、PCが普及した現在では、ほとんどの人がコンピュータを操作できる。例えば、Excel関数については、情報システム部のスタッフよりも詳しい人が社内にたくさんいるはずだ。
現在の情報システム部に求められる能力をひと言で表すと、「大量のデータを抽象的に操作・管理できること」であると言えるだろう。PCに保存されているデータは、個人で使うかぎり、多くても1万件程度のはずだ。いざとなれば、1つ1つ確認することが可能な量である。それに比べて、情報システム部で管理するようなシステムが取り扱うデータは、おそらく数百万件以上であり、情報システム部はそれらのデータが正規のものであることを保証する必要がある。もちろん、データを1つずつチェックすることは不可能なため、個々のデータを大きな集合ととらえ、そこに対して行われた操作からデータの整合性を保証しなければならない。これは、PCだけで育った一般ユーザーには決してマネのできない技術である。
そして、整理された大量のデータの中から有効な情報を抽出・加工することが、まさに企業の基幹情報システムの役割であると言えるだろう。それを構築・メンテナンスできるのが情報システム部のスタッフやシステムインテグレーターのSEである。したがって、安価かつ高速なコンピュータやネットワークが登場しても、作る側と利用する側が分けられているという構造は変わらなかったのである。
Web 2.0とは、この構造を変えるものである。すなわち、大多数のインターネット利用者が新しいアプリケーションを開発・提供するようになり、作る側というこれまで特別な存在だったものを普通にしてしまう動きなのだ。そのかぎとなるのが、ブログのようにだれでもWebページを開設できるような簡易な開発環境と、大量のデータを管理しながらそれを扱うためのインタフェースを一般ユーザーに対して簡単かつ安価に、場合によっては無償で提供する存在の出現である。その典型的な例がGoogleである。大量のデータを管理するスキルを持っているがゆえに大量のデータを独占管理し、“情報システムアプリケーションヒエラルキー”の頂点にいた人たちから、その権利を奪おうとしているのだ。
また、数億人のユーザーが開発すれば、自然淘汰によってよりよいものが提供されるため、これまでの仕組みの中で開発された製品やサービスよりすぐれたものが登場する可能性が高い。ニッチであろうが、最初はほとんど利用者がいないと言われようが、作る人は存在するはずであり、それがブレークする可能性もある。また、どこにどのようなものがあるかについても、大量のデータを管理しているGoogleが教えてくれるので、従来のように宣伝にコストをかける必要もない。
これまでは、プロと呼ばれる人たちが製品やサービスを開発・提供し、ユーザーがそれを利用することにより支払う対価でビジネスが成立していた。だが、Web 2.0では、プロと呼ばれていた人たちが数億人規模のユーザー兼提供者と競争しなければならなくなる。この影響は、ネット社会だけでなく、リアル社会にも大変革をもたらす可能性が高いだろう。
(NETWORKWORLD 2006年11月号掲載)
一丸智司 著者プロフィール
|
大手ネットワーク機器商社のストラテジックマーケティング室長。エンドユーザーへのネットワークコンサルティングとSIベンダーに対するマーケティングサポートで豊富な実績がある。通信・ネットワーク業界の事情通として知られている。
|
|
|
|