作り物の「AI」バブルとサイバーセキュリティの未来

シリコンバレーでは「人工知能」(AI)がブーム、と書かれたニューヨークタイムズ誌の最近の記事は、サイバーセキュリティの近い未来と遠い未来の両方を多くの人に真剣に考えさせるきっかけになったと思う。

たとえばこんな問いだ。

  • 「AI」への熱狂的な関心はいったいどこから来ているのか。今のところ、未来学者の妄想の中でしか存在していないようだが、これはどこへ向かっているのか?
  • 良くても何十年も前に発明されたものを「発明」しているベンチャーや、最悪の場合はバブル状態でしかないことがいずれ明らかになるベンチャーに、投資家たちはあと何百億つぎ込むことになるのか?
  • 機械学習によるサイバーセキュリティ技術の開発で得られる真のチャンスは?
  • この素晴らしい新世界で果たす人間専門家の役割とは?

シリコンバレーでAIの熱狂的な信奉者と話をしていると、時に、福音主義者の集まりに参加する無神論者のような気分になる

ジェリー・カプラン(Jerry Kaplan)氏、コンピューター科学者、著者、未来学者、起業家(シマンテックの共同創業者のひとり)

現在の「AI」領域で起きていることは、シャボン玉に似通っている。サーカスの道化師がシャボン玉を膨らまし続けたら、いずれどうなるかは誰でもわかる。そう、破裂するのだ。

もちろん、大胆な一歩やリスクの高い投資がなければ、素晴らしい未来が現実になることはない。しかし、現在の問題は、「AI」(カギ括弧を付けたのはAIが現時点で存在しないからだ)の熱狂が広がりを見せる中で、スタートアップの幽霊企業が登場し始めたことだ。

スタートアップが何社かあったところでたいしたことはない、と言う人もいるかもしれない。

大問題なのは、こうした幽霊スタートアップ企業が「AI機械学習」を取り巻く高揚感の新潮流に乗って、100万単位どころか10億単位で投資を惹きつけていることだ。そもそも、機械学習は何十年も前から存在する。最初に定義されたのは1959年で、70年代に研究が進み、90年代に開花し、今なお開花し続けているのが現状だ!そして現在、この「新しい」技術は「AI」という単語に置き換えられ、最先端科学のオーラを身にまとった。こうして、もっともらしいパンフレットが作成され、華やかで洗練されたマーケティングキャンペーンが展開されている。これらすべては、奇跡を信じたいという人間に絶えず付きまとう弱さを狙ったもので、いわゆる「従来の」技術を巡る陰謀論も添えられている。しかも悲しいかな、サイバーセキュリティ業界もこの新しい「AI」バブルから逃げ切れなかったようだ…。

こちらサイバーセキュリティ業界では、あらゆるセキュリティ上の課題を解決し、すべてのサイバー脅威から全員を一気に保護する、まるで魔法のような新しい「革新的な」製品が展開されている。幽霊スタートアップ企業は、一般大衆の意見を操って現状に対する誤解を広める情報を流すためなら、一切手段を選ばない。

一方で現実はというと、こうした「革新的な」製品というマントの下を覗けば「最新技術」など存在しない。代わりにあるのは、蒸気機関車と同じくらい古い技術だけだ!とはいえ、マントの下を暴こうとする人はいない。そうすること自体を許す人も。現実から目をそらすことについては、こちらのブログで詳しく書いている。

加えて、こういったスタートアップ企業の一部には、IPOに至っているところすらある。初期に関わるベンチャーキャピタルの場合、すぐに転売すれば利益が得られるかもしれない。だが、長期的に見ると徹底的なまでに残念な株市場だ。ふざけたマーケティングに基づいた採算のとれないビジネスは利益を生まず、ピーク後の株価の急下降は止められないだろう。その一方で、現在進行形できらびやかに宣伝されるピラミッドマシンの代金は回収しなければならないが、安くはない。

大きな「AI」サイバーセキュリティベンチャーのどれ1つとして利益を出せていない

話を少し戻そう。

ベンチャーキャピタルが「ベンチャー」(投機的)と称される理由は、リスクを伴うからだ。良いベンチャーキャピタルは、数年後の利益を見据えて資金をいくら投入すべきか理解している。しかし、こと「AI」となると、話は微妙に異なる。大きな「AI」サイバーセキュリティベンチャーのどれ1つとして利益を出せていないのだ!では、なぜベンチャーキャピタルはシリコンバレーへの投機をAIベンチャーなどに注ぎ込むのか?いい質問だ。

シリコンバレーのほとんどのスタートアップが採用するビジネスモデルは、コストがかかる本気の研究には取り組まず、よく売れる便利な商品/技術を売ることを主目的としている(すべてがそうではなく、喜ばしい例外もいくつかある)。彼らはバブルを作りたい。投資家を惹きつけて、「将来的な利益に対する評価」に基づく株価で素早く利益を出し、(巨額の損失という)面倒は他人に押しつけたいのだ。もっとも、面白いのはここからだ。利益はこうしたモデルの障害にしかならないのだ!

どれだけ儲けられるかって話じゃない。その企業に投資する価値がどれだけあるかだ。じゃあ、どんな企業に最も投資すべきか?それは、損失を出している企業だよ

米テレビドラマ「シリコンバレー」(2014年)

これは、米テレビドラマ「シリコンバレー」の中で75秒にまとめられていた、典型的なビジネスモデルの説明だ(奇抜で面白いドラマではあるが、まさに現実に即している!)。

AIバブルは、2008年に米国で起こった不動産バブルを思い起こさせる。バブルで作られた雪だるまは、あっという間に世界的な金融危機へと発展した。サブプライム住宅ローンに基づく巨額の投資は、多くの人にフィットした。数百万人が実にうまくやり、何千人かは大きな利益を得た。そして…どっかーん。ピラミッドは崩壊し、世界経済に影響が発生。金融的アルマゲドンを避けるために、納税者のお金で穴が埋められた。納税者とはもちろん、初期の段階で金儲けした人や企業のことだ。この10年間の詐欺スキャンダルをご存じない方は、映画『マネー・ショート 華麗なる大逆転』を観るといい。

それもたいしたことがないと言わんばかりに、AIバブルにはさらに危険が隠されている。サイバーセキュリティにおける最も将来性のあるサブ分野の1つである機械学習の信用を貶めていることだ。

AIバブルは、サイバーセキュリティで最も将来性のあるサブ分野の1つ、機械学習の信用を貶める

何がそんなに「危険」なのか。機械学習があるおかげで、私たちはここ数十年で天文学的数字に急増した莫大なデータに溺れずに済んでいる。

たとえば、不正なプログラムの数は10年間で1,000倍に増えた。今世紀初頭は、1日に300種類のマルウェアを分析する程度だった。今やその数字の後ろに3つもゼロが付いている。では、アナリストの数は何倍になったのか。4だ。そんな人数で、どうやって対応に追いついているのか。それは2単語に尽きる。機械学習だ。

そして現在、Kaspersky Labでは99.9%の攻撃者を自社の自動化システムで検知している。アナリストは何もすることがなくなって笑っていそうなものだが、実際はほど遠い。アナリストはこれらシステムがより効果的に機能するよう微調整し、新しいシステムの開発に注力している。

たとえば、Kaspersky Labには本当に複雑なサイバー攻撃を暴くだけのエキスパートがおり、彼らはその新しい知見やスキルを自動化システムに移転する。また、機械学習のさまざまなモデルや手法を検証するデータサイエンスのエキスパートもいる。

幽霊スタートアップとは違い、私たちは巨大なクラウドインフラを使ってユーザーを守っており、それによって複雑なタスクを迅速かつ効果的に解決している。それ故に私たちは、異なる機械学習モデルを多数採用している。

手作業で調査するのは、最も複雑で変わった事例に遭遇したときくらいだ。それでも、ほぼすべての作業を機械が肩代わりしていても、未だに専門家を十分確保できないのが現状だ。しかも、Kaspersky Labのアナリストに要求される特定要件は、永遠に増え続ける。

「AIが世界を救う」という茶番は、いずれ終わる。専門家はいんちき「AI」商品を検証できるようになり、顧客は騙されていることに気付き、投資家は興味を失うだろう。それでは、機械学習をさらに進化させるにはどうすればよいのだろうか。

シリコンバレーは1980年代にも偽のAIスタートアップに悩まされており、古い世代の起業家たちもAIは未来の潮流であると信じ込み、スタートアップを乱立させた。だが、彼らの製品のビジネス価値は乏しく、商業的な熱狂は失望に終わり、こうして「AIの冬」と呼ばれる期間に入る

ジョン・マーコフ(John Markoff)氏、ニューヨークタイムズ

AIバブル崩壊の余波で、類似の分野は間違いなく損害を被るだろう。「機械学習?ニューラルネットワーク?ふるまい検知?コグニティブアナリシス?うわぁあぁ。AIが添えられたバズワードがさらに登場するのだろうか?もう十分だ。知りたくもない。そんなのはまっぴらだ!」

しかも、事態はさらに悪くなる。AIバブルの呪いは、何年にもわたって期待の技術に対する関心を鈍化させるだろう。80年代がそうだったように。

それでも、既存のベンダーはスマートテクノロジーに投資を続けるだろう。たとえばKaspersky Labは高度な標的型攻撃を検知し、未来の脅威(そう、まだ存在しない脅威だ!)を未然に防ぐためのブースティング決定木学習の技術を発表した。

バブルの呪いは、何年にもわたって期待の技術に対する関心を鈍化させるだろう。80年代がそうだったように

特に見込みがあるのは、あらゆるレベルのインフラにおけるイベント相関図の複雑度を向上させ、データ分野のさらなる機械分析を進化させることで、最も複雑なサイバー攻撃を正確かつ確実に検知するという発展領域だ。これら機能はすでにKATAプラットフォームで採用されており、さらなる開発を期待している。

では、誠実な機械学習のスタートアップはどう立ち回ればいいのだろうか。悲しいかな、AIという用語の乱用は発展を阻害するに他ならない。

だが、それで発展が止まるわけではない。ペースは落ちるが、今後も継続するだろう。

人類はゆっくりながらも確実に、日常の最も小さく些末な作業に至るまで、太陽の下にあるすべてのものを自動化する方向へと進んでいる。しかもそれは、単なる自動化ではなく、超高度な機械学習アルゴリズムに基づく、人間と機械間の適応性のあるインタラクションだ。私たちはすでに適応型インタラクションを目にしており、さまざまに異なるアプリケーションへと普及するそのスピードには恐怖すら覚えるほどだ。

サイバーセキュリティ分野でも、ますます自動化が進むだろう。

たとえば、重要インフラの安全を守るために(自動道路交通管理などのロボット化の観点も含む)「スマートシティ」の枠組みにセキュリティを組み込むソリューションは、すでに存在する。また、専門家不足もさらに深刻になるだろう。原因はテクノロジーが普及するからではなく、個人の技能への要求がますます高まるからだ。サイバーセキュリティの機械学習システムには、百科事典的な知識と(ビッグデータ、コンピューター犯罪のフォレンジックおよび捜査、システムおよびアプリケーションのプログラミングなど)幅広い分野の研ぎ澄まされたスキルが求められる。こうした広範かつ特定の知識や経験を持つ人間など、なかなかいない。だからこそ、彼らは唯一無二でハイクラスの、世界で戦える専門家なのだ。これらすべてを機械に教え込むのは、簡単なことではない。だが、スマートテクノロジーの真の発展を目指すには、実行するしかない。他に方法はない。

そんな未来の素晴らしい新世界は、誰が取り仕切るのだろうか。人間はまだロボットを制御できているだろうか。それとも、ロボットが人間を管理しているのだろうか。

人間と機械の融合は最も可能性があるだけでなく、人類の発展において最もメリットのある道筋だ

1999年、レイモンド・カーツワイル(Raymond Kurzweil)氏は知識の共生に関する理論を提起した(ただし以前にも似たようなアイデアはあった)。それが、人間と機械の融合だ。人間の知識とスーパーコンピューターの巨大な処理能力とを組み合わせたサイバネティク有機体だ(「ヒューマシンインテリジェンス」)。これはSFではない。すでに起こっている。僭越ながら私の考えを述べさせてもらうと、その進歩が継続する可能性が高いだけでなく、人類の発展において最もメリットのある道筋だと思う。

では、人間と機械の融合が技術的特異点へと発展するのだろうか。人間は現状を把握できなくなり、やがて機械が世界を完全かつ取り返しがつかないまでに支配するようになるのだろうか。

純粋な「機械」AIの重要な特徴は、人間の介入なく自身を永遠に改善、完成させ、いずれは与えられたアルゴリズムの範疇を超えてさらに成長できる能力があることだ。言い換えれば、純粋な機械AIは知性の新たな形態だ。「アルゴリズムの範疇を超える」遠い(ただし理論的には可能性が高い)未来が来たその日、今ある世界の終焉が始まるだろう。そして人類のメリットと言えば、ロボット三原則にあるように、機械がいずれ精神的苦痛や存在の負担を取り除いてくれることであるだろう。

AIはサイバーセキュリティの真のブレークスルーか、それともただのバズワードか? @E_KASPERSKY 、AIバブルを斬り、機械学習に賛辞 #AI_OILTweet

または、いつもたいていの場合はそうであるように、プログラマーがコードにバグをいくつか残すかもしれない。どうなるかは、もう少し様子を見るとしよう…。

コメントを読む 0
コメントを書く