あっという間に、どこにでも現れるようになった。
ついこの間まで、チームはFAQに答えるための簡単な社内チャットボットを作ろうとしていたはずが、気がつけば数百ものAIエージェントが、それぞれ微妙に異なるアクセス権限を持ち、情報漏洩はザル状態、そして誰もそれが一体何をしているのか、さっぱり分かっていない。見覚えがあるだろうか? IT業界にいるなら、そうであって当然だ。Rubrik ZeroLabsの新しい調査は、ITマネージャーの77%がAIエージェントの制御が限界に近づいていると感じていると、まさに屋根の上から叫んでいるようなものだ。正直、私の目には驚きはない。この映画は何度も見たことがあるが、結末はいつも、かなりの苦痛と、高額な請求書を伴うのだ。
「エージェント・スプロール」現象:デジャヴュか?
この「エージェント・スプロール」とでも呼ぶべき状況は、クラウド採用の初期段階と全く同じ兆候を示している。覚えているだろうか? アジャイルでありたいと焦るチームが、なりふり構わずクラウドインスタンスを立ち上げ、その時点で一番簡単に見えたベンダーを使っていた。その結果は? 断片化された、互いに連携しないサービス、一貫性のないガバナンス、そしてトラックが通り抜けられるほどのセキュリティホール。どうやら、AIエージェントも同じ道をたどっているようだ。MicrosoftのKriti Faujdar氏も、まさにそのことを指摘しており、正直、反論の余地はない。
「私たちはすでに、初期のクラウド採用と似たようなパターンを目にしています。チームが異なるフレームワークやベンダーを使って、独立してエージェントを立ち上げているのです。これにより、断片化、一貫性のないガバナンス、そして隠れたセキュリティギャップが生じます。」
これは単なる少数の不正スクリプトの問題ではない。これはシステム的な問題だ。AIエージェントがもたらすはずの生産性向上は、それらが物事を壊さないように維持するために必要な手作業によって、完全に食い潰されているという、極めて現実的な可能性について話しているのだ。ITマネージャーの81%は、すでにこれらのエージェントの面倒を見るのに、エージェントが節約するはずの時間よりも多くを費やしている。そしてセキュリティは? 諦めるしかない。ユーザーはVPNを無効にし、セキュリティコントロールを迂回してまでエージェントを稼働させている。それは、壊れやすい明時代の壺がたくさんある部屋で、幼児にキャンディーを配るようなものだ。
実際に儲かっているのは誰か?
これは私が夜も眠れなくなるほどの疑問だ。プラットフォームを販売するベンダー? 言うまでもない。彼らは、楽なAIという夢を売って、大儲けしている。しかし、これらのものを展開している企業はどうだろうか? まだ計算が合わない。開発費、監視費、そして何かが必ずうまくいかなくなった時の、避けられない事後対応の費用を払っている。そして彼らが得ているものは? 彼ら自身のセキュリティ体制を積極的に損なっている、管理不能なAIプログラムの群れだ。皮肉は、あまりにも高くつくことを除けば、ほとんど詩的と言えるほどだ。
「元に戻す」ボタンの憂鬱
もう一つ、衝撃的な事実がある。ITマネージャーの実に86%が、AIエージェントの増殖は、今後1年間でセキュリティ対策を上回ると予想している。半数以上は、6ヶ月以内に起こると考えている。そして、決定的なのは? ほぼ全員が、エージェントのアクションを元に戻す基本的な能力に欠けていることを認めている。では、エージェントが何かを台無しにした場合――例えば、重要なファイルを削除したり、機密データを誤って公開したり――どうなるのか? 運が悪かったと? 実質的に、オフスイッチのないデジタル爆弾を作ってしまったようなものだ。
ここで、議論は「AIをどれだけ速く展開できるか?」から、「AIを責任を持ってどう構築するか?」へとシフトする必要がある。Coalition for Secure AI の主任エンジニア、Nik Kale氏は的確に指摘している。「APIアクセス権を持つチームなら、一晩でエージェントを立ち上げることができます。それを大企業全体に広げると、重複する権限を持つ数百のエージェント、一貫したIDモデルを持たず、完全な在庫を把握できる誰もいない状況が生まれます。」これは些細なバグではない。これは根本的な問題だ。
これが「仕事の未来」か、それとも単なる「将来の頭痛の種」か?
Rubrikレポートによると、ITマネージャーがデプロイ後に答えなければならない5つの質問――それは何をしたか? なぜそれをしたか? 何に触れたか? 安全に成功したか? どこで失敗したか?――を見ると、我々がまだそこに到達していないことは明らかだ。これらは基本的な監査の質問であり、現時点では、ほとんど答えられていない。この可視性なしに、誰が許容される行動を定義し、アクセスを監査し、人間の監視を実装し、あるいは、災害を防ぐことができるだろうか?
再びKriti Faujdar氏。「組織は迅速に進みたいと考えていますが、明確なガードレールがなければ、信頼、監査、または拡張が困難なシステムを作成するリスクを冒します。勝者は、エージェント管理を後回しではなく、最優先事項として扱う人々になるでしょう。」それが核心だ。これは単なるソフトウェアアップデートではない。これは、ほとんどの組織が明らかに備えていない、全く新しいレベルの規律を必要とする、自律システムの新しいパラダイムなのだ。
モデルドリフトの話は言うまでもない。Liberty91の創設者、Renze Jongman氏は、これらのエージェントが構築されている基盤モデル自体が時間とともに変化すると指摘している。先月認定したエージェントが、今では完全に異なる動作をしている可能性がある。あなたのガバナンスモデルは、硬い棒ではなく、ゴムバンドである必要がある。
よくある質問
AIエージェントのスプロールとは何ですか? AIエージェントのスプロールとは、組織内でのAIエージェントの制御不能な増殖を指し、断片化、一貫性のないガバナンス、およびセキュリティ脆弱性につながる。
私の仕事はなくなりますか? AIエージェントはタスクを自動化できる一方で、それらを管理、監査、および保護するための新しい役割も生み出す。当面の懸念は、管理の不十分なエージェントが、大きなメリットをもたらすよりも問題を引き起こす可能性が高いということだ。
AIエージェントをどのように制御できますか? 効果的な制御には、明確なガバナンスポリシーの確立、すべてのエージェントのインベントリの維持、強力な監査およびテレメトリの実装、許容される動作の定義、およびロールバックメカニズムを含む適切なセキュリティガードレールの確保が含まれる。