AI Ethics

Google AI名誉毀損訴訟:ミュージシャンが150万ドルで提訴

GoogleのAI Overviewが、ついにこの巨大テック企業を法廷に引きずり込んだ。カナダのミュージシャンが、AIによる凶悪犯罪の濡れ衣を着せられたとして150万ドルを求めて提訴。AIの法的責任を巡る議論が再燃している。

Google AI Overviewが表示されている検索結果ページのスクリーンショット。アシュリー・マックアイザックの名前が含まれている。

Key Takeaways

  • グラミー賞受賞ミュージシャンであるアシュリー・マックアイザックが、Google AI Overviewによる虚偽かつ名誉毀損的な内容により、150万ドルでGoogleを訴えている。
  • 訴訟によると、GoogleのAIはマックアイザックを性犯罪者および有罪判決を受けた犯罪者と誤って特定し、コンサートのキャンセルや評判への損害を引き起こした。
  • この訴訟は、AI生成された誤りに対する説明責任を求め、テクノロジー業界の既存の法的保護に異議を唱えることで、AIの法的責任という極めて重要な問題に光を当てている。
  • Googleの対応とAIの「ハルシネーション」という継続的な問題は、AIの正確性における構造的な問題と、より厳格な監視の必要性を浮き彫りにしている。

データセンターで唸りを上げる人工知能の中で、あまりにも頻繁に起きる光景だ。膨大なデータセットで学習したシステムが、自信満々に情報を吐き出す。だが、今回はその情報が単に間違っていただけではなかった。破壊的で、犯罪的なほどに間違っていたのだ。

アシュリー・マックアイザック、カナダ音楽界で確固たる地位を築き、3つのグラミー賞受賞歴を持つアーティストが、Googleを150万ドルで提訴している。その告発内容は? GoogleのAI Overview機能が彼を名誉毀損し、女性や子供に対する罪を犯した有罪判決を受けた性犯罪者として描き出し、さらには終身刑の国家性犯罪者登録簿に掲載したというのだ。

悪夢の展開

その影響は迅速かつ残酷だった。マックアイザックをコンサートに招いていたシプクネカティック・ファースト・ネーション(先住民コミュニティ)が、彼の出演をキャンセルした。なぜか? Googleで読んだ情報を持つ一般市民からの苦情が殺到したからだ。後に、このファースト・ネーションは「AI支援検索によって生成された不正確な情報」に基づいた決定だったと認め、公式に謝罪したが、既に手遅れだった。マックアイザックは、その偽のレッテルにより、ステージ上での安全を恐れ、「具体的な恐怖」を感じていると語った。

オンタリオ州高等裁判所に提出されたマックアイザックの訴訟は、単に指弾するだけではない。Googleの過失を詳細に分析している。訴状は、GoogleがAI生成コンテンツの「予見可能な再版」に対して責任を負うと主張し、同社が「AI Overviewが不完全であり、真実でない情報を返す可能性があることを知っていた、あるいは知るべきだった」と論じている。これは単なるバグではない。適切なセーフガードなしにこれらのシステムがデプロイされることへの、根本的な非難なのだ。

訴訟によると、特に腹立たしいのはGoogleの対応だという。マックアイザックは、Googleが彼に連絡を取ることも、謝罪することもなかったと主張している。彼の法務チームは、Googleの「無頓着で無関心な対応」が、加重損害賠償と懲罰的損害賠償を正当化すると論じている。その主張は明白だ。もし人間がGoogleの代理としてこのような虚偽の告発をしたら、Googleは重大な罰金に直面するだろう。Googleが作成し、管理するソフトウェアボットだからといって、同社が同様の責任を免れるべきだろうか?

「もしGoogleの代理として人間がこれらの虚偽の告発を行ったとしたら、相当額の懲罰的損害賠償が正当化されるだろう。Googleが自社で作成・管理するソフトウェアによって名誉毀損的な声明が公開されたからといって、Googleの責任が軽減されるべきではない。」

不正確さのパターン

この事件は、特に悪質ではあるが、GoogleのAI Overviewにとって孤立した異常というわけではない。我々は、この機能が情報を幻覚(ハルシネーション)し、出典を捏造し、意見を事実として提示する事例を目にしてきた。これらのAI生成要約が、その実験的な性質や誤りの可能性についての明確な免責事項なしに、主流の検索結果に統合されるスピードは、情報の一貫性を重視する者にとって率直に言って憂慮すべきペースで加速している。

12月、マックアイザックが最初にプレスに語った際のGoogleの広報対応は、企業的な回避の模範例だった。広報担当者は「AI Overviewは、最も役立つ情報を示すために頻繁に改善されており、回答の質に多額の投資を行っています。問題が発生した場合――例えば、当社の機能がウェブコンテンツを誤解したり、文脈を一部見落としたりした場合――それらの例を使用してシステムを改善し、当社のポリシーに基づいて対応を取ることがあります。」と述べた。これは、人々の評判や生活がかかっている時に、ますます不十分に感じられる謝罪と反復のサイクルだ。

驚くべきことに、この記事の執筆時点では、マックアイザックに関するAI Overviewには「2025年後半から2026年にかけて、彼はGoogleに対する法的措置でヘッドラインを飾った」という記述が含まれている。これは、AI自身がその alleged な不正行為を記録しているという、ぞっとするような自己言及的な更新だ。それは、まさに問題そのものへのメタコメントであり、デジタルなウロボロス(自己言及的な構造)だ。

責任の綱渡り

この訴訟は、AIの法的責任という thorny な問題を、ほぼ眩しいほどの強度でスポットライトに当てる。長年、テック企業は、米国の通信品位法(Communications Decency Act)第230条のおかげで、ユーザー生成コンテンツに対する限定的な責任の保護の下で、おおむね運営されてきた。しかしここでは、Googleは単にコンテンツをホストしているのではなく、それを合成された権威ある要約として積極的に生成し、提示しているのだ。この区別は極めて重要だ。

AI Overviewは「製品」なのか、それとも「サービス」なのか? それらは編集コンテンツなのか、それとも単なる既存のウェブページのキュレーションなのか? これらの質問に対する法的回答が、AIデプロイの未来を形作るだろう。もしGoogleが、そのAIによって生成された事実誤認に対して責任を問われることになれば、AI開発とデプロイの経済学が根本的に変化する可能性がある。マックアイザックの訴訟が勢いを増せば、同様の訴訟の波が予想される。市場の力学は明確だ。欠陥のあるAIによって実証可能な経済的損害が発生する場所には、訴訟が発生するだろう。

これはイノベーションを殺すためのものではない。責任を要求するためのものだ。AIが法的または倫理的な真空の中で運営される時代は、急速に終焉を迎えつつある。データは疑いの余地がない。AIは強力であり、力には説明責任の義務が伴う。アシュリー・マックアイザックの訴訟は、単なる法廷闘争ではない。AI企業が、そのアルゴリズムを通してフィルタリングされる個人たちの基本的な権利を尊重することなく、情報という境界線を押し広げ続けることができるかどうかの、重要なテストケースなのだ。

なぜGoogleのAI Overviewにはこれほど重大な問題があるのか?

GoogleのAI Overviewは、広範なオンラインソースから情報を引き出している。課題は、AIによるこのデータの解釈と統合にある。AIがトレーニングデータやソース資料に基づかない情報を生成するハルシネーション(幻覚)は、自然言語処理の固有の複雑さと、LLM(大規模言語モデル)の確率的な性質により発生しうる。トレーニングデータの質と多様性、要約に使用される特定のアルゴリズム、AIが異なるソースをどのように評価するかといった要因すべてが、その正確性(あるいはその欠如)に寄与している。AIが相反する、あるいは曖昧な情報に遭遇したり、ソース資料自体にエラーが含まれている場合、不正確な出力を生成するリスクは劇的に増加する。

これはGoogle固有の問題か?

いや、これはGoogle固有の問題ではない。AI搭載の要約および情報統合ツールを開発・デプロイしている多くの企業が、同様の課題に直面している。AIの「ハルシネーション」という現象は、様々なLLMやAIアプリケーションにわたって、よく文書化された問題だ。GoogleのAI Overviewは、その支配的な検索エンジンへの統合により非常に注目されているが、他のAIアシスタント、チャットボット、要約ツールも同様に不正確または誤解を招く情報を生成する可能性がある。固有の技術原則と、複雑な情報を完全に解釈し表現することにおける固有の困難さは、これが人工知能分野における広範な課題であることを意味している。

**


🧬 関連インサイト

よくある質問**

GoogleのAI Overviewは何をするのか? GoogleのAI Overviewは、検索結果の最上部にAI生成の直接的な要約を提供しようとし、複数のウェブページからの情報を統合してユーザーのクエリに迅速に答えることを目指している。

この訴訟は私の検索結果に影響するか? 可能性はある。Googleが責任を問われ、より強力なセーフガードを導入したり、AI Overviewの機能を変更したりした場合、検索結果の情報提示と正確性に影響を与える可能性がある。

AIは本当に人を名誉毀損できるか? はい、法的に可能です。AIシステムが、他者の評判を傷つける虚偽の事実を生成した場合、それは名誉毀損とみなされる可能性があり、AIの出力に責任のある主体が法的責任を問われることがある。

Written by
theAIcatchup Editorial Team

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by The Guardian - AI