Geminiのイメージ写真=Shutterstock

Googleが米国防総省と、自社のAIモデルを「すべての合法な政府目的」に利用できるとする契約を結んだことが分かった。契約の詳細は機密扱いとされている。政府によるAI利用をGoogle側が制御、あるいは拒否できない可能性もあり、社内外で懸念が広がっている。

4月28日付のEngadgetなど海外主要メディアの報道によると、今回の契約では、米国防総省がGoogleの商用AIモデルと関連インフラに幅広くアクセスできる。契約文言上、利用範囲は「すべての合法な政府目的」とされている。

一方で、匿名の関係者によれば、国内外での大規模監視や自律兵器への活用については、適切な人間の監督と統制を前提とすることで双方が合意したという。ただ、その条件が契約上の明確な統制措置には結び付いていない点が問題視されている。

報道では、政府がAIをどのように使うかについて、Google側に利用を統制したり拒否したりする権限はないとされる。国防総省の運用に対し、企業側が事後的に利用を差し止めることはできないことになる。

Googleは国家安全保障への支援という位置付けを強調している。Googleの広報担当者はReutersに対し、商用モデルへのAPIアクセスを提供することは、国家安全保障を支える責任あるアプローチだと説明した。あわせて、大規模監視や自律兵器への活用には適切な人間の監督が必要だとする従来の立場も改めて示した。

これに対し、社内の反発は強まっている。Googleの従業員約600人は、スンダー・ピチャイ最高経営責任者(CEO)宛ての公開書簡で、機密の軍事作戦に同社のAI技術を提供しないよう求めた。技術が「非人道的、もしくは極めて有害な形で使われ得る」と懸念を表明している。

公開書簡では、技術の悪用がすでに国内外で生命や市民的自由を脅かしているとの認識も示された。従業員らは「私たちが中核として構築する技術の悪用により、すでに生命が失われ、市民の自由が危険にさらされている」と訴え、AIシステムは権力を集中させ、現実に誤りを引き起こすとも指摘した。

今回の契約により、GoogleはOpenAI、xAIと並び、米政府の機密AI事業に関与する企業群に加わることになる。一方、Anthropicは、武器や監視に関する安全措置の撤廃を求める政府側の要求を受け入れず、その後、連邦政府の利用対象から完全に外された状態だと報じられている。

一連の動きは、ビッグテック各社のAIモデルが商用サービスの枠を超え、国家安全保障や軍事分野へ急速に広がっていることを示している。同時に、安全措置の実効性、企業の統制権限、社内の倫理的な異議申し立てが今後も大きな争点になりそうだ。

キーワード

#Google #米国防総省 #AI #Gemini #国家安全保障 #AI倫理
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.