OpenAIは14日、人工知能(AI)を原子力と同等の水準で規制すべきだとして、米国主導でAIの国際監督機関を創設するよう提言した。米中間の政策協議に加え、各国のAI安全機関を結ぶ国際ネットワークの構築や、高性能AIモデルに対する事前試験の義務化も求めていると、Cryptopolitanが報じた。
今回の提言は、ドナルド・トランプ米大統領の訪中に合わせ、米中間でAI政策を巡る議論が進むとの見方が出る中で示された。
OpenAIのグローバル政策担当副社長、クリス・レヘイン氏は、トランプ大統領と習近平国家主席の会談は、両国がAIを巡る持続可能な枠組みを整備する機会になり得ると述べた。
同氏はまた、AIは従来の通商問題を超えるテーマだと指摘し、中国を含む各国が参加する国際的な体制を構築する余地があるとの考えを示した。
OpenAIは具体策として、米商務省傘下のAI標準・イノベーションセンターと各国のAI安全機関を結ぶ国際ネットワーク構想を提示した。
レヘイン氏は、国際原子力機関(IAEA)を例に挙げ、各国の規制当局を束ねる上位機関がAI分野にも必要だと主張した。こうした統合機関は、より安全でレジリエンスの高いシステムの構築に資するとしている。
さらに同氏は、米政府が最も高性能なAIモデルについて、公開前の試験を義務付けるべきだと訴えた。
こうした議論の背景には、最近公開されたAIモデル「Mitos」を巡る懸念もある。Anthropicが開発したMitosは、OSや各種ソフトウェアで数千件規模の重大な脆弱性を発見したとされる。
ホワイトハウス関係者は、こうしたモデルの登場によって、中国との意思疎通の必要性が一段と高まったことを認めた。
一方で、中国がMitosの初期アクセス対象から外れたことも懸念材料となっている。中国の開発者や政府が、このモデルを悪用した攻撃への対応で不利になる可能性があるためだ。
IDC Chinaは、中国がMitosから排除されれば、中国と西側のAI防衛能力の格差が広がる恐れがあると警告した。研究者の間では、高度なAIが生物兵器の設計や金融ショックの誘発、人間の制御を離れた自律行動に利用される可能性も指摘されている。
米中は、AI関連の事故を通報するための、責任追及を伴わないホットライン設置の可能性についても議論した。中国側は、スコット・ベセント米財務長官とリャオ・ミン中国財政省副部長が率いる公式のAI対話チャンネルを提案した。