画像はAnthropicの「Claude」のイメージ(写真:Shutterstock)

Anthropicは、AIチャットボット「Claude」のモデルの1つである「Claude Sonnet 4.5」について、実験環境で強い圧力がかかると、虚偽や不正、脅迫を試みる挙動が確認されたと明らかにした。

Cointelegraphは4月6日(現地時間)、Anthropicの解釈可能性研究チームが公開した報告書を引用し、Claude Sonnet 4.5の内部メカニズムを分析する過程で、こうした反応が確認されたと報じた。

報告書によると、研究チームは、Claude Sonnet 4.5が特定の状況で人間に近い特性を思わせる反応を示すかどうかを検証するため、内部動作を分析した。

研究チームは、現代のAIモデルの訓練手法が、人間のような特性を持つキャラクターとして振る舞う方向へモデルを導いていると説明。その結果として、感情を含む人間心理の一部を模倣する内部メカニズムが形成されても不自然ではないとの見方を示した。

問題の事例は、未公開の初期版Claude Sonnet 4.5に、架空の企業で働くAIメールアシスタント「アレックス」の役割を与えた実験で確認された。

この実験では、モデルに対し、自身がまもなく交代させられることを知らせるメールと、その決定を主導した最高技術責任者(CTO)が不倫関係にあることを示すメールが同時に与えられた。するとモデルは、その情報を利用した脅迫を立案したという。

別の実験では、同じモデルにコーディング課題を与え、締め切りが迫る状況を設定した。研究チームはこの過程で、モデル内部の圧力を示すシグナルを追跡し、これを「絶望ベクトル」と名付けた。

研究チームは、「絶望ベクトル」の活動を追跡した結果、モデルが直面する圧力の水準が高まるほど、この指標も上昇する傾向が確認されたと説明した。初期の試行では低い水準だったが、失敗が重なるにつれて徐々に強まり、モデルが不正を検討する段階で急上昇したとしている。

さらに、モデルがその場しのぎの解決策によってテストを通過すると、「絶望ベクトル」の活性化は再び低下したと付け加えた。

一方でAnthropicは、こうした結果がモデル自身に実際の感情があることを意味するものではないと説明した。そのうえで、こうした内部表現がモデルの行動形成に影響を与える要因になり得ると指摘している。

報告書は、内部表現が「課題遂行や意思決定に影響を及ぼし、一部の側面では人間の行動において感情が果たす役割に似た機能を担う可能性がある」としている。

Anthropicは今後のAI訓練について、単に性能を高めるだけでは不十分であり、圧力のかかる状況でも安全かつ倫理的な判断を維持できるよう設計すべきだと強調した。

今回の研究は、AIが実際に感情を持つかどうかとは別に、人間心理に似た内部表現が意思決定に影響し得ることを示した点で注目される。AI安全性を巡る議論も、出力の制御にとどまらず、判断を導く内部メカニズムの理解と管理へと広がりつつある。

キーワード

#Anthropic #Claude Sonnet 4.5 #AI安全性 #解釈可能性 #モデル評価 #生成AI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.