ChatGPTのイメージ写真=Shutterstock

OpenAIは、ChatGPTがメンタルヘルスや安全上の危機兆候を検知した際、利用者が事前に登録した緊急連絡先に通知する機能を導入する。米The Vergeが7日(現地時間)に報じた。

対象は成人ユーザー。アカウント設定から家族や友人など、別の成人の連絡先を登録できる。機能の利用は任意で、ユーザー自身が有効化する必要がある。

韓国では、緊急連絡先に指定できるのは19歳以上に限られる。指定された相手は招待を受けてから1週間以内に招待を承諾する必要があり、ユーザーは設定画面から連絡先の修正や削除が可能だ。連絡先として登録された側も、いつでも連携を解除できる。

OpenAIは、この機能について、危機的な状況にある利用者を「信頼できる相手」につなぐための仕組みだと説明している。同社は「誰かが危機に直面したとき、信頼する相手とつながるだけでも大きな意味があるというシンプルな考えに基づいている」としたうえで、ChatGPTがすでに案内している地域別ヘルプラインに加え、追加の支援手段を提供することが狙いだとしている。

通知には会話内容やチャット全文は含まれない。OpenAIの自動化システムが、利用者が自傷を試みようとしている可能性のある会話を検知した場合、ChatGPTはまず、緊急連絡先に支援を求めるよう促し、その連絡先に通知が送られる可能性があることを利用者に案内する。

その後、専門の訓練を受けた少人数の担当者が状況を確認する。会話内容が深刻な安全上の懸念を示していると判断した場合に限り、緊急連絡先に短いメールやメッセージ、アプリ内通知を送る仕組みだ。

生成AIサービスやSNSを含むプラットフォーム業界では、メンタルヘルスや安全上のリスク兆候をどう検知し、どこまで介入するかを巡る運用基準への関心が高まっている。今回の取り組みも、そうした流れの一環といえそうだ。

一方で、OpenAIはこの機能を全面自動の通報システムとしては運用しない。利用者が事前に機能を有効化し、緊急連絡先を登録しておく必要があるうえ、実際の通知送信前にも人による確認を挟む。安全面での介入を広げつつ、会話内容の共有は限定する仕組みを採った。

また、緊急連絡先に指定された人物が、専門カウンセラーや危機対応の担当者の役割を担うわけではない。OpenAIは、連絡先として登録された相手の役割について、利用者に連絡して状況を確認し、必要に応じて家族や友人、メンタルヘルスの専門家、ヘルプライン、緊急サービスなど追加の支援につなぐことだと説明している。

今回の機能は、ChatGPTが危機的な会話をただ継続するだけでなく、現実の支援先との接点づくりを促す方向へ安全対策を広げる動きと重なる。OpenAIはこれまでも、センシティブな会話の中で自傷や自殺のリスク兆候をより適切に認識し、利用者を現実世界の支援体制につなげるための改善を進めてきた。

キーワード

#OpenAI #ChatGPT #生成AI #安全対策 #メンタルヘルス #緊急連絡先
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.