画像=Naver

Naverは4月29日、生命軽視や二次加害表現の検知を強化したコメント監視システム「AIクリーンボット3.0」を刷新したと発表した。

今回の更新では、自殺や死亡、身体損壊などを軽んじる投稿のほか、事件や事故の被害者、遺族に向けた嘲笑や中傷、嫌悪表現を含むコメントを重点的に遮断する。コメント本文だけでなく、記事の見出しや本文も踏まえて文脈を判断し、悪意のある意図を検知できるようにした。

AIクリーンボットは2019年にNaverが導入した。2020年には文脈を踏まえた判定に対応し、2023年には韓国インターネット自律政策機構(KISO)の嫌悪表現に関する自主規制ガイドラインを反映した。これにより、性的な嫌悪表現や侮辱、差別表現、フィルター回避型の悪質コメントまで、検知対象を継続的に広げてきた。

現在Naverは、政治・選挙セクションで記事下のコメント欄を設けないほか、悪質コメントが一定基準を超えた場合には当該記事のコメント機能を自動停止する運用を導入している。

Naverのキム・スヒャン氏は「罵倒や俗語に加え、新たに生まれる嫌悪、侮辱、差別表現まで検知できるよう、クリーンボットの性能を継続的に強化している」と説明した。そのうえで「生命軽視の助長や、被害者や遺族への嘲笑、嫌悪表現の重点遮断をはじめ、多様な意見を取り入れながら性能をさらに高度化していく」と述べた。

キーワード

#Naver #AI #コメント監視 #嫌悪表現 #KISO
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.