Naver于4月29日表示,已完成恶意评论识别系统“AI Cleanbot 3.0”升级,进一步加强对漠视生命及二次伤害类言论的识别和拦截能力。
此次升级重点针对煽动自杀、拿死亡或身体毁损开玩笑等漠视生命的评论,同时强化对事件、事故受害者及其遗属相关嘲讽、贬损和仇恨言论的拦截。系统不再仅分析评论文本本身,还将结合新闻标题和正文内容,从整体语境中判断评论是否带有恶意倾向。
AI Cleanbot于2019年上线,2020年将识别标准扩展至基于句子语境的分析。到2023年,该系统又将韩国互联网自律政策机构KISO的仇恨言论自律政策指南纳入识别标准,持续扩大对令人不适、仇恨、贬损、歧视性表达以及规避过滤的恶意评论的识别范围。
目前,Naver还在同步推进多项评论治理措施,包括今年取消政治、选举类报道正文页底部的评论入口,以及在恶意评论达到一定标准时自动关闭相关报道的评论服务。
Naver相关负责人Kim Suhyang表示,公司持续提升Cleanbot对辱骂、粗俗用语,以及新出现的仇恨、贬损、歧视性表达的识别能力。今后还将进一步加强对漠视生命、嘲讽受害者及遗属等内容的拦截,并在听取各方意见的基础上持续优化系统能力。
记者信息