메타가 청소년 시청 콘텐츠 제제를 강화한다 [사진 : 셔터스톡]
메타가 청소년 시청 콘텐츠 제제를 강화한다 [사진 : 셔터스톡]

[디지털투데이 AI리포터] 메타가 페이스북과 인스타그램에서 청소년 시청 콘텐츠에 대한 제한 조치를 발표했다.

지난 9일(이하 현지시간) CNBC에 따르면 메타는 전날 자사 블로그 게시물을 통해 "어린 연령층 사용자의 정신 건강에 해롭거나 중독성이 강한 콘텐츠가 있다는 주장이 제기됨에 따라 청소년이 볼 수 있는 콘텐츠 유형을 제한할 것"이라고 밝혔다.

메타는 새로운 보호 기능 정책을 설명했다. 메타는 해당 기능에 대해 "청소년들이 애플리케이션(앱)에서 연령에 맞는 경험을 할 수 있도록 한다"라며 "10대 사용자에게 가장 제한적인 설정을 기본값으로 설정하고 특정 주제에 대한 검색을 차단한다"라고 설명했다. 그러면서 "인스타그램 개인정보 보호 설정을 업데이트 하라는 메세지를 표시할 것"이라고 말했다.

메타는 향후 몇 주에 걸쳐 새로운 보호 기능을 탑재한 버전 업데이트를 완료할 계획이다. 업데이트 이후 18세 미만 청소년은 자신이 팔로우하고 있는 사람이 공유하는 콘텐츠를 포함해 민감한 내용을 내포하고 있는 콘텐츠 시청이 불가하다.

메타는 정책 변경의 이유를 특정하지 않았지만, 일각에서는 지난해 10월 일부 법무장관이 메타가 청소년의 정신 건강에 악영향을 미친다고 주장, 메타를 고소한 일을 원인으로 추정했다.

당시 레티샤 제임스 뉴욕 법무장관은 성명을 통해 "어린이와 청소년은 기록적인 수준의 정신 건강 악화로 고통받고 있으며 메타와 같은 소셜미디어 회사들도 여기에 책임이 있다"라고 주장했다.

메타는 "청소년 발달, 심리학 및 정신 건강 전문가와 정기적으로 협의해 청소년에게 안전한 플랫폼을 만들기 위해 노력하고 있다"라고 마무리했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사