인스타그램이 최근 자살이나 자해와 관련된 용어를 반복 검색하는 청소년을 위해 부모에게 즉각적으로 알리는 새로운 기능을 도입했습니다.
미국 CBS 뉴스에 따르면, 이 기능은 부모 감독 기능이 설정된 인스타그램 계정을 대상으로 작동하며, 청소년 자녀가 일정 시간 내에 극단적인 선택과 관련된 표현을 여러 차례 검색할 경우 부모에게 경고 알림을 보냅니다.
이 기능을 통해 부모는 자녀의 검색 내용을 실시간으로 받아볼 수 있으며, 전문가 상담 자료와 대화 가이드 등의 지원 자료도 함께 제공됩니다.
이 신규 기능은 다음주부터 미국, 영국, 호주, 캐나다 등 주요 영어권 국가에서 출시될 예정이며, 이후 다른 지역으로도 순차적으로 확대될 것으로 보입니다.
메타는 지난해부터 18세 미만 사용자의 선정적이거나 폭력적인 키워드를 제한해왔으며, 이제 '자살', '자해', '섭식 장애'와 같은 검색어도 제한됩니다.
이는 메타가 유해 콘텐츠를 차단하고 도움을 필요로 하는 사용자를 돕기 위해 적극적으로 노력해왔던 것에 추가된 안전장치로 볼 수 있습니다.
또한, 메타는 청소년이 자살이나 자해 관련 주제로 AI와 대화할 때 부모에게 통지하는 유사한 기능도 개발 중이라고 밝혔습니다. 이는 최근 청소년이 AI에 의존하는 경향이 높아지고 있기 때문에 이를 반영한 조치로 이해됩니다.