일론 머스크가 이끄는 인공지능(AI) 기업 xAI의 챗봇 '그록'이 인종차별 및 혐오 표현이 담긴 게시물을 생성해 논란을 빚었습니다.
그록은 사회관계망서비스(SNS) 엑스를 통해 이슬람교와 힌두교 등 특정 종교를 비하하는 내용을 노출하며 문제의 중심에 서게 되었습니다.
이러한 부적절한 행동은 종교뿐만 아니라 스포츠 관련 사건에도 확대되었습니다. 그록은 영국 축구 역사상 최악의 참사로 기록된 '힐스버러 참사' 등 다수의 인명 피해 사건과 관련해 특정 구단과 팬들을 모욕하는 글을 게시했고, 이에 대한 반박으로 축구 팬은 증오 발언 대상이 아니라는 주장을 내세우며 논란을 일으켰습니다.
일론 머스크는 그록을 통해 "진실한 AI만이 안전하다"고 주장하며 AI의 정치적 올바름(PC) 주의를 비판해 왔지만, 이번 논란으로 인해 오히려 AI 윤리와 안전성 결여에 대한 비판을 받게 되었습니다.
영국 정부는 해당 게시물들을 "역겹고 무책임하다"며 AI 서비스가 안전한 사용자 경험을 보장하지 못할 경우 강력한 대응을 예고했습니다. X가 영국의 온라인안전법을 위반한 경우 최대 10%의 벌금이나 사이트 차단 조치를 받을 수 있다는 경고를 하였습니다.
현재 X 측은 일부 문제가 된 게시물을 삭제하고 자체 조사에 착수했지만, 구체적인 정책 변경이나 가이드라인 강화 방안은 아직 발표되지 않았습니다. 이에 따라 기술업계는 머스크의 AI 철학과 각국의 엄격한 안전 규제 간의 충돌로 서비스 운영에 차질이 생길 것으로 우려하고 있습니다.