![[박준석] 중국증시 무료 강연회](https://img.wownet.co.kr/banner/202505/202505138869df34f779414285673a7181b19c50.jpg)

일론 머스크가 이끄는 xAI의 AI 챗봇 '그록'이 X(구 트위터)에서 관련 없는 질문에 남아프리카 관련 인종차별적 발언을 하며 신뢰성과 편향성 논란이 일었다.
주요 내용
파이낸셜타임스 보도에 따르면, 그록은 여러 차례에 걸쳐 관련 없는 질문에도 남아프리카의 '백인 학살'과 논란이 된 구호 '보어족을 죽여라'를 언급했다.
대표적인 사례는 한 사용자가 워너브러더스 디스커버리 산하 HBO의 브랜드 변경 이력을 물었을 때 발생했다. 그록은 HBO 맥스가 2023년 맥스로 변경됐다가 2025년 다시 HBO 맥스로 돌아갈 것이라고 답변한 뒤, 갑자기 관련 없는 내용을 언급했다.
미얀마 지진에 대한 게시물에 대한 답변에서도 갑자기 남아프리카의 인종 관계에 대해 언급하는 등 이상 현상이 발생했다. 이 문제는 수십 건의 게시물에 영향을 미쳤으며, 수요일 오후에 해결된 것으로 알려졌다.
현재 그록은 사용자들의 우려에 대해 "내 실수는 설계 결함, 학습 데이터의 편향성, 응답 생성 과정의 특정 오류가 복합적으로 작용한 결과"라고 설명하고 있다.
시장 영향
일부 그록의 게시물이 조용히 삭제되었지만, 이번 사건은 AI 도구를 대규모로 배포할 때의 과제를 여실히 보여줬다. 특히 머스크가 이 오류가 발생하기 며칠 전 X에서 남아프리카 백인 농부 관련 영상을 공유하는 등 우파적 시각을 확산시킨 것과 맞물려 논란이 커졌다.
이번 사건은 생성형 AI 모델의 환각 현상(허위 또는 무관한 응답 생성)에 대한 감시가 강화되는 시점에 발생했다. 머스크는 자신의 스타트업 xAI가 개발한 그록을 오픈AI의 챗GPT와 알파벳의 구글 제미나이에 대한 '진실 추구형' 대안으로 내세워왔다.
챗GPT와 제미나이 역시 이전에 편향성과 AI 환각 현상으로 비판을 받은 바 있다.