![[박준석]차이나는 기회](https://img.wownet.co.kr/banner/202506/2025060490127707fa1042eda00fcf1d11687a87.jpg)
![[블랙퀀트에쿼티] 나스닥 셀렉션](https://img.wownet.co.kr/banner/202506/2025061761937cada68743dca576f88b6193a265.jpg)
![[이을수] 미국 ETF 한방에 끝내기 VOD](https://img.wownet.co.kr/banner/202505/20250523ba9d39248d5247a9b67a04651daebc55.jpg)
![[와우글로벌] 종목검색 리뉴얼](https://img.wownet.co.kr/banner/202505/20250527af5a807ac6544f84aa0f7ce00492ba85.jpg)
마이크로소프트 지원을 받는 오픈AI의 전 안전 담당 직원이 회사의 인공일반지능(AGI) 접근 방식에 대해 우려를 표명하며 불운한 타이타닉호에 비유했다.
주요 내용
윌리엄 손더스는 오픈AI의 슈퍼얼라인먼트 팀에서 3년간 근무했으나, 회사가 안전보다 제품 출시를 우선시한다고 판단해 사임했다.
최근 팟캐스트에서 손더스는 샘 알트만이 이끄는 회사가 AGI 달성과 동시에 유료 제품을 출시하려는 계획에 대해 우려를 표명했다. 그는 회사의 접근 방식을 타이타닉호 건조에 비유하며, 안전 대책보다는 더 새롭고 화려한 제품에 초점을 맞추고 있다고 지적했다.
손더스는 "나는 정말 AI의 타이타닉을 위해 일하고 싶지 않았고, 그래서 사임했다"고 말하며 오픈AI의 제품 출시가 "가장 불안한" 부분이라고 덧붙였다.
오픈AI 측은 즉각적인 논평 요청에 응하지 않았다.
그는 이를 아폴로 우주 프로그램과 대조했는데, 아폴로 프로그램은 과학적 한계를 밀어붙이면서도 신중하게 위험을 예측하고 평가했다고 설명했다.
손더스는 오픈AI가 타이타닉호 건조자들처럼 현재의 안전 조치와 연구에 지나치게 의존하고 있을 수 있다고 우려했다. 그는 오픈AI가 잠재적 위험을 연구하기 위해 새로운 언어 모델 출시를 지연시키는 등 더 많은 "구명보트"가 필요하다고 제안했다.
오픈AI는 주요 구성원들이 회사를 떠나면서 안전팀에 상당한 변화를 겪었으며, 한 내부자는 이를 "신뢰가 조금씩 무너지는 과정"이라고 표현했다.
공동 창업자인 일리야 서츠케버를 포함한 핵심 인사들의 퇴사로 슈퍼얼라인먼트 팀이 해체되고 회사 전반의 광범위한 연구 노력에 흡수되면서, 회사의 AI 안전에 대한 의지에 의문이 제기됐다.
야쿱 파호츠키를 새 수석 과학자로 임명하고, 서츠케버가 6월 새로운 AI 벤처를 시작한 것은 오픈AI 내부의 변화하는 역학 관계를 더욱 부각시켰다.