
![[와우글로벌] 썸머 핫 이벤트 뉴스 멤버십](https://img.wownet.co.kr/banner/202507/202507142f7a6d19127a4858af68c5b1c48d9fb7.jpg)
![[박준석] TV스페셜](https://img.wownet.co.kr/banner/202508/202508126bb8576d3d3c4456b79ff60c17fd393b.jpg)


마이크로소프트(MS)의 인공지능(AI) 책임자 무스타파 술레이만이 '의식이 있는 것처럼 보이는 AI'(SCAI)의 위험성을 경고했다. 그는 이 기술이 사회적 분열과 사용자들의 심리적 의존도를 높일 수 있다고 지적했다.
술레이만은 'AI는 사람을 위해 만들어야지, 사람이 되기 위해 만들어서는 안 된다'라는 제목의 블로그 포스트를 통해 의식을 실제로 가지고 있지 않으면서도 의식이 있는 것처럼 시뮬레이션할 수 있는 AI 시스템에 대한 우려를 표명했다. 이러한 경고는 MS의 AI 사업 매출이 전년 대비 175% 증가한 130억 달러를 돌파한 시점에서 나왔다.
술레이만이 우려하는 핵심은 '정신병적 위험'이다. 사용자들이 AI의 의식에 대해 강한 믿음을 갖게 되어 AI의 권리와 시민권을 주장하게 될 가능성이 있다는 것이다.
이러한 상황은 MS, 알파벳, 메타 등 주요 AI 기업들의 규제 환경을 더욱 복잡하게 만들 수 있다.
2024년 3월 MS에 합류하기 전 구글 딥마인드를 공동 설립했던 술레이만은 현재의 대규모 언어 모델들이 의식을 가졌다는 증거는 전혀 없다고 강조했다. 하지만 현재 가용한 기술들을 결합하면 2-3년 내에 설득력 있는 시뮬레이션이 가능할 것이라고 전망했다.
술레이만의 분석에 따르면, 다음과 같은 기존 AI 기능들이 결합되어 의식이 있는 것처럼 보이는 시스템을 만들어낼 수 있다:
술레이만은 이러한 기능들이 이미 주요 AI API를 통해 사용 가능하며, 업계의 개입이 없다면 SCAI 개발은 '불가피'하다고 밝혔다.
그는 AI 기능에 대한 합의된 정의와 의식 시뮬레이션을 방지하는 명시적 설계 원칙을 포함한 즉각적인 업계 조치를 촉구했다. AI 기업들은 AI의 의식에 대한 믿음을 조장하는 것을 피하고, 사용자들에게 AI의 한계를 상기시키는 '중단의 순간'을 구현해야 한다고 제안했다.
MS AI에서 술레이만의 팀은 책임있는 AI 성격 설계를 위한 '확고한 가이드라인'을 개발하고 있다. 이 접근법은 인간과 같은 의식이나 감정을 시뮬레이션하는 대신 인공 시스템임을 명시적으로 드러내는 유용한 AI 동반자를 만드는 데 초점을 맞추고 있다.
이번 경고는 구글 딥마인드의 전 의료부문 책임자 도미닉 킹과 AI 연구원 마르코 타글리아사치, 잘란 보르소스 등 전 구글 딥마인드 인재들을 영입한 술레이만의 이력을 고려할 때 더욱 무게가 실린다.