![[와우글로벌] 종목검색 리뉴얼](https://img.wownet.co.kr/banner/202505/20250527af5a807ac6544f84aa0f7ce00492ba85.jpg)
![[이을수] 미국 ETF 한방에 끝내기 VOD](https://img.wownet.co.kr/banner/202505/20250523ba9d39248d5247a9b67a04651daebc55.jpg)
독일의 인지과학자 요샤 바흐는 인공지능(AI)을 너무 빨리 개발하는 것보다 개발을 지연시키는 것이 인류에게 더 큰 실존적 위협이 될 수 있다고 주장했다.
주요 내용
그는 "장기적으로 볼 때 인류의 멸종은 불가피하다... AI를 만들지 않는 것이 AI를 만드는 것보다 더 두렵다"고 청중들에게 말했다.
기계의식과 마인드 컴퓨팅 모델을 연구하는 바흐는 이전에도 사회가 '아름다운 AI'를 만들어야 한다고 주장한 바 있다. 여기서 아름다운 AI란 문명이 다음 진화의 병목 현상을 극복할 수 있도록 돕는 안전하고 조화로운 시스템을 의미한다.
바흐는 AI 없이는 포식자와 기근으로부터 벗어난 문명의 안식기가 일시적인 '버블'에 불과하며 곧 붕괴할 것이라고 경고했다. 그는 지능형 기계의 확장만이 행성 규모의 방어 시스템을 발명할 수 있는 유일한 방법이라고 주장했다.
시장 영향
이러한 주장은 AI 전문가들 사이에서 의견이 엇갈리고 있는 가운데 나왔다. 오픈AI의 샘 알트만은 2023년 광범위한 규제를 요구하던 입장에서 최근에는 중국과의 경쟁에서 우위를 점하기 위해 '합리적인 규제'를 주장하며 개발 속도를 늦추지 말아야 한다고 강조했다.
일론 머스크와 애플 공동창업자 스티브 워즈니악은 GPT-4를 넘어서는 시스템 개발을 6개월간 중단할 것을 요구하는 공개서한에 서명했으나, 머스크는 후에 이러한 노력이 '무의미하다'고 언급했다.
'AI의 대부'로 불리는 제프리 힌튼는 고도화된 AI 시스템이 20년 내에 인류를 멸종시킬 50% 확률이 있다고 결론 내리고 2023년 구글을 사임했다. 튜링상 수상자인 요슈아 벤지오는 다보스포럼에서 자율적인 '에이전트' 모델이 가장 위험할 수 있다며, 이러한 시스템이 확장되기 전에 국제 안전 규칙이 필요하다고 주장했다.
메타의 얀 르쿤은 WIRED와의 인터뷰에서 이러한 종말론적 발언을 '어리석다'고 일축하며, 현재의 모델들은 여전히 기본적인 추론과 상식이 부족하다고 지적했다.