종목분석
  • 메인
  • Benzinga
이번주 방송스케쥴

AI 개발 지연이 더 큰 위험...독일 과학자 바흐 `인류 생존에 AI 필수`

Shomik Sen Bhattacharjee 2025-06-02 15:51:18
AI 개발 지연이 더 큰 위험...독일 과학자 바흐 `인류 생존에 AI 필수`

독일의 인지과학자 요샤 바흐는 인공지능(AI)을 너무 빨리 개발하는 것보다 개발을 지연시키는 것이 인류에게 더 큰 실존적 위협이 될 수 있다고 주장했다.


주요 내용


바흐는 지난주 캘리포니아 기계의식연구소에서 연설하며, 기후변화와 초대형 화산 폭발, 그리고 인류의 '생존 본능 상실'이 통제 불능의 알고리즘보다 더 큰 위험이라고 지적했다. 그는 현재의 '기술 버블'을 활용해 더 똑똑한 기계를 신속히 개발해야 한다고 강조했다.


그는 "장기적으로 볼 때 인류의 멸종은 불가피하다... AI를 만들지 않는 것이 AI를 만드는 것보다 더 두렵다"고 청중들에게 말했다.


기계의식과 마인드 컴퓨팅 모델을 연구하는 바흐는 이전에도 사회가 '아름다운 AI'를 만들어야 한다고 주장한 바 있다. 여기서 아름다운 AI란 문명이 다음 진화의 병목 현상을 극복할 수 있도록 돕는 안전하고 조화로운 시스템을 의미한다.


바흐는 AI 없이는 포식자와 기근으로부터 벗어난 문명의 안식기가 일시적인 '버블'에 불과하며 곧 붕괴할 것이라고 경고했다. 그는 지능형 기계의 확장만이 행성 규모의 방어 시스템을 발명할 수 있는 유일한 방법이라고 주장했다.


시장 영향


이러한 주장은 AI 전문가들 사이에서 의견이 엇갈리고 있는 가운데 나왔다. 오픈AI샘 알트만은 2023년 광범위한 규제를 요구하던 입장에서 최근에는 중국과의 경쟁에서 우위를 점하기 위해 '합리적인 규제'를 주장하며 개발 속도를 늦추지 말아야 한다고 강조했다.


일론 머스크와 애플 공동창업자 스티브 워즈니악은 GPT-4를 넘어서는 시스템 개발을 6개월간 중단할 것을 요구하는 공개서한에 서명했으나, 머스크는 후에 이러한 노력이 '무의미하다'고 언급했다.


'AI의 대부'로 불리는 제프리 힌튼는 고도화된 AI 시스템이 20년 내에 인류를 멸종시킬 50% 확률이 있다고 결론 내리고 2023년 구글을 사임했다. 튜링상 수상자인 요슈아 벤지오는 다보스포럼에서 자율적인 '에이전트' 모델이 가장 위험할 수 있다며, 이러한 시스템이 확장되기 전에 국제 안전 규칙이 필요하다고 주장했다.


메타얀 르쿤은 WIRED와의 인터뷰에서 이러한 종말론적 발언을 '어리석다'고 일축하며, 현재의 모델들은 여전히 기본적인 추론과 상식이 부족하다고 지적했다.

이 기사는 AI로 번역되어 일부 오류가 있을 수 있습니다.