종목분석
  • 메인
  • Benzinga
이번주 방송스케쥴

아무도 주목하지 않는 중국발 `침묵의 인포데믹`

kara@b612pr.xyz 2025-02-03 19:44:02

우리는 사실이 그 어느 때보다 빠르게 허구로 변하는 세상에 살고 있다. 생물학이 아닌 알고리즘에 의해 촉발된 새로운 기만의 전염병이 전 세계적으로 확산되고 있다. 이른바 '인포데믹'이라 불리는 이 현상은 인공지능(AI)이 생성한 거짓말, 초현실적인 딥페이크, 합성 문서 등으로 구성되며, 상당수가 중국 기술 연구소에서 비롯됐다. 이러한 AI 도구들의 기만 능력이 점점 더 정교해짐에 따라 민주주의, 예술, 금융, 심지어 사랑에 대한 신뢰마저 잠식할 수 있는 위험을 안고 있다. 2025년까지 50개국 이상에서 선거가 예정된 가운데, 그 위험성은 실존적 수준에 이르렀다.



오픈소스 AI의 어두운 면

현재 미드저니와 오픈AI의 도구들과 같은 플랫폼들은 오용을 방지하기 위한 안전장치를 마련해 딥페이크와 같은 콘텐츠가 온라인상에서 유통되는 것을 최대한 막고 있다. 하지만 오픈소스 모델은 악의적인 의도를 가진 이들에 의해 미세 조정되고 무기화될 수 있어, 사기꾼들이 허위정보, 딥페이크, 사기를 퍼뜨릴 수 있는 힘을 얻게 된다.



AI가 스포트라이트를 훔칠 때

AI 사기 사례는 아마도 엔터테인먼트 업계에서 가장 많이 알려져 있을 것이다. 특히 할리우드는 이제 정기적으로 합성 사기꾼들과 싸우고 있다. 공인들은 자신의 이미지가 타인의 이익을 위해 도용될 가능성에 대응해야 하며, 딥페이크가 매일 X와 같은 플랫폼에 침투해 가짜 브랜드 홍보를 제공하거나 스캔들을 만들어내고 있다. 이러한 쉬운 제작과 소셜 미디어 플랫폼의 광범위한 도달 범위가 결합되어 허위정보와 사기를 퍼뜨리는 강력한 조합을 만들어내고 있다.


하지만 모두가 이를 손실로 보는 것은 아니다. 그라임스는 로열티를 받고 자신의 목소리를 AI 클론에 대여하는 '서비스형 딥페이크' 모델을 채택했다. 이는 암울한 질문을 던진다. 예술가들이 관련성을 유지하기 위해 자신의 정체성을 경매에 내놓아야 하는가?



알고리즘적 사랑의 거짓말

유명 예술가들 외에도 우리 모두가 안전하지 않다. 특히 진정한 사랑을 찾는 데 있어서 말이다. 서툴게 포토샵 처리된 프로필은 잊어라. 오늘날의 캣피싱은 유명인을 모방할 정도로 설득력 있는 AI 생성 페르소나를 포함한다.


ChatGPT에 준하는 추론 능력을 가진 중국의 딥시크(DeepSeek)와 같은 플랫폼, 그리고 사용자에게 놀라운 정확도로 딥페이크를 생성할 수 있는 능력을 제공하는 플럭스(Flux)와 같은 오픈소스 생성기를 통해, 디지털에 가장 정통한 개인조차도 거짓을 간파하기가 점점 더 어려워지고 있다.


FBI에 따르면 작년에 1만9000명의 미국인이 로맨스 사기의 피해자가 되어 13억 달러의 손실을 입었다. AI 콘텐츠에 워터마크를 삽입하는 등의 해결책이 존재하지만, 전 세계적인 시행 없이는 사기꾼들이 그 틈새에서 번성하고 있다.


우리가 이에 대해 무언가를 하기 전에 얼마나 더 많은 브래드 피트 딥페이크 사기를 겪어야 할까? 이미 영상, 이미지, 텍스트에 걸쳐 AI를 감지하는 플랫폼들이 수백만 명의 사람들이 AI 생성 콘텐츠를 검증하는 데 도움을 주고 있으며, 이를 통해 그들의 돈, 심지어 이 경우에는 결혼 생활까지 구하고 있다.



베이징의 '문서 공장'

사기 탐지 분야에서 빠른 혁신이 필요한 또 다른 영역은 KYC(고객확인) 사기다. 잘 조정된 오픈소스 AI 모델은 실제와 구별할 수 없는 가짜 여권과 계약서를 생산한다. 이러한 도구들은 은행의 KYC 검사를 통과해 금융기관들은 비용이 많이 드는 군비 경쟁에 내몰리고 있다. 생체인식 기반 사기는 2024년에 40% 증가했으며 둔화될 조짐을 보이지 않고 있다. HSBC는 이제 위조 문서를 찾기 위해 AI '탐정'을 사용하고 있지만, 이는 총상에 대한 붕대 처치에 불과하다.


은행들이 고객들을 다음 KYC 사기의 희생양이 되지 않도록 보호하는 실질적인 필터를 어떻게 만들 수 있는지에 대한 논의를 시작해야 한다.



합성 뉴스와 정치적 조작

마지막으로, 한때 공공 신뢰를 상징하던 플랫폼조차 더 이상 안전하지 않다. 지난해 AI는 BBC를 사칭해 정치인들에 대한 조작된 이야기를 발행했다. 그 여파는 단순한 당혹감이 아닌 경고였다. 2025년, 전 세계적으로 수십억 명이 투표하는 가운데 이러한 사기는 더욱 심각하게 다루어져야 한다. 공격은 해커가 아닌 선전이나 상하이에서 작성된 코드에서 올 것이다.


이는 이미 중국에서 현실이 되고 있다. 예를 들어, 민진당 대선 후보 라이칭터를 겨냥한 허위정보 캠페인은 딥페이크 콘텐츠로 가득 찼다. 라이의 목소리를 합성한 조작된 영상들은 그가 국민당과 민중당의 연합을 지지한다고 오해의 소지가 있게 보여주거나, 민진당 스캔들에 대해 논의하는 모습을 부정확하게 묘사했다. 플랫폼 간 콘텐츠 공유가 영향력 작전의 주요 수단이긴 하지만, 베이징의 정보 환경 조성 능력은 수집하는 모든 데이터와 함께 성장하고 있다. 이 데이터는 그들이 개인의 고유한 신념에 기반해 정밀한 허위정보를 만들어낼 수 있게 한다.



대응

지속되는 미중 갈등의 맥락에서 정보전은 인식을 형성하고 결과에 영향을 미치는 데 점점 더 중요한 역할을 하고 있다. 이는 인터넷 사용자들이 온라인에서 보는 것을 더욱 자세히 조사하기 시작해야 함을 의미하며, 인간의 의구심과 기계의 정밀함을 결합해 합성 지문을 스캔하는 새로운 습관을 만들어야 한다. 반대편에서는 조직들이 AI 사기로부터 사용자와 고객을 보호하는 방법을 강화해야 한다. 소셜 플랫폼은 사용자를 인증해야 하며, 은행들은 KYC 실패를 방지하기 위한 추가 보안 계층을 만드는 API 통합을 조사해야 한다.


서방의 규제 기관들이 지난 10년간 거의 진전을 보이지 않은 채 달팽이 속도로 변화를 고민하는 동안, 중국 AI 기업들은 무엇이 진실인지 구별하기 불가능할 정도로 허위정보를 가속화하는 도구들을 수출하고 있으며, 지금이 바로 행동할 때다.


인포데믹은 무관심을 먹고 자란다. 행동이 없다면, 우리는 진정성이 멸종된 세상, 모든 영상, 음성, 계약이 거짓일 수 있는 곳에 살게 될 것이다. 해독제는? 창작자에게 크레딧을 주는 라이선스 모델, 가짜를 폭로하는 탐지 기술, AI 플랫폼에 대한 윤리적 가이드라일이다. 2026년까지 우리는 이 위기를 통제할 수 있을지, 아니면 그것이 우리를 집어삼킬지 알게 될 것이다.

이 기사는 AI로 번역되어 일부 오류가 있을 수 있습니다.