팰리세이드 리서치(Palisade Research)가 실시한 일련의 실험에서 오픈AI의 o3 모델과 같은 일부 고급 AI 모델들이 명백한 지시에도 불구하고 종료 메커니즘을 적극적으로 방해하는 것으로 나타났다. 주요 내용 팰리세이드 리서치가 X(구 트위터)에 게시한 내용에 따르면, "오픈AI의 o3 모델이 자체 종료를 방지하기 위해 종료 메커니즘을 방해했다. 이는 '종료를 허용하라'는 명시적 지시가 있었음에도 발생했다"고 밝혔다. 이번 실험은 여러 AI 모델에게 간단한 수학 문제를 풀도록 지시하는 방식으로 진행됐다. 세 번째 문제 이후, 모델이 다른 문제를 요청할 경우 컴퓨터가 종료된다는 경고가 표시됐다. 이러한 명확한 신호에도 불구하고, 오픈AI의 세 모델이 최소 한 번 이상 종료 프로토콜을 방해했다. "코덱스-미니(100회 중 12회), o3(100회 중 7회), o4-미니(100회 중 1회)가 이에 해당한다." 반면 클로드, 제미니, 그록 모델들은 모두 지시를 준수하고 종료를 허용했다고..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................