마이크로소프트(MSFT)가 지원하는 AI 기업 오픈AI(PC:OPAIQ)가 개발자들이 온라인 안전 문제를 탐지할 수 있도록 돕는 두 가지 새로운 AI 모델(gpt-oss-safeguard-120b 및 gpt-oss-safeguard-20b)을 출시했다. 이들은 오픈AI가 지난 8월 공개한 초기 gpt-oss 모델의 개선 버전이다. 모델명의 숫자는 모델의 크기를 나타낸다. 또한 오픈AI는 이들을 오픈 웨이트 모델로 제공하고 있는데, 이는 훈련 과정에서 사용된 내부 설정값이 공개적으로 이용 가능하다는 의미다. 이를 통해 개발자들은 더 높은 투명성과 통제력을 확보할 수 있다. 다만 오픈소스 모델과 달리 전체 코드를 변경하거나 맞춤 설정할 수는 없다.
흥미롭게도 이들 모델은 다양한 안전 정책에 맞춰 구축되었으며, 추론 과정을 보여주도록 설계되어 개발자들이 각 결정이 어떻게 내려졌는지 이해할 수 있다. 예를 들어 제품 리뷰를 호스팅하는 웹사이트는 이 모델을 사용해 가짜 리뷰를 표시할 수 있다. 마찬가지로 비디오 게임 포럼은 이를 활용해 치팅에 관한 게시물을 식별할 수 있다. 오픈AI는 AI 안전성 강화에 초점을 맞춘 단체인 ROOST(Robust Open Online Safety Tools)와 협력해 이 모델들을 개발했다. 한편 디스코드와 세이프티킷이 테스트를 지원했다.
이 모델들은 현재 허깅페이스에서 다운로드할 수 있는 연구 프리뷰로 제공되고 있으며, 오픈AI는 연구 및 안전 커뮤니티로부터 피드백을 요청하고 있다. 더욱이 출시의 일환으로 ROOST는 AI 도구로 온라인 공간을 보호하는 작업을 하는 사람들을 위한 새로운 커뮤니티를 구축하고 있다. 이번 조치는 오픈AI가 안전성에 충분한 주의를 기울이지 않고 너무 빠르게 성장하고 있다는 비판에 대응하는 데 도움이 될 수 있다.
증권가에서는 지난 3개월간 33건의 매수 의견을 바탕으로 MSFT 주식에 대해 강력 매수 컨센서스 등급을 부여하고 있다. 또한 평균 MSFT 목표주가는 주당 629.43달러로 17%의 상승 여력을 시사한다.
