🔼 GPT-5, 글로벌 출시 전 미국 정부 검증 통과 필수
🔼 GPT-5 기술 윤리 검증 착수
🔼 GPT-5, 알고리즘 편향 검토 중
오픈AI가 차세대 인공지능(AI) 모델 'GPT-5'의 글로벌 출시에 앞서 미국 정부에 먼저 공개하여 안전성을 검증받기로 결정했다.
최근 테크크런치 등 외신 보도에 따르면, 오픈AI는 미국 AI 안전 연구소와 협력하여 최신 AI 모델 GPT-5를 평가하기로 했다. 이를 통해 미국 AI 안전 연구소는 GPT-5의 기술 윤리와 안전성을 공식적으로 검증할 예정이다. 알고리즘 편향, 환각 현상, 사용 윤리 등을 검토할 계획이다. GPT-5가 검증을 통과하지 못하면, 오픈AI는 해당 모델의 출시를 연기해야 한다.
오픈AI의 CEO 샘 알트먼은 공식 웹사이트를 통해 “이번 파트너십을 통해 GPT-5의 안전성 검증이 명확히 인정받게 될 것”이라고 밝혔다. 오픈AI는 지난해 영국 정부와 AI 모델을 공유하며 협력한 바 있으며, 알트먼 CEO는 미국 상원 청문회에서 AI 규제의 필요성을 강조하기도 했다. 많은 외신들은 오픈AI의 이러한 행보를 AI 안전에 소홀했던 이미지를 지우기 위한 시도로 해석하고 있다.
오픈AI의 안전성 논란은 지난해 5월 본격적으로 불거지기 시작했다. 이는 오픈AI의 전 이사 엘런 토너가 "오픈AI는 AI 윤리와 안전성 강화보다 수익 창출에 더 집중했다"고 폭로하면서 시작됐다. 토너 전 이사는 외신에 “알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표하고, 이사회의 발언을 무시하고 사업 확장에만 집중했다”고 말했다.
당시 오픈AI는 제품 안전을 담당하던 '슈퍼 얼라인먼트 팀'을 해체하기도 했다. 해당 팀을 이끌던 오픈AI 공동 창립자이자 최고 과학자인 일리야 수츠케버도 이에 항의하여 회사를 떠났다. AI 안전을 담당하던 직원들도 잇달아 회사를 떠났다. 이후 오픈AI가 첫 최고 재무책임자(CFO)를 선임하면서 비영리 조직으로서의 정체성을 잃을 수 있다는 우려가 제기됐다.
이 상황을 피하기 위해, 오픈AI는 지난 6월 안전 보안 위원회를 재설립했다. 또한 미국 국가안보국(NSA) 수장이자 은퇴한 미국 4성 장군인 폴 나카소네를 이사회 멤버로 영입했다. 현재 나카소네 장군은 새로 구성된 이사회의 일원으로 안전 보안 위원회에서 활동 중이다.
이번 GPT-5의 미국 정부 첫 공개는 AI 안전성에 대한 오픈AI의 신뢰 회복을 위한 중요한 단계로 평가받고 있다. AI 모델의 상용화 전에 철저한 검증을 거치겠다는 의지는 앞으로도 AI 기술 발전과 함께 안전성 강화에 대한 오픈AI의 노력을 보여주는 중요한 사례가 될 것이다.
◎GPT매거진 (https://www.gptmagazine.net)
지피티 기자 : gptmagazinebiz@gmail.com
카카오 오픈채팅방 : https://open.kakao.com/o/gLI8Wetf
페이스북 그룹 : https://www.facebook.com/groups/392367786704067
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.