챗GPT 개발사 오픈AI가 직원들에게 AI(인공지능) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 터졌습니다.
내부고발자들(whistleblowers)은 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다고 주장하며, 이달 초 연방거래위원회(SEC)에 회사의 비밀 유지계약에 대한 조사를 촉구하는 서한을 보냈습니다.
내부고발에 따르면 오픈AI가 "직원들과 지나치게 제한적인 고용, 퇴직 및 비밀 유지 계약을 체결했다"며 "이를 근거로 회사 측은 연방 규제당국에 회사에 대한 우려를 제기한 직원들에게 책임을 물을 수 있다"고 밝혔습니다.
그리고 이들은 "회사가 직원들에게 내부고발자 보상에 대한 연방 권리를 포기하도록 하는 직원 협약에 서명하도록 했다"며 "이 협약은 또 직원들이 연방 당국에 정보를 공개하고자 할 경우 회사의 사전 동의를 받도록 했다"고 강조했습니다.
이처럼 지나치게 광범위한 협정은 회사 내부의 치명적인 정보를 밝히려는 내부 고발자 보호를 위한 연방법과 규정을 위반한 것이라고 주장하고 있습니다.
그리고 내부고발자 중 한 명은 "이 계약서는 '우리는… 직원들이 연방 규제 당국과 이야기하는 것을 원하지 않는다'는 메시지를 보낸 것"이라며 "AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수 없다"고 말했습니다.
한편 이같은 내부고발이 나오면서 AI산업에 대한 위험이 논란이 화두에 올랐습니다.
오픈AI는 2015년 비영리 회사로 출발했지만, 중간에 창업자들 사이에서 반란이 발생했고 샘 알트만이 해고가 되는 상황이 발생했었습니다.
당시 수석과학자였던 '일리야 수츠케버'는 실제 챗GPT를 기획하고 만든 사람인데, 비영리 기업으로서 투자를 경계하고 기술 혁명이 인류 파괴와 대체를 우려했습니다.
반면 알트만은 투자를 통해 영리기업으로 전환을 노렸으며 기술만능주의를 중시했습니다.
그리고 알트만은 해고를 당한 후, MS와 견고한 동맹을 통해 이사회의 반란을 몰아내고 다시 복귀하게 됩니다.
현재로 돌아와 오픈AI를 이끌었던 공동 창립자 일리야 수츠케버를 비롯해 관련 핵심 인력이 줄줄이 회사를 떠나는 가운데, 내부고발까지 터지면서 오픈AI의 기술에 대한 위험성이 다시 한번 논란이 되고 있습니다.
그리고 과연 인간보다 더 똑똑한 기계를 만드는 것이 인류를 위한 일인가에 대한 의문과 안전과 이를 지킬 프로세서를 과연 오픈AI가 만들 수 있을까에 대한 의견이 꾸준히 제기되고 있습니다.