선도적인 AI 기업인 OpenAI와 Google DeepMind의 현직 및 전직 직원 그룹은 화요일에 기업들이 감독을 피하면서 금전적 이익을 우선시하고 있다고 주장하며 첨단 AI의 위험성을 경고하는 서한을 발표했습니다.
13명의 직원이 서한에 서명했으며, 이 중 11명은 ChatGPT의 개발사인 OpenAI의 현직 또는 전직 직원으로 “고급 인공 지능에 대해 경고할 권리”라는 제목의 서한에 서명했습니다. 다른 두 명의 서명자는 구글 딥마인드의 현직 및 전직 직원입니다. 6명은 익명으로 서명했습니다.
연합은 AI 시스템이 적절한 규제 없이는 심각한 해를 끼칠 수 있을 만큼 강력하다고 경고합니다. “이러한 위험은 기존의 불평등을 더욱 고착화하는 것에서부터 조작과 잘못된 정보, 자율 AI 시스템에 대한 통제력 상실로 인한 인간 멸종에 이르기까지 다양합니다.”라고 서한은 설명합니다.
“우리는 가장 유능하고 안전한 인공지능 시스템을 제공해온 우리의 실적을 자랑스럽게 생각하며, 위험을 해결하기 위한 우리의 과학적 접근 방식을 믿습니다.”라고 OpenAI의 대변인 린지 홀드는 뉴욕 타임즈에 말했습니다. “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 데 동의하며, 전 세계 정부, 시민 사회 및 기타 커뮤니티와 계속 소통할 것입니다.”
구글 딥마인드는 이 서한에 대해 공개적으로 논평하지 않았으며 타임의 논평 요청에도 응답하지 않았습니다.
오픈AI, 구글 딥마인드, 앤트로픽 등 세 주요 AI 기업의 리더들은 과거에 위험에 대해 이야기한 적이 있습니다. “인간 전문가보다 훨씬 더 유능하지만 우리의 최선의 이익과 상충되는 목표를 추구하는 AI 시스템을 구축한다면 그 결과는 끔찍할 수 있습니다… 급격한 AI 발전은 고용, 거시경제, 권력 구조를 변화시켜 매우 파괴적일 것입니다… [우리는 이미] 독성, 편견, 신뢰성, 부정직성에 직면했습니다.” AI 안전 및 연구 회사 Anthropic은 2023년 3월 성명에서 서한에 링크되어 있는 성명을 통해 이렇게 말했습니다. (현재 구글 딥마인드에서 근무하는 서한 서명자 중 한 명은 앤트로픽에서 근무한 적이 있습니다.)
이 서한을 작성한 단체는 AI 기업들이 개발 중인 AI 기술의 위험성에 대한 정보를 가지고 있지만 정부에 많은 정보를 공개할 의무가 없기 때문에 시스템의 실제 기능은 비밀로 남아 있다고 주장합니다. 즉, 현재 및 전직 직원들만이 기업에 책임을 물을 수 있지만, 많은 직원들이 기밀 유지 계약에 묶여 공개적으로 우려를 표명하지 못하고 있다고 이들은 말합니다. “일반적인 내부 고발자 보호는 불법 활동에 초점을 맞추기 때문에 불충분한 반면, 우리가 우려하는 많은 위험은 아직 규제되지 않았습니다.”라고 이 단체는 썼습니다.
“직원들은 중요한 안전 방어선이며, 보복 없이 자유롭게 말할 수 없다면 그 채널은 폐쇄될 것입니다.”라고 이 단체의 무료 변호사 로렌스 레식은 뉴욕 타임즈에 말했습니다.
AI 정책 연구소의 조사에 따르면 미국인의 83%는 AI가 실수로 재앙적인 사건을 일으킬 수 있다고 믿고 있습니다. 또 다른 82%는 기술 업계 경영진의 자율 규제를 신뢰하지 않습니다. 이 연구소의 전무이사인 다니엘 콜슨은 이 서한이 수석 과학자 일리아 수츠케버를 비롯한 유명 인사들이 잇따라 OpenAI에서 퇴사한 이후에 나왔다고 지적합니다. 서츠케버의 퇴사와 함께 전직 직원들이 회사에 대해 부정적으로 말하는 것을 금지하는 비방 금지 계약도 공개되었습니다. 이 규정을 지키지 않으면 기득권을 잃게 될 수도 있습니다. 콜슨은 “직원과 내부 고발자가 무슨 일이 일어나고 있는지 공유하고 우려 사항을 공유할 수 있어야 합니다.”라고 말합니다. “실제로 무슨 일이 일어나고 있는지 아는 사람들이 말하는 것을 제한하는 것은 우리가 기술을 개발하는 방법에 대해 올바른 선택을 할 수 있는 능력을 약화시킵니다.”
서한 작성자들은 선진 AI 기업에 대해 직원들에게 “위험 관련 우려”에 대해 고용주를 비판하지 못하도록 하는 계약 강요를 중단하고, 직원들이 이사회 구성원 및 기타 관련 규제 기관이나 조직에 우려를 제기할 수 있는 익명 절차를 만들고, “열린 비판 문화”를 지원하고, “위험 관련 기밀 정보를 다른 절차가 실패한 후 공유하는” 전현직 직원에게 보복하지 말 것을 요구하는 등 네 가지 요구 사항을 제시했습니다.
“콜슨은 “그 어느 곳에서도 볼 수 없었던 것은 안전 테스트와 같은 요구사항과 사이버 보안 요건 또는 안전 테스트 요건을 준수하지 않을 경우 이러한 모델을 개발할 수 없도록 제한하는 것입니다.”라고 말합니다.
전 세계 각국 정부가 AI를 규제하기 위해 움직이고 있지만, AI의 발전 속도에 비해 진전은 더디기만 합니다. 올해 초 유럽연합은 세계 최초로 포괄적인 AI 법안을 통과시켰습니다. 영국과 한국에서 열린 AI 안전 서밋과 2023년 10월 유엔에서 열린 AI 안전 서밋을 통해 국제 협력을 위한 노력이 계속되고 있습니다. 조 바이든 대통령은 AI 기업이 개발 및 안전 테스트 계획을 상무부에 공개하도록 하는 AI 행정명령에 서명했습니다.
-추가 보도: Will Henshall/Washington
https://time.com/6985504/openai-google-deepmind-employees-letter
+ There are no comments
Add yours