▲인공지능 활용에 따른 각종 부작용의 발생을 방지하기 위해 세계 각국이 강력 규제에 나서고 있는 가운데 글로벌 인공지능 슬롯사이트사이트에 근무했던 전직 직원들이 인공지능의 안전한 개발을 위해 관련 슬롯사이트사이트들이 내부 고발자 보호를 강화할 것을 촉구하고 나서 주목받고 있다.(사진=프리픽)
▲인공지능 활용에 따른 각종 부작용의 발생을 방지하기 위해 세계 각국이 강력 규제에 나서고 있는 가운데 글로벌 인공지능 기업에 근무했던 전직 직원들이 인공지능의 안전한 개발을 위해 관련 기업들이 내부 고발자 보호를 강화할 것을 촉구하고 나서 주목받고 있다.(사진=프리픽)

인공지능(AI) 활용의 급속한 확대와 그에 따른 각종 부작용의 발생을 방지하기 위해 유럽연합(EU)을 중심으로 세계 각국이 강력 규제를 위한 행보에 나서고 있는 가운데 글로벌 인공지능 기업에 근무했던 전직 직원들이 인공지능의 안전한 개발을 위해 관련 기업들이 내부 고발자 보호를 강화할 것을 촉구하고 나서 주목받고 있다.

해외 블록체인 전문 매체 코인텔레그래프(Cointelegraph)에 따르면 선도적인 인공지능 개발 기업에 근무했었던 전직 직원들은 이들 인공지능 기업에 내부 고발자 보호를 강화할 것을 촉구하고 나섰다.

◆개발우선주의 AI 기업 행태…각국 정부, 단체, 전직 직원 한목소리 비판

지난 6월 4일 오픈AI(챗GPT), 앤트로픽(클로드), 딥마인드(구글)의 전·현직 직원 13명과 ‘인공지능의 대부’로 불리는 요슈아 벤지오(Yoshua Bengio)와 제프리 힌튼(Geoffrey Hinton), 저명한 인공지능 과학자 스튜어트 러셀(Stuart Russell)은 ‘인공지능에 경고할 권리’ 청원을 시작했다.

물론 인공지능 기업에 종사하던 직원 또는 연구원들이 회사의 안전불감증을 지적하고 나선 것은 이번이 처음은 아니다.

지난 5월 오픈AI의 수석 과학자 겸 회사의 공동 설립자 중 한 명인 일리야 서츠케버(Ilya Sutskever)와 초정렬 팀의 다른 공동 책임자였던 전 딥마인드(DeepMind) 연구원이었던 얀 레이크(Jan Leike)가 인공지능의 안전보다 제품 개발에 더 중점을 두고 있다고 생각하는 회사의 우선순위에 대한 우려 때문에 퇴사를 발표한 바 있기 때문이다.

하지만 이번 인공지능 기업의 전직 직원들이 인공지능 기업들의 안전불감증을 지적하며 인공지능의 위험을 공개적으로 다루기 위해 내부 고발자 보호를 강화해야 한다고 촉구하고 나선 것은 이들이 실제로 개발 및 생산 현장에서 근무하면서 경험한 사실을 근거로, 그것도 다수의 사람들이 안전 문제를 거론하고 나섰다는 데서 파급효과가 매우 클 것으로 예상되고 있다.

이 청원은 직원들이 인공지능에 대한 위험 관련 우려를 내부적으로 그리고 대중과 함께 제기할 수 있도록 하기 위한 프론티어 인공지능 기업의 약속을 확립하는 것을 목표로 하고 있다.

전 오픈AI 직원으로 이 운동의 지지자인 윌리엄 손더스(William Saunders)는 잠재적으로 위험한 신기술을 다룰 때는 독립적인 전문가, 정부 및 대중과 위험에 대한 정보를 공유할 수 있는 방법이 있어야 한다고 밝혔다.

윌리엄 손더스는 “오늘날 프론티어 인공지능 시스템의 작동 방식과 배포와 관련된 위험에 대해 가장 잘 알고 있는 사람들은 보복 가능성과 지나치게 광범위한 기밀 유지 계약 때문에 완전히 자유롭게 발언할 수 없다”고 말했다.

▲인공지능 기술 슬롯사이트사이트들이 안전한 인공지능의 개발을 등한시하는 도덕적 해이 상태가 계속될 경우 사내 전문인력들의 연이은 사직 또는 조직적인 반발을 야기하는 등 역풍을 맞을 수 있다는 지적이 제기되고 있다.(사진=프리픽)
▲인공지능 기술 기업들이 안전한 인공지능의 개발을 등한시하는 도덕적 해이 상태가 계속될 경우 사내 전문인력들의 연이은 사직 또는 조직적인 반발을 야기하는 등 역풍을 맞을 수 있다는 지적이 제기되고 있다.(사진=프리픽)

◆위험 우려 제기 직원 처벌 방지…AI 안전 개발 위한 첫걸음

이 청원은 인공지능 개발자들에게 4가지 주요 제안을 담고 있는데 그 중 첫 번째는 위험에 대한 폄하를 없애 기업이 인공지능의 위험에 대한 우려를 제기하는 행동을 처벌하는 것을 막는 합의로 직원들을 침묵시키지 않도록 하는 것이다.

또한 개인이 인공지능 위험에 대한 우려를 제기할 수 있도록 익명의 보고 채널을 구축하여 이러한 위험을 둘러싼 공개적인 비판에 도움이 되는 환경을 조성하는 것을 목표로 한다.

마지막으로 이 청원은 기업이 심각한 인공지능 위험을 알리기 위해 정보를 공개하는 직원에 대해 보복하지 않도록 내부 고발자들을 보호해 줄 것을 요청하고 있다.

윌리엄 손더스는 제안된 원칙들이 필요한 안전하고 유익한 인공지능을 달성하기 위해 인공지능 기업과 협력하는 ‘선제적인 방법’이라고 말했다.

이 청원은 특히 인간과 같은 지능과 스스로 학습할 수 있는 능력을 갖춘 소프트웨어를 만들려고 시도하는 인공 일반 지능(AGI·Artificial General Intelligence)에 직면한 최신 모델의 안전성과 관련해 인공지능 연구소의 ‘우선순위 축소’에 대한 우려가 높아지는 가운데 나온 것이다.

전 오픈AI 직원이었던 다니엘 코코타즐로(Daniel Kokotajlo)는 특히 AGI 생성과 관련하여 그들이 책임감 있게 행동할 것이라는 희망을 잃었기 때문에 회사를 떠나기로 결심했다고 밝혔다.

다니엘 코코타즐로는 “그들과 다른 사람들은 ‘빨리 움직여 물건을 부수는’ 접근 방식을 도입했으며 이는 이렇게 강력하고 잘 이해되지 않는 기술에 필요한 것과는 정반대되는 것”이라고 말했다.

이처럼 인공지능의 개발 및 사용 과정에서 인공지능 기술 기업들에게 안전성 확보를 요구하는 목소리가 세계 각국 정부와 관련 단체, 학계, 심지어 전직 직원들 사이에서 커지고 있음에도 아직껏 이들 기술 기업들은 요지부동 상태다.

이 같은 인공지능 기술 기업들의 행태는 기업의 경영 전략이 시장의 선점과 이를 통한 매출 증대에 초점을 맞추고 있기 때문인 것으로 풀이되고 있다.

하지만 학계와 전문가들은 인공지능 기술 기업들이 현재 지속적으로 제기되고 있는 안전하고 신뢰성을 담보한 인공지능의 개발을 등한시하는 도덕적 해이 상태가 계속될 경우 내부 사정을 가장 정확히 파악하고 있는 중추적인 인력들이 연이은 사직 또는 사내 전문 인력들의 조직적인 반발을 야기해 새로운 제품의 개발 또는 출시에 제동이 걸릴 수 있으며 이로 인해 오히려 매출이 감소되는 역풍을 맞을 수도 있을 것이라고 지적하고 있다. [뉴스드림]

저작권자 © 뉴스드림 무단전재 및 재배포 금지

관련기사