▲인공슬롯 기술 기업들의 개발 우선주의에 대한 우려가 높아지고 있는 가운데 최근 기술 기업 연구원들의 사직 사태가 이뤄지는 상황에서 초슬롯 인공슬롯을 개발하는 것은 위험하다는 주장이 제기돼 주목받고 있다.(사진=프리픽)
▲인공지능 기술 기업들의 개발 우선주의에 대한 우려가 높아지고 있는 가운데 최근 기술 기업 연구원들의 사직 사태가 이뤄지는 상황에서 초지능 인공지능을 개발하는 것은 위험하다는 주장이 제기돼 주목받고 있다.(사진=프리픽)

인공지능의 사용이 전 세계 산업 분야에서 크게 확대되고 인공지능 기술 기업들의 고성능 인공지능 개발이 가속되면서 개인 및 국가에 피해를 야기할 수 있는 부분은 도외시한 채 개발 이익에만 몰두하는 기술 기업들의 신뢰성 및 도덕성에 대한 우려가 제기되고 있다.

이러한 우려가 제기되고 있는 것은 인공지능 활용의 급속한 확대 이후 대부분의 인공지능 기술 기업들이 수익 증대와 직결되는 고성능 인공지능 개발에 몰두하는 반면 최근 지적되고 있는 인공지능 활용에 따른 각종 부작용의 방지를 위한 대책 마련은 도외시하는 모습을 보이고 있기 때문이다.

◆AI 활용 확대 불구…기술 기업 안전 의식 제자리 수준

급기야 최근에는 챗GPT의 개발사로 인공지능 시대를 선도해 온 오픈AI 임원들과 연구원들이 안전한 인공지능의 개발보다 신제품의 개발에만 초점을 맞추고 있는 회사의 정책에 반기를 들고 속속 사직하는 사태가 발생하기도 했다.

이처럼 인공지능 기술 기업들의 개발 우선주의에 대한 우려가 높아지고 있는 가운데 최근 유력한 관련 인사가 기술 기업 임원과 연구원들의 사직 사태가 이뤄지는 상황에서 초지능 인공지능을 개발하는 것은 위험하다는 주장을 제기해 주목받고 있다.

해외 블록체인 전문 매체 코인텔레그래프(Cointelegraph)에 따르면 이더리움 공동 설립자 비탈릭 부테린(Vitalik Buterin)은 오픈AI의 지속적인 리더십 변화에 대응하여 ‘초지능’ 인공지능에 대한 자신의 견해를 공유했다.

잘 알려진 대로 오픈AI의 전 딥마인드 연구원이었던 얀 레이크(Jan Leike)는 회사의 핵심 정책 우선순위에 대해 경영진과 ‘한계점’에 도달했다고 말한 후 사임했다.

얀 레이크는 오픈AI에서 “인공지능의 안전 문화와 프로세스가 반짝이는 제품의 뒷전으로 밀려났다”고 주장했으며 많은 사람들이 인공 일반 지능(AGI·Artificial General Intelligence)을 둘러싼 개발을 지적했다.

인공 일반 지능은 인간의 인지 능력과 동등하거나 이를 능가하는 인공지능의 한 유형이 될 것으로 예상되며 이러한 생각은 이미 업계 전문가들의 우려를 야기하고 있으며 산업 전문가들은 세계가 이러한 초지능적인 인공지능 시스템을 관리할 수 있는 적절한 장비를 제대로 갖추고 있지 않다고 말하고 있다.

이러한 정서는 비탈릭 부테린의 견해와 일치하는 것으로 보인다. X에 올린 글에서 비탈릭 부테린은 이 같은 주제에 대한 자신의 생각을 공유하면서 사람들이 행동에 나서거나 시도하는 사람들에 대해 반발해서는 안 된다는 점을 강조했다.

비탈릭 부테린은 소비자 하드웨어에서 실행되는 개방형 모델을 강조했는데 이는 소수의 대기업 집단이 대부분의 인간의 생각을 읽고 중재할 수 있는 미래에 대한 ‘헤지’였다.

▲안전하고 신뢰성을 담보한 인공슬롯의 개발을 등한시하는 기술 기업들의 행태가 계속될 경우 고성능 인공슬롯 활용에 따른 새로운 부작용의 발생으로 사용자들과 전 세계 산업계가 막대한 피해를 경험할 수도 있을 것이라는 지적이 제기되고 있다.(사진=프리픽)
▲안전하고 신뢰성을 담보한 인공지능의 개발을 등한시하는 기술 기업들의 행태가 계속될 경우 고성능 인공지능 활용에 따른 새로운 부작용의 발생으로 사용자들과 전 세계 산업계가 막대한 피해를 경험할 수도 있을 것이라는 지적이 제기되고 있다.(사진=프리픽)

◆AI 거대 기술 기업 개입 증가…전문가들 한목소리로 우려

비탈릭 부테린은 “이러한 모델은 또한 기업의 과대망상증이나 군대보다 파멸 위험 측면에서 훨씬 낮다”고 말했다.

이러한 글은 지난주에 이어 인공지능과 인공지능의 증가하는 역량에 대한 비탈릭 부테린의 두 번째 논평이다.

지난 5월 16일 비탈릭 부테린은 오픈AI의 GPT-4 모델이 인공지능 모델의 ‘인간성’을 결정하는 튜링 테스트를 통과했다고 주장했다. 비탈릭 부테린은 대부분의 인간이 기계와 대화할 때 판단하고 결정할 수 없다고 주장하는 새로운 연구를 인용했다.

하지만 이 같은 우려를 표명한 것은 비탈릭 부테린이 처음은 아니다. 영국 정부도 최근 인공지능 분야에 대한 빅테크의 개입이 증가하고 있는 것을 면밀히 조사하면서 경쟁과 시장 지배력과 관련된 문제를 제기했다.

6079와 같은 그룹은 이미 인터넷을 통해 등장하고 있으며 분산형 인공지능이 더 민주화되고 빅테크에 의해 지배되지 않도록 보장해야 한다고 주장하고 있다.

비탈릭 부테린의 이러한 주장은 지난 5월 14일 오픈AI의 공동 설립자 겸 수석 과학자인 일리야 수츠케버(Ilya Sutskever)가 사임을 발표하면서 오픈AI 리더십 팀의 또 다른 고위 멤버가 사직한 데 따른 것으로 알려지고 있다.

일리야 수츠케버는 사임하면서도 AGI에 대한 우려에 대해 전혀 언급하지 않았다. 그러나 X에 올린 게시물에서 일리야 수츠케버는 오픈AI가 안전하고 유익한 AGI를 개발할 것이라는 자신감을 표명했다.

학계와 전문가들은 비탈릭 부테린의 주장에 대해 어느 정도 인식을 같이하고 있는 것으로 알려지고 있다.

챗GPT 출시 이후 인공지능 활용으로 불거지고 있는 각종 부작용의 대책 마련을 촉구하는 세계 각국 정부와 관련 단체들의 목소리를 귀담아 듣지 않고 여전히 고성능 인공지능 개발에만 몰두하고 있는 기술 기업들의 민낯이 그대로 드러나고 이에 반발하는 전문 인력들의 사직이 이어지고 있는 상황에서 비탈릭 부테린의 주장이 힘을 받고 있는 셈이다.

학계와 전문가들은 인공지능 활용이 시대적 조류로 자리잡고 있고 이에 따라 인공지능 기술 기업들이 저마다 고성능 인공지능 제품의 개발에 기업의 사활을 걸고 있는 상황이라는 사실은 부인하지 않고 있다.

하지만 지금과 같이 안전하고 신뢰성을 담보한 인공지능의 개발을 등한시하는 기술 기업들의 도덕적 해이 상태가 계속될 경우 이에 반발하는 임원 또는 연구원들의 사직이 이어질 수 있는 것은 물론 고성능 인공지능 활용에 따른 새로운 부작용의 발생으로 사용자들과 전 세계 산업계가 막대한 피해를 경험할 수도 있을 것이라고 지적하고 있다. [뉴스드림]

저작권자 © 뉴스드림 무단전재 및 재배포 금지

관련기사