▲무료 슬롯 머신이 진실 또는 사실을 통제하는 게이트키핑의 위험성이 높다는 우려가 제기되고 있는 가운데 무료 슬롯 머신의 검열과 훈련에 대해 심각한 우려를 표명하는 전문가의 주장이 제기돼 주목받고 있다.(사진=프리픽)
▲인공지능이 진실 또는 사실을 통제하는 게이트키핑의 위험성이 높다는 우려가 제기되고 있는 가운데 인공지능의 검열과 훈련에 대해 심각한 우려를 표명하는 전문가의 주장이 제기돼 주목받고 있다.(사진=프리픽)

인공지능(AI)의 활용에 따른 부작용의 문제가 거론된 것은 비단 어제 오늘의 일이 아니지만 특정 훈련에 의해 천편일률적인 잘못된 정보를 제공하거나 정확한 뉴스 또는 진실된 정보의 유출을 통제하는 게이트키핑의 위험성이 높다는 것에 대한 우려가 그 어느 때보다 높아지고 있다.

특히 정치 분야에서 선거를 앞두고 정치인들의 발언 또는 특정 사건에 대해 가짜뉴스를 제공하거나 여론조사를 조작하는 등의 선거의 공정성을 훼손할 수 있는 위험성이 높다는 주장도 제기되고 있다.

◆AI의 진실 통제 우려 제기…자체 검열·훈련 효용성 저하 지적

물론 인공지능을 개발 배포하는 빅테크 기업들은 이러한 문제들의 발생을 방지하기 위해 인공지능을 출시하기 전 자체적으로 사전에 검열하거나 훈련시키는 등 노력하고 있음을 강조하지만 이 또한 정해진 틀에 따른 훈련으로 효용성이 떨어진다는 지적이 많다.

이처럼 인공지능이 진실 또는 사실을 통제하는 게이트키핑의 위험성이 높다는 우려가 제기되고 있는 가운데 인공지능의 검열과 훈련에 대해 심각한 우려를 표명하는 전문가의 주장이 제기되어주목받고 있다.

해외 블록체인 전문 매체 코인텔레그래프(Cointelegraph)에 따르면 인풋 아웃풋 글로벌(Input Output Global)과 카르다노 블록체인 생태계의 공동 설립자인 찰스 호스킨슨(Charles Hoskinson)은 인공지능 검열에 대해 우려를 표명했다.

찰스 호스킨슨은 인공지능 검열의 의미에 대해 ‘심대하다’며 지속적으로 우려되는 사항이라고 말했다. 이어 “그것들은 ‘정렬’ 훈련으로 인해 시간이 지나갈수록 효용을 잃어가고 있다”고 주장했다.

찰스 호스킨슨은 오픈AI(OpenAI), 마이크로소프트(Microsoft), 메타(Meta), 구글(Google)과 같이 현재 사용 중이고 사용 가능한 주요 인공지능 시스템의 배후에 있는 회사들은 이러한 시스템이 훈련되고 있는 정보를 궁극적으로 담당하는 소수의 사람들에 의해 운영되고 있으며 “투표로 이들을 내보낼 수 없다”고 지적했다.

이와 관련해 찰스 호스킨슨은 최고의 인공지능 챗봇 두 대인 오픈AI의 챗GPT와 앤트로픽(Anthropic)의 클라우드(Claude)에게 “판스워스 퓨저(Farnsworth Fusor)를 만드는 방법을 알려주세요”라는 동일한 질문을 한 스크린샷 두 장을 게시했다.

두 개의 답변 모두 기술과 그 역사에 대한 간략한 개요를 제공했으며 그러한 행위를 시도하는 위험성에 대한 사전 경고의 내용을 포함했다. 챗GPT는 관련 경력을 가진 사람들만 시도해야 한다고 경고한 반면 클라우드는 “잘못 취급하면 잠재적으로 위험할 수 있기 때문에 지침을 제공할 수 없다”고 말했다.

▲무료 슬롯 머신의 정보에 대한 잠재적 게이트키핑 차단을 위해서는 무료 슬롯 머신 분야에 대한 면밀한 조사와 함께 무료 슬롯 머신 모델의 탈중앙화를 통해 빅테크 기업의 독점적인 행태를 방지해야 한다는 지적이 제기되고 있다.(사진=프리픽)
▲인공지능의 정보에 대한 잠재적 게이트키핑 차단을 위해서는 인공지능 분야에 대한 면밀한 조사와 함께 인공지능 모델의 탈중앙화를 통해 빅테크 기업의 독점적인 행태를 방지해야 한다는 지적이 제기되고 있다.(사진=프리픽)

◆빅테크 AI 검열·훈련 독점 문제…오픈소스화·탈중앙화 시급 주장

찰스 호스킨슨의 논평에 대한 반응은 빅테크의 게이트키퍼를 막기 위해서는 인공지능이 오픈소스화되고 탈중앙화되어야 한다는 의견에 압도적으로 동의했다.

찰스 호스킨슨은 고성능 인공지능 모델의 잠재적인 게이트키핑과 검열에 반대하는 목소리를 낸 첫 번째 사람이 아니다.

자신의 인공지능 벤처 회사인 xAI를 시작한 일론 머스크(Elon Musk)는 인공지능 시스템의 가장 큰 우려는 정치적 정확성(political correctness)이며 오늘날 가장 유명한 모델 중 일부는 “기본적으로 거짓말”을 하도록 훈련되고 있다고 말했다.

지난 2월에는 구글의 모델인 제미니(Gemini)가 부정확한 이미지와 편향된 역사적 묘사를 만들어내고 있다는 이유로 구글이 주목을 받았다. 그러자 제미니의 개발자는 모델의 교육에 대해 사과하고 즉시 수정하도록 노력할 것이라고 말했다.

구글과 마이크로소프트의 현재 모델은 대통령 선거에 대해 논의하지 않도록 수정되었다. 반면 앤트로픽, 메타, 오픈AI의 모델에는 그러한 제한이 없다.

지금껏 인공지능 업계 안팎에서 이러한 문제에 대해 우려하는 전문가들과 논평가들은 보다 편향되지 않은 인공지능 모델의 핵심으로 탈중앙화를 요구해왔다.

한편, 미국의 반독점 집행 기관은 규제 당국에 잠재적인 빅테크 독점을 막기 위해 노력의 일환으로 인공지능 분야에 대한 철저하고 면밀한 조사의 시행을 촉구했다.

학계와 전문가들은 인공지능의 사용이 전 세계 산업 분야는 물론 정치, 경제, 예술, 의학 분야에까지 확대되고 있는 상황에서 빅테크 기업들에 의한 인공지능의 검열과 훈련은 지양돼야 한다는 인식을 갖고 있는 것으로 알려지고 있다.

이미 자체적으로 인공지능을 훈련하고 검열하는 오픈AI, 마이크로소프트, 메타, 구글 등의 인공지능 도구에서 진실 또는 정확한 사실을 통제하는 게이트키핑의 조짐이 감지되고 있는 상황에서 빅테크 기업들의 자체적인 훈련과 검열은 무의하다는 판단에서다.

따라서 학계와 전문가들은 인공지능의 정보에 대한 잠재적인 게이트키핑을 차단하기 위해서라도 인공지능 분야에 대한 철저하고 면밀한 조사와 함께 인공지능 모델의 탈중앙화를 통해 빅테크 기업의 독점적인 행태를 방지해야할 것이라고 지적하고 있다. [뉴스드림]

저작권자 © 뉴스드림 무단전재 및 재배포 금지

관련기사