AI에 대한 경고와 대응

뇌의 신경망을 흉내내 지적인 문제를 풀게 만들겠다는 야심찬 기술이 처음 등장했을 때 이들이 실제로 인간의 지적 능력을 흉내 낼 수 있게 될 거라 생각한 사람은 많지 않았다. 그러나 수십 년의 기술개발은  21세기 하드웨어의 발달과 더불어 2016년, 알파고가 바둑에서 인간을 이겼고 2022년, 생성AI 기술에 기반한 챗GPT는 거의 모든 질문에 대해 보통 사람보다 더 답을 잘하고 있다.


새로운 기술은 사람들을 놀라게 하며, 그 놀라움에는 자신이 이를 이해하지 못한다는 사실에 바탕한 두려움이 포함되어 있다. 80년 전의 원자폭탄보다도 인류에 더 큰 영향을 미칠 것이라 예상되는 AI 기술에 사람들이 두려움을 느끼고 이를 경고하는 것은 어떻게 보면 당연한 일일 수 있다.


다음은 지난달 뉴욕타임즈 오피니언 란에 실린 브루스 슈나이어9안보 기술 전문가)와 네이선 샌더스(하버드대의 데이터 과학자)의  ‘AI에 대한 경고 주장과 대응에 관한 내용’ 중 일부이다.


인공지능의 잠재적인 파괴력에 대해 경고하는 연구자나 업계의 거물은 셀 수 없이 많다. 관련 기사를 읽다 보면, 급속도로 발전하는 AI 기술의 위험에 대한 공동 인식, 나아가 그 위험을 최소화하기 위한 노력으로 이어졌으면 하는 바람이 자연히 생긴다.


그러나 불행히도 현실은 사뭇 다르다. AI에 대한 모든 증언과 선언, 블로그 글과 공개 선언 아래는 극명하게 갈리는 진영 간의 치열한 권력 싸움이 자리하고 있다. 일부는 과학소설처럼 들리는 먼 미래의 위험을 걱정한다. 어떤 이들은 챗봇과 딥페이크 영상 제조기가 현재 유발하고 있는 실질적인 문제에 대해 진심으로 경고한다. 잠재적인 사업성에 관심을 두는 이들, 국가 안보 문제를 우려하는 이들도 있다.


AI 위험에 대한 경고를 세 진영으로, 첫 번째 진영은 종말론자 진영으로 AI가 무소불위의 힘을 가지고 있으며 따라서 AI 개발에 극단적인 조심을 해야 한다고 말한다. 


다른 진영은 개혁론자 진영으로 이들은 지금 눈앞에서 AI가 작동하는 방식에 문제가 있다고 말한다. 곧, AI가 학습하는 데이터에 포함된 인종차별이나 성차별이 그 AI가 사용될 때 그대로 나타난다는 것이다. 이는 AI가 가진 본질적인 문제이지만 다른 한편으로 우리가 AI의 바람직한 모습에 동의한다면 대부분 제어 가능한 문제이기도 하다. 
마지막 진영은 AI 기술을 원자폭탄처럼 특정 집단에게 큰 힘을 부여할 기술로 보아 이를 누가 가져야 하는가에 주목하는 이들이다. 앞의 두 진영이 인간과 AI 기술을 대비시킨다면, 이 진영은 인간을 다시 집단으로 나눈다는 점에서 더 현실적이라 할 수 있다. 


과학소설가 테드 창의 ‘종이 클립 맥시마이저(Paperclip Maximizer, 종이 클립을 최대한 생산하라는 명령을 받은 인공지능이 수단과 방법을 가리지 않고 모든 자원을 활용해 종이 클립과 종이 클립 제조시설을 만들어 온 우주가 종이 클립으로 가득 차게 된다는 가설)’은 AI의 존재론적 위협에 대한 공포는 사실 규제받지 않는 자본주의의 위협에 대한 공포다. 


코스마 샬리지와 헨리 패럴은 나아가 “우리는 이미 수 세기 동안 괴물들 사이에서 살아왔고, 그들이 우리의 주인인 마냥 시중을 들어왔다”고 주장하며. 독점 플랫폼이 늘 자신의 이익을 위해 인류의 노동력과 독창성을 착취해 왔다고 이야기한다. 이런 공포는 과거와 현재의 기업에 대해서와 마찬가지로, AI와 함께할 미래에도 똑같이 적용된다.
모든 규제를 처음부터 다시 만들어 낼 필요는 없다. 기업의 힘을 제한하는 규제들, 우리가 이미 알고 있는 규제를 확실히 하는 거로 충분하다. AI, 중국, 악독한 자본가들 간의 싸움에 집착하며 갈 길을 잃지 말고, 모든 사안에 있어 선하고 효과적인 거버넌스를 세우는 일에 더욱 진지하게 임해야 한다.


의료 부문과 마찬가지로 AI 기업들을 규제하기 위해서는 공적 AI 옵션이 필요하다. 공공이 주도하는 AI 개발 프로젝트는 이익을 영리 기업이 개발한 AI가 독점하지 못하게 견제하고, 21세기 핵심 기술에 접근할 공정한 기회를 보장하는 동시에 AI의 윤리적인 개발과 사용을 위한 플랫폼으로 기능할 것이다.


또한, 우리는 AI 뒤에 있는 인간의 존재를 인식해야 한다. 개발 단계에서 투명성을 강화해 창업자와 기업의 책임을 묻고, AI 관련 법적 기준을 강화할 수도 있을 것이다.


궁극적으로 우리는 우리의 집단적 행동을 규율하는 법과 규제의 네트워크를 더욱 촘촘하게 만들어 공백을 줄이고, 특히 민주주의와 환경에 큰 영향을 줄 수 있는 분야에 대해서는 권력을 가진 사람들의 책임을 더 크게 물어야 할 것이다. 권력자와 특권층이 AI를 활용해 더 많은 부를 축적하거나 극단적인 이념을 추구할 준비가 된 것처럼 보이는 지금, 공공의 광장에서 이들의 영향력을 제한할 수 있는 방안을 떠올려 보자.

 

인용 원문 : The A.I. Wars Have Three Factions, 
and They All Crave Power
By Bruce Schneier and Nathan Sanders


조은별 기자

포토뉴스

더보기