
“사람과 지구를 위한 포용적이고 지속가능한 인공지능” 선언이 허언이 되지 않으려면
“바닥을 향한 규제완화 경쟁” 멈추어야
1. 지난 2월 10-11일, 프랑스 파리에서 AI 행동 정상회의가 개최되었다. 정상회의의 결과로 “사람과 지구를 위한 포용적이고 지속가능한 인공지능” 선언문이 발표되었다. 인공지능(AI)의 안전한 사용과 규제 방안을 모색하기 위한 전지구적 행사이지만, 시민의 인권과 안전을 보호하고 신뢰할 수 있는 AI를 위한 글로벌 거버넌스 체제를 구축하는데 성공하지 못했다고 평가되고 있다. 국내 AI산업계는 트럼프 2기 행정부의 자국 중심주의 폭주와 중국의 딥시크 충격을 명분삼아, 다시 ‘규제는 나중에’를 외치고 있으며 정부와 국회는 이에 호응하고 있다. 이렇게 추진되는 AI가 소수 독점기업의 이익이 아니라, 과연 인류의 행복과 번영에 기여할 수 있는지에 대한 근본적인 질문은 잊혀지고 있다. 오히려 더 갈길을 잃은 것 같은 현 정세 속에서 우리는 어느 방향으로 나아가야 할지 국내 시민사회의 입장을 간단하게 밝히고자 한다.
2. 이번 정상회의의 “사람과 지구를 위한 포용적이고 지속가능한 인공지능” 선언문이 AI의 위협으로부터 인류의 ‘안전’이라는 초점에서 나아가, 인권의 보장, 개발도상국의 역량 강화, AI가 에너지에 미치는 영향을 포함한 지속가능성 보장, 다중 이해관계자의 참여, 국제협력 강화를 위한 국제 AI 거버넌스 등을 다룬 것은 긍정적이다. 그럼에도 불구하고, AI 행동 정상회의가 정작 어떠한 ‘행동’을 추동했는지는 회의적이다. 이는 비단 미국과 영국이 이 선언문에 서명하지 않았기 때문이 아니다. 그 보다는 정상회의가 선언문의 내용과 달리 ‘AI 혁신과 산업 발전’에 초점에 맞추었고, AI가 야기하는 인권 침해의 문제나 이를 보장하기 위한 방안에 대한 의미있는 논의가 이루어지지 않았기 때문이다. 선언문에서 제시하고 있는 과제를 어떻게 이행할 것인지에 대한 구체적인 방안도 부재한 것으로 보인다. 시민사회의 참여 역시 매우 제한적이었다.
3. 정상회의 직전 <2025 국제 AI 안전 보고서 (International AI Safety Report 2025)>가 발표되었다. 이 보고서는 지난 2023년 영국 AI 안전 정상회의의 결정으로 시작되었는데, 전 세계 33개국 및 국제기구 대표를 포함하여 100명의 AI 전문가에 의해 작성되었다. AI 4대 석학 중 한 명인 요슈아 벤지오 캐나다 몬트리올대 교수가 이 보고서 작업을 이끌었다. 이 보고서는 현재의 과학 발전 수준에서 판단할 수 있는, 첨단 AI의 역량과 개인 및 사회에 미칠 수 있는 위험에 대한 현황을 다루고 있다. 우리는 AI 안전을 위한 과학자들의 우려에 공감하며 그들의 국제적인 노력을 지지한다. 유엔, OECD 등 국제기구와 각 국 정부는 이러한 노력이 국제적인 시너지를 발휘할 수 있도록 협력하고 제도화할 수 있는 방안을 찾아야 한다.
4. 우리는 AI 행동 정상회의의 부대 행사로 한국의 개인정보보호위원회가 프랑스 개인정보 감독기구(CNIL), 경제협력개발기구(OECD)와 공동으로 ‘인공지능 시대의 국제 데이터 거버넌스와 개인정보 보호’ 고위급 원탁회의를 개최한 것에 주목한다. AI 개발, 활용 과정에서 개인정보보호 문제는 핵심적인 쟁점 중의 하나다. 또한 공정성, 투명성, 설명가능성 등 개인정보 규제체제와 AI 규제체제에서 활용되는 개념이 유사하면서도 차이가 있기 때문에 향후 이에 대한 검토도 필요하다. 우리는 개인정보보호위원회가 국제 규범을 선도하기 위해 노력하는 것을 환영하지만, 이를 위해서는 국제 규범에 맞게 국내 개인정보보호법을 정비하는 것도 소홀히 하지 않아야 한다는 점을 강조한다. 이런 점에서 최근 개인정보보호위원회가 개인정보의 개념을 축소하거나 맞춤형(표적) 광고 목적의 행태정보 보호에 후퇴하는 모습을 보이는 것은 우려스럽다. 또한 한국 개인정보보호법이 인공지능 환경에서 공정성, 책임성, 차별 금지, 투명성, 설명가능성 원칙을 실질적으로 보장하도록 개선할 필요가 있다.
5. 트럼프 정부 등장과 함께, 미국의 빅테크는 인권 보호나 사회적 책임과 같은 가면을 벗어던지기 시작했다. 구글·아마존·메타 등은 소수인종 채용 등을 장려한 ‘다양성·형평성·포용성(DEI) 정책’을 잇달아 폐기·축소하고 있다. 메타는 페이스북과 인스타그램 등의 플랫폼에서 ‘팩트체크’ 기능과 혐오 표현 규제 정책을 폐지하겠다고 밝혔으며, 이는 구글 역시 마찬가지다. 또한 구글은 AI 기술을 무기나 감시 용도로 사용하지 않는다는 조항을 자신의 AI 윤리 지침에서 삭제했다. 지난 미 대선에서 일론 머스크의 X는 트럼프 지지와 해리스 비방, 선거 관련 음모론과 허위조작정보를 쏟아내면서, 이러한 게시물이 더 많이 노출되도록 알고리즘을 조작했다. 이는 기업의 자율규제 논리가 얼마나 허망한 것인지 다시 한번 일깨워준다. 자율규제가 필요없는 것은 아니지만, 이는 최소한의 사회적 규율 위에서 작동되어야 한다.
6. 미국의 일방주의를 견제하기 위해서는 AI 규율을 위한 국제 규범을 형성하기 위한 국제협력, 글로벌 AI 거버넌스가 강화될 필요가 있다. 이는 AI 행동 정상회의 선언문에서도 강조하고 있는 바이고, 한국의 AI 규제가 국제규범과의 통일성을 갖기 위해서도 중요하다. 이런 의미에서 한국 역시 세계 최초의 법적 강제성이 있는 국제협약인, 유럽평의회(Council of Europe)의 AI 기본협약(The Framework Convention on Artificial Intelligence)에 가입할 것을 촉구한다. 이 협약에는 현재 미국, 영국, 유럽연합을 비롯하여 11개국이 서명하였다. 한국이 국제적인 규범 형성에 적극적으로 나서는 것은 AI 규범 형성에서 한국의 글로벌 리더십을 강화하는 계기가 될 수 있다.
7. <2025 국제 AI 안전 보고서>는 위험 관리와 정책 형성에 대한 사회적 도전의 하나로 범용 AI의 강한 경쟁 압박으로 안전하고 윤리적인 모델을 보장하는 조치에 대한 투자가 축소되는 ‘바닥을 향한 경쟁(race to the bottom)’을 우려한 바 있다. 기업들은 지금이 한국 AI 발전을 위한 골든타임이라고 하지만, 우리는 안전하고 신뢰할 수 있는 AI 구축을 위한 거버넌스 구축의 골든타임을 놓치고 있는 것일 수 있다. ‘바닥을 향한 규제 완화 경쟁’의 끝에서 살아남은 이들에게 누가 1등 AI이든 어떠한 의미를 가질 수 있을까 심각하게 숙고해야 할 것이다. 끝.
민주사회를위한변호사모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대