type

[해외정보인권] UN AI 자문기구 임시 보고서: 인류를 위한 AI 관리

By 2024/03/29 No Comments

편집자주 :

인공지능의 광범위한 영향력은 국가, 지역, 커뮤니티 등 구분이 없고, 앞으로 이 현상은 더더욱 심화될 것입니다. 이에 세계적으로 인공지능의 잠재력을 올바른 방향으로 사용하고 위험성을 줄이고자 하는 국제 거버넌스의 필요성이 계속 대두되고 있습니다.

보고서를 작성한 AI 자문기구는 2023년 10월 인공지능의 국제 거버넌스에 대한 분석과 발전적 권고를 수행하기 위해 구성되었습니다. AI 자문기구는 인공지능의 국제 거버넌스에 대한 분석과 발전적 권고안을 마련하고자 한 이 보고서에 대한 피드백을 바탕으로 2024년 8월 31일까지 인공지능 거버넌스를 위한 새로운 국제기구의 기능, 형태 및 일정에 대한 세부 권고안을 담은 2차 보고서를 제출할 예정입니다.

자문기구는 이 보고서에서 인공지능 국제 거버넌스와 강제성 있는 국제적 규범 그리고 그것을 다루는 기관의 필요성을 짚고, 해당 기관이 가져야 할 기능에 대해서도 방향을 제시하고 있습니다.

(1차로 기계번역의 도움을 받았습니다)


번역오류는 jinbo.policy 골뱅이 gmail.com 으로 알려주세요.
제목 : UN AI 자문기구 임시 보고서: 인류를 위한 AI 관리
원문제목 : UN Secretary-General’s AI Advisory Body Interim Report: Governing AI for Humanity
원문링크 : https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf

일시 : 2023년 12월
작성 : UN Secretary-General’s AI Advisory Body

UN AI 자문기구 임시 보고서: 인류를 위한 AI 관리

https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf

인류를 위한 AI 관리

2023년 12월

  1. 인공 지능

(AI)는 우리 모두에게 점점 더 많은 영향을 미치고 있습니다. AI는 오래 전부터 존재해 왔지만, 예전에는 상상하기 어려웠던 기능이 전례 없는 속도로 빠르게 등장하고 있습니다. AI는 인간 지식의 지평을 넓히는 과학적 발견부터 한정된 자원을 최적화하고 일상 업무를 지원하는 도구에 이르기까지 놀라운 잠재력을 제공합니다. 친환경 미래로의 전환에서 판도를 바꿀 수도 있고, 개발도상국이 공중 보건을 혁신하고 교육 접근성의 문제를 뛰어넘을 수 있도록 도울 수도 있습니다. 인구 고령화가 진행되고 있는 선진국에서는 노동력 부족 문제를 해결하는 데 활용할 수 있습니다.

  1. 하지만 위험도 존재합니다. AI는 편견을 강화하거나 감시를 확대할 수 있으며, 자동화된 의사결정은 공직자 선출 과정을 위협하는 허위 정보로 인해 공직자의 책임성을 모호하게 만들 수 있습니다. 더욱 강력한 시스템이 개발, 배포, 사용되는 경우에도 AI 시스템의 속도, 자율성, 불투명성은 기존의 규제 모델에 도전하고 있습니다.
  1. 사람과 사회에 대한 AI의 기회와 위험은 분명하며 대중의 관심을 사로잡고 있습니다. 또한 전세계적으로 AI의 원동력이 되는 데이터, 컴퓨팅, 인재에 대한 접근을 둘러싼 지정학적 긴장과 함께 새로운 AI 군비 경쟁에 대한 이야기가 나오면서 전세계적으로 나타나고 있습니다. 또한 혜택과 위험이 공평하게 분배되지도 않습니다. 인류가 AI의 긍정적인 측면만 활용한다고 해도 그 혜택이 일부 부유층에 국한될 위험이 있습니다. 오늘날의 AI 혜택은 주로 소수의 국가, 기업, 개인에게 돌아가고 있습니다. 
  1. 단순히 도전과 위험을 해결하는 데 그치지 않고 누구도 뒤처지지 않는 방식으로 이 기술과 잠재력을 활용하기 위해 거버넌스를 요구합니다. 성공의 핵심 척도는 AI 기술이 지속 가능한 개발 목표(SDG)를 달성하는 데 어느 정도 도움이 되는지 여부입니다. 예를 들어, 박스 1은 기후 변화와 그 영향에 대처하는 데 있어 AI의 잠재력을 보여줍니다(SDG 13).
박스 1: AI가 기후 변화에 대응하는 데 어떻게 도움이 되는지 보여주는 사례 연구

기후 변화와 AI 기회의 중요한 교차점 – 사례 연구

기후 변화는 지속 가능한 디지털 혁신, 신중하게 설계된 새로운 인프라, 대규모로 정확한 의사 결정을 내릴 수 있는 능력이 요구되는 전 지구적이고 보편적인 도전 과제입니다. AI 기반 접근 방식은 머신러닝, 대규모 언어 모델, 고품질 데이터 분석 등의 주요 개발 기술을 통합하여 새로운 역량을 창출하는 이 과제에 특히 적합합니다.

지리공간 이미지, 분산된 센서, 실시간 모니터링, 국지적 기후 변화의 영향에 대한 시민 보고 데이터 등 단절되고 이질적인 현상을 설명하는 정보는 기후 결과를 초래하는 입력, 결과 및 복잡한 시스템에 대한 새로운 이해를 만드는 데 사용될 수 있습니다. 데이터를 인사이트로, 인사이트를 행동으로 전환할 수 있는 예측 시스템과 함께 AI 지원 도구는 배출량을 줄이고, 순배출 제로를 위한 새로운 민간 부문 투자에 영향을 미치며, 생물 다양성을 보호하고, 광범위한 사회적 회복력을 구축하기 위한 새로운 전략과 투자를 개발하는 데 도움이 될 수 있습니다. 이는 다른 SDG에도 적용될 수 있습니다.

다음은 기후 변화에 대응하는 데 도움이 되는 AI의 초기 약속의 전체 목록입니다:

– 기후 투자를 위한 새롭고 매우 세분화된 예측 리소스를 생성하여 국가 및 하위 국가 거버넌스 기관에 기후 행동에 대한 책임을 부여합니다. 예를 들어, 폭풍 관련 도시 홍수에 대한 실시간 히트맵을 통해 하수도 및 배수 시스템의 지역 인프라를 개선할 수 있습니다.

– 공개 오픈소스 데이터와 AI 시스템을 구축하여 민간 부문의 탄소중립 보고를 정적인 규정 준수 기능에서 대중을 향한 실시간 데이터 저장소로 전환하여 공공의 약속에 대한 신뢰, 투명성, 책임성을 높입니다.

– 도시 이동성 및 행동 패턴에 대한 정보와 연계된 고급 기후 모델링을 사용하여 새로운 조기 경보 시스템을 구축함으로써 분쟁/재난 후 구호 및 복구를 보다 효과적으로 제공할 수 있도록 합니다.

– 불확실성이 높아 중요한 초기 단계 투자를 제한할 수 있는 개방형 시스템 및 기타 탄소 제거 기술에 대한 증거 기반 AI 개입을 개발합니다. 고급 모델링 기술은 과학적 조사 비용을 낮추고 새로운 솔루션의 신속한 프로토타입 제작을 가능하게 합니다.

그러나 이러한 기술이 기후 위기의 범위에 걸맞은 규모에 도달하고 기업, 정부, 활동가, 시민 사회 등 기후 대응에 있어 중요한 이해관계자들의 다양한 요구를 충족하기 위해서는 구조적인 장벽이 남아 있습니다. 알고리즘 편향, 전달 맥락 편향, 해석 편향, 대표성 및 할당 피해와 같은 시스템적 위험도 고려해야 합니다. 장벽을 극복하기 위한 몇 가지 조치는 다음과 같습니다:

– 중요한 기후 의사 결정에 AI가 제공하는 인사이트의 채택을 늘리기 위해 모델 설명력과 신뢰도를 개선합니다.

– 영리 단체에서 수집한 상업적으로 실행 가능한 데이터와 비영리, 자선, 정부 자원으로 자금을 지원받아 ‘부족한 부분을 채우고’ 지역의 암묵적 지식을 보완하는 데이터를 모두 반영하는 다양하고 진정한 대표성을 지닌 데이터 세트로 AI 모델을 학습시키도록 합니다.

– 기후 변화 취약성의 영향을 받는 지역사회에 민간 기업에만 제공되던 AI 생성 예측에 대한 액세스를 제공합니다.

– 컴퓨팅 및 머신러닝 전문 지식의 비용을 낮춰 비영리 단체와 시민 사회가 무료 개방형 AI 제품을 구축하고 유지할 수 있도록 지원합니다.

– 민간 또는 자선 단체의 투자를 받기 위해 경쟁하기 위해 독점 솔루션을 구축하거나 독점 데이터를 보유하는 여러 조직의 독점을 위한 행동을 막아냅니다. 

– 이러한 솔루션 확장을 위한 자금 조달을 실행합니다.

이러한 혁신적 접근 방식을 실현하기 위해서는 AI와 기후 변화에 대한 일선 현장 경험 사이의 교차 연결이 중요합니다. 컴퓨팅, 데이터, 인재가 있더라도 기술적 격벽에 존재하는 솔루션은 지역사회 구성원과 지역 의사결정권자의 생생한 경험을 반영하지 못하면 활용과 배포에 상당한 어려움을 겪게 됩니다.

위에서 설명한 각 기회에 대해 비기술적 이해관계자의 중요한 초기 의견은 프로젝트 구상, 설계, 실행 및 통합에 영향을 미쳐야 합니다. 따라서 조력자는 커뮤니티의 이익을 우선시하는 가치 기반 접근 방식, 기술 및 문제 기반 전문 지식의 조합, 새로운 AI 개발에 대한 포괄적인 접근 방식이 필요합니다. 또한 에너지 및 물 소비와 관련된 기후 변화에 대한 AI의 잠재적인 부정적 영향도 주시해야 합니다.

  1. AI에 관한 고위급 자문기구는 AI의 국제 거버넌스를 위한 권고안을 분석하고 발전시키기 위해 구성되었습니다. 우리는 이 임무를 단순히 현재 AI를 어떻게 관리할 것인지에 대한 고려뿐만 아니라 변화의 속도가 더욱 빨라질 환경에 대비하여 거버넌스 기관을 어떻게 준비할 것인지에 대한 고려로 해석합니다. 따라서 AI 거버넌스는 민첩성, 네트워크성, 유연성 등 기술 자체의 특성과 빠르게 진화하는 용도를 반영해야 할 뿐만 아니라 모든 인류의 이익을 위해 권한을 부여하고 포용하는 것이어야 합니다.
  1. 우리의 업무는 규범이나 제도적 공백 속에서 이루어지지 않습니다. 유엔은 모든 회원국이 준수하는 규칙과 원칙에 따라 운영됩니다. 이러한 공유되고 성문화된 규범과 가치는 AI 거버넌스를 포함한 모든 업무의 근간이 됩니다. 유엔 헌장, 세계 인권 선언, 환경법 및 국제인도법을 포함한 국제법에 대한 약속을 포함한 규범이 AI에 적용됩니다. 평화와 안보에서 지속 가능한 개발에 이르기까지 다자간 목표를 지원하기 위해 만들어진 기관은 위험으로부터 보호하면서 기회를 창출하는 역할을 수행해야 합니다.
  1. 그럼에도 불구하고, 우리는 상호보완적인 거버넌스가 갖는 절박함을 공유합니다. 국가는 물론 지역 및 정부 간 이니셔티브를 포함하여 EU, G7, G20, 유네스코, 경제협력개발기구(OECD) 등의 지역 및 정부 간 프로세스를 포함합니다. 더 많은 그러나 많은 커뮤니티, 특히 남반구 또는 세계의 다수를 차지하는 여러 커뮤니티는 이러한 논의에서 거의 배제되어 왔습니다, 그들의 삶에 잠재적인 영향을 미칠 수 있음에도 불구하고 말이죠. 보다 응집력 있고 포용적이며 참여적이고 전 세계의 다양한 커뮤니티, 특히 남반구와 세계의 다수를 차지하는 커뮤니티를 포함해야 합니다.
  1. 유엔은 AI 거버넌스에 대한 만병통치약을 갖고있지 않습니다.하지만  UN 헌장에 보편적으로 동의하는 보편적 회원을 갖춘 기구로서의 고유한 정당성과 세계 모든 민족의 다양성을 포용하겠다는 약속은 지식 공유, 규범 및 원칙 합의를 위한 중추적 노드를 제공하고, 좋은 거버넌스와 책임을 보장합니다. UN 시스템 내에서 2024년 9월에 개최될 글로벌 디지털 컴팩트(Global Digital Compact) 및 미래 정상회담 계획은 시기적절한 조치를 위한 경로를 제공합니다.
  1. 자문기구는 지역, 성별, 분야, 연령에 따라 다양한 개인으로 구성됩니다. 정부, 시민사회, 민간부문, 학계로부터 전문지식을 끌어냅니다. 강렬하고 광범위한 논의를 통해 AI와 관련하여 글로벌 거버넌스 부족이 있으며 UN이 수행할 역할이 있다는 폭넓은 합의가 이루어졌습니다.
  1. 이 보고서에서는 먼저 인류를 위해 AI의 잠재적 혜택을 활용할 수 있는 기회와 원동력을 파악합니다. 둘째, 현재와 가까운 미래에 AI가 가져올 위험과 도전을 강조합니다. 셋째, 글로벌 거버넌스 결핍을 해결하기 위해서는 명확한 원칙과 함께 현시대에 맞는 새로운 기능과 제도적 장치가 필요하다고 주장합니다. 이 보고서는 예비 권고안과 다음 단계로 마무리되며, 2024년 8월까지 최종 보고서에서 논의될 예정입니다.
  1. 큰 방향에 대해서는 확신을 가지고 있지만, 이 여정을 혼자서 혼자만의 여정이 아니라는 것을 알고 있습니다. 다음 단계에 대한 폭넓은 자문을 통해 더 많은 사람들의 더 많은 목소리와 견해를 반영하고 AI가 우리의 공동선을 위해 봉사할 수 있도록 다음 단계에 대해 폭넓게 협의하기를 기대합니다.

글로벌 거버넌스 부족

  1. AI가 세상을 변화시키고 있지만, 그 개발과 보상은 현재 더 적은 수의 국가에 있는 소수의 민간 부문 주체들에게 집중되어 있습니다. 피해 또한 불균등하게 확산되고 있습니다. 모든 회원국이 동등하게 참여하는 글로벌 거버넌스는 자원에 대한 접근성을 높이고, 대표 및 감독 메커니즘을 광범위하게 포용하며, 피해에 대한 책임을 보장하고, 지정학적 경쟁이 무책임한 AI를 촉진하거나 책임 있는 거버넌스를 저해하지 않도록 보장해야 합니다.
  1. 유엔은 규칙에 기반한 국제 질서의 중심에 있습니다. 유엔의 정당성은 평화와 안보, 인권, 지속 가능한 개발을 위해 국제법에 기초한 진정한 글로벌 포럼이라는 데서 비롯됩니다. 이는 AI의 글로벌 거버넌스에서 집단적 행동을 위한 제도적, 규범적 기반을 제공한다고 믿습니다. 형평성, 접근성, 피해 예방에 대한 고려 외에도, 기술 자체의 특성, 즉 구조, 기능, 적용, 다양한 주체들이 국경을 초월하여 사용하는 AI 시스템의 특성상 글로벌 접근 방식이 필요합니다.
  1. 자율 규제 이니셔티브, 국가 및 지역 법률, 다자 포럼의 활동으로 이 퍼즐의 조각들이 채워지고 있습니다. 하지만 여전히 격차가 존재하며, 빠르게 발전하고 있는 이 기술과 기술의 개발자나 사용자 등 다양한 주체들이 이를 활용하기 위해서는 글로벌 거버넌스 프레임워크가 필요하다는 과제가 남아 있습니다. AI는 분명한 글로벌 도전과 기회를 제시하고 있으며, 유엔은 회원국들이 합의한 보편적 가치에 기반을 두고 상황에 따라 적용 가능한 일관되고 상호 운용 가능한 전체로 진화하는 이니셔티브를 통해 이를 해결할 수 있는 독보적인 위치에 있습니다.
  1. 다음 세 섹션에서는 유엔의 보편적 프레임워크에 기반을 둔 기관 또는 기관 네트워크가 AI의 혜택을 확대하고 위험을 완화하는 데 수행할 수 있는 역할과 이러한 목적을 가장 잘 달성할 수 있는 원칙과 기능을 간략하게 설명합니다.

기회와 조력자(Enablers)

  1. AI는 전 세계적으로 지식에 대한 접근성을 혁신하고 효율성을 높일 수 있는 잠재력을 가지고 있습니다. 새로운 세대의 혁신가들이 AI 과학과 엔지니어링의 한계를 뛰어넘고 있습니다. AI는 선진국과 개발도상국 모두에서 의료부터 농업에 이르기까지 다양한 분야에서 생산성과 혁신을 높이고 있습니다. 이러한 성장과 함께 그 혜택이 인류 전체에 공평하고 안전하게 확산되고 일자리를 포함한 파괴적인 영향을 해결하고 관리하기 위해 어떤 조력자가 필요한지에 대한 질문도 제기되고 있습니다. 정책 입안자들에게 중요한 질문은 어떻게 하면 기존 플레이어와 신흥 플레이어에게 책임을 묻는 동시에 전세계적으로 성공적인 AI 생태계를 성장시킬 수 있는지에 대한 것입니다.
박스 2: AI 기회의 예

  • 사람을 보조하는 AI

AI는 일상적인 업무뿐만 아니라 가장 야심차고 창의적이며 생산적인 노력에 있어서도 사람들을 지원할 수 있습니다. 사람을 보조하는 AI에는 접근성 도구와 교육 개선이 포함됩니다. 시각이나 언어가 제한된 사람들을 위한 가상 비서 역할을 하는 애플리케이션이 개발되어 이전에는 간과되거나 무시되었던 접근성 요구 사항을 지원합니다. 현재 100개 이상의 언어를 지원하는 AI 기반 번역은 접근성뿐만 아니라 문화 간 이해와 소통을 촉진합니다. 새로운 세대의 튜터링 앱은 전 세계적으로 양질의 교육에 대한 접근성을 확대할 것을 약속합니다.

  • 부문별 기회

AI는 다른 분야보다 일부 분야에서 더 큰 영향을 미칠 것입니다. 가장 유망한 분야로는 농업과 식량 안보, 보건, 교육, 환경 보호, 자연재해에 대한 복원력, 기후 변화 대응 등이 있습니다. 예를 들어, AI는 현재 80여 개국에서 홍수 조기 경보 시스템을 구축하는 데 사용되었으며, 산불과 식량 불안정에도 활용되고 있습니다. 돌고래, 고래 등 멸종 위기에 처한 종을 모니터링하고 농업 관행을 최적화하는 데도 AI가 사용되고 있습니다. 각 분야에는 무수히 많은 가능성이 있습니다.

예를 들어 사하라 사막 이남 아프리카의 산모 건강 관리 분야에서 AI는 양질의 의료 서비스에 대한 접근성을 넓히고 있습니다. 마찬가지로 환경 문제와 관련하여 교육의 접근성을 높이고, 빈곤과 기아를 완화하며, 도시를 더 안전하게 만들 수 있는 가능성도 존재합니다.

  • 과학적 기회

AI는 과학 연구 수행 방식을 변화시키고 있으며, 분자 및 게놈 연구를 가속화하는 등 과학 발전의 지평을 넓혀가고 있습니다. AI 시스템은 다양한 분야에서 과학자들의 작업을 가속화하고 새로운 발견의 영역을 탐색하는 데 도움을 주는 것부터 대규모 실험을 자동화하는 것까지 과학 수행 방식의 패러다임을 바꿀 수 있는 특별한 잠재력을 보여줍니다. 예를 들어, 단백질 구조를 예측하는 AI 기반 도구는 백만 명이 넘는 연구자들이 신약 개발과 결핵과 같은 질병에 대한 이해를 증진하고 이전에 소홀히 다루어졌던 많은 질병을 연구하는 데 활용되고 있습니다. 의료 분야에서는 의사가 다양한 유형의 암과 안구 관련 질병을 적시에 발견하여 생명을 구할 수 있도록 돕는 진단 도구에 AI가 활용되고 있습니다. 에너지 분야에서는 AI가 에너지 시스템을 최적화하고 재생 에너지로의 전환을 앞당기는 역할을 하고 있습니다. 예를 들어 풍력 에너지의 가치를 높이고, 핵융합에서 토카막 플라즈마를 제어하고, 탄소 포집을 가능하게 하는 데 AI가 활용되고 있습니다. 유엔은 공익을 위해 해결할 가치가 있는 문제에 관심을 집중함으로써 AI 기반 과학의 발전을 장려할 수 있는 여지가 있습니다.

  • 공공 부문의 기회

결정적으로, AI는 전통적으로 시장의 힘만으로는 실패했던 분야에서 발전을 이끌 수 있습니다. 여기에는 극한 기상 예보와 생물 다양성 모니터링부터 교육 기회 확대와 양질의 의료 서비스 제공, 에너지 시스템 최적화에 이르기까지 다양한 분야가 포함됩니다. 정부와 공공 부문은 사회적 공익을 위해 AI를 활용함으로써 시민을 위한 서비스를 개선하고 취약한 지역사회를 위한 서비스를 강화할 수 있습니다.

  • 유엔이 AI를 활용할 수 있는 기회

마지막으로, AI의 활용은 지속 가능한 개발 목표 달성을 향한 진전을 가속화하고 지속 가능한 개발, 인권, 평화와 안보를 증진하는 데 있어 유엔의 역할과 효과를 강화하는 데 기여할 수 있습니다. 예를 들어, 유엔은 인권 침해 등 세계 각지에서 발생하는 위기 상황을 모니터링하거나 지속가능발전목표의 진척 상황을 측정하는 데 AI를 활용할 수 있습니다. 많은 사람들이 AI가 17개 SDG에 기여할 수 있는 잠재력에 주목하고 있지만, AI의 잠재력을 충분히 활용하여 진전을 이루기 위해서는 상당한 장벽이 존재한다는 점도 지적하고 있습니다. 유엔과 기타 국제기구는 식량 불안 예측, 구호 활동 관리, 일기 예보 등의 분야에서 유망한 AI 활용 사례와 데모를 구축하기 시작했습니다.

인류를 위해 AI를 활용하기 위한 원동력

  1. AI의 발전은 이제 데이터, 컴퓨팅, 인재에 의해 주도되고 있으며 때로는 수작업 라벨링 노동으로 보완되기도 합니다. 현재로서는 자원이 풍부한 회원국과 대형 기술 기업만이 앞의 세 가지 요소에 접근할 수 있어 영향력이 집중되어 있습니다. 전 세계적으로 GPU와 같은 중요한 하드웨어가 부족할 뿐만 아니라 AI 분야의 최고 기술 인재도 부족합니다. 개방형 모델 개발이 이러한 역학 관계를 변화시킬 수 있다는 의견이 제시되고 있지만, 개방형 모델의 영향과 안전성에 대해서는 아직 분석과 논의가 진행 중입니다.
  1. AI 기회는 특히 글로벌 남부에 어려운 시기에 찾아왔습니다. ‘AI 격차’는 더 큰 디지털 격차와 개발 격차 속에 숨어 있습니다. ITU의 추산에 따르면 2023년에도 26억 명 이상의 사람들이 여전히 인터넷에 접속하지 못하고 있습니다. 광대역 액세스, 저렴한 기기 및 데이터, 디지털 리터러시, 안정적이고 저렴한 전기 등 디지털 경제의 기본 토대가 갖춰져 있지 않습니다. 재정적 공간은 제약이 있고 무역과 투자 흐름에 대한 국제 환경이 어렵습니다. 광대역과 전기와 같은 기본 인프라에 대한 중요한 투자가 필요하며, 이러한 투자가 없으면 AI 개발과 사용에 참여할 수 있는 능력이 심각하게 제한될 것입니다. 글로벌 사우스 이외의 지역에서도 AI를 활용하려면 현지 AI 생태계를 개발하려는 노력, 현지 데이터로 현지 모델을 학습시키는 능력, 그리고 다른 곳에서 개발된 모델을 현지 상황과 목적에 맞게 미세 조정하는 것이 필요합니다.
  1. 접근성과 혜택은 함께 제공되어야 합니다. AI 역량이 뒤처진 지역의 기업가는 자체적으로 AI 솔루션을 개발할 수 있는 능력이 필요하고 그럴 자격이 있습니다. 이를 위해서는 인재, 데이터, 컴퓨팅 리소스에 대한 국가적 투자는 물론 국가 규제 및 조달 역량도 필요합니다. 국내의 노력은 정부뿐만 아니라 민간 부문의 국제적인 지원과 협력으로 보완되어야 합니다. 과학자들이 사회적 난제를 해결하기 위해 힘을 모으는 것은 인류를 위한 AI의 잠재력을 활용하는 데 중요한 원동력이 될 수 있습니다. 오픈소스와 데이터 및 모델의 공유는 AI의 혜택을 확산하고 국경을 넘어 유익한 데이터와 AI 가치 사슬을 개발하는 데 중요한 역할을 할 수 있습니다. 
  1. AI 개발, 배포 및 사용을 위한 조력자(‘커먼 레일’)는 사회와 커뮤니티에 미치는 영향을 관리하기 위한 ‘가드 레일’과 균형을 이루어야 합니다. 리트머스 테스트는 AI 거버넌스 노력이 인간 대체나 소외가 아닌 인간 증강을 어느 정도 이끌어낼 수 있는지 여부가 그 결과가 될 것입니다. 일부 AI 개발은 남반구의 값싸고 착취 가능한 노동력에 의존하고 있습니다. 심지어 북반구에서도 예술적 표현, 지적 재산, 인간 노동의 존엄성과 관련된 문제가 있습니다. 국가 내외 간 ‘AI 격차’를 피하려면 이러한 기술에 대한 공평한 접근과 이를 최대한 활용할 수 있는 관련 기술이 필요합니다.

핵심 조력자로서의 거버넌스

  1. AI는 지속 가능한 개발 목표를 지원하기 위해 배포할 수 있고 배포해야 합니다. 하지만 그렇게 하려면 현재의 시장 관행에만 의존해서는 안 되며, 소수의 기술 기업의 자선에만 의존해서도 안 됩니다. 모든 거버넌스 프레임워크는 이러한 더 크고 포괄적인 목표를 촉진하고 상충관계를 식별하고 해결하는 데 도움이 되도록 전 세계적으로 인센티브를 형성해야 합니다.
  1. 다른 분야와의 비교는 잠재적인 교훈을 제공합니다. 세계백신면역연합 Gavi와 같은 메커니즘은 혜택 공유를 보장하기 위한 단기적인 예시를 제시할 수 있습니다.  AI 집중이나 통합을 촉진하지 않는 방식으로 접근성을 확대하기 위해 다양한 상황에 맞게 조정할 수 있는 AI 모델 저장소는 일반 의약품과 동등한 역할을 할 수 있습니다.
  1. 이러한 사회적으로 유익한 열망 중 일부는 AI 연구 자체의 발전으로 실현될 수 있습니다. 다른 일부는 새로운 시장 메커니즘을 활용하여 공평한 경쟁의 장을 마련하거나 모든 커뮤니티에 도달하고 모든 사람이 혜택을 누릴 수 있도록 행위자에게 인센티브를 제공함으로써 해결될 수 있습니다. 하지만 그렇지 않은 경우도 많습니다. AI가 공익을 위해 배포되고 그 혜택이 공평하게 분배되도록 하려면 민간 부문, 학계, 시민 사회의 참여를 장려하는 혁신적인 방법을 통해 정부 및 정부 간 조치가 필요합니다. 보다 지속적인 해결책은 AI를 구동하는 데이터, 컴퓨팅, 인재의 기본 요소는 물론 필요한 경우 ICT 인프라와 전기에 대한 통합적 접근을 가능하게 하는 것입니다. 여기에 세계 최대 입자 물리학 연구소를 운영하는 유럽입자물리연구소(CERN)와 유사한 국제 과학 협력은 유용한 교훈을 제공할 수 있을 것입니다. 다양한 국가와 지역에 걸쳐 네트워크로 연결된 AI를 위해 재구상된 ‘분산형 CERN’은 더 많은 참여의 기회를 확대할 수 있습니다. AI와 관련된 오픈 사이언스의 다른 예로는 생물학 분야의 유럽 분자생물학 연구소(EMBL)나 국제열핵실험로(ITER)가 있습니다.

위험 및 도전 과제

  1. AI가 창출하는 기회에 대한 공평한 접근을 보장하는 것과 함께, 알려지거나 아직 알려지지 않은 피해에 맞서기 위해 더 많은 노력을 기울여야 합니다. 오늘날, 새로운 규제가 없는 상황에서 수익을 창출하고 혜택을 제공하려는 욕구에 따라 점점 더 강력한 시스템이 배포되고 사용되고 있습니다. AI 시스템은 인종이나 성별에 따라 차별할 수 있습니다. 현재 시스템의 광범위한 사용은 언어 다양성을 위협할 수 있습니다. 새로운 허위 정보와 조작 방법은 민주적 절차를 포함한 정치 과정을 위협할 수 있습니다. 그리고 사이버 보안과 사이버 방어의 맥락에서 AI의 악의적인 사용자와 선의적인 사용자 간에 고양이와 쥐의 게임이 진행 중입니다.

AI의 위험

  1. 먼저 AI의 기술적 특성 관점에서 AI의 위험을 살펴보았습니다. 그런 다음 이중 사용 등 부적절한 사용과 인간과 기계의 상호작용에 대한 폭넓은 고려를 통해 위험을 살펴봤습니다. 마지막으로 취약성의 관점에서 위험을 살펴보았습니다.
  1. 일부 AI 위험은 이러한 시스템의 기술적 한계에서 비롯됩니다. 이러한 위험은 유해한 편견에서부터 정확성 부족, ‘환각’ 또는 조작과 같은 다양한 정보 위험에 이르기까지 다양하며, 이는 생성형 AI의 알려진 문제입니다.
  1. 다른 위험은 AI보다는 인간의 산물입니다. 딥페이크와 적대적인 정보 캠페인은 악의적인 목적으로 사용되는 기술의 최신 사례에 불과합니다. 이는 사회적 신뢰와 민주적 토론에 심각한 위험을 초래할 수 있습니다.
  1. 또 다른 사례는 인간과 기계의 상호작용과 관련이 있습니다. 개인적 차원에서 AI 시스템에 대한 과도한 신뢰(자동화 편향)와 시간이 지남에 따라 기술 숙련도가 떨어질 가능성이 있습니다. 사회적 차원에서는 노동력의 상당 부분이 대체될 경우 노동 시장에 미치는 영향이나 지적 재산권이 보호되지 않을 경우 창의성에 미치는 영향을 포함합니다. 더 많은 상호 작용이 AI에 의해 매개됨에 따라 인간으로서 서로 관계를 맺는 방식에 대한 사회적 변화도 배제할 수 없습니다. 이는 가정 생활과 신체적, 정서적 안녕에 예측할 수 없는 결과를 초래할 수 있습니다.
  1. 또 다른 범주의 위험은 더 큰 안전 문제와 관련된 것으로, 자율 무기 시스템의 맥락에서든 AI의 광범위한 무기화 맥락에서든 AI의 잠재적인 ‘레드라인’에 대한 논쟁이 계속되고 있습니다. 전장에서 자율 기능을 갖춘 AI 지원 시스템의 사용이 증가하고 있다는 믿을 만한 증거가 있습니다. 세계 안정과 무력 충돌의 문턱에 영향을 미칠 수 있는 새로운 군비 경쟁이 진행되고 있을 수 있습니다. 기계가 자율적으로 인간을 표적으로 삼고 해를 가하는 것은 넘지 말아야 할 ‘레드라인’ 중 하나입니다. 많은 관할권에서 법 집행 기관의 AI 사용, 특히 실시간 생체 인식 감시는 프라이버시 권리를 침해하는 용납할 수 없는 위험으로 인식되고 있습니다. 또한 통제 불가능하거나 통제 불가능한 AI에 대한 우려도 존재하며, 이러한 위협을 평가할지 여부와 방법에 대한 논쟁이 있기는 하지만 인류에게 실존적 위협이 될 수 있다는 가능성도 제기되고 있습니다.
  1. 모든 AI 위험에 대한 포괄적인 목록을 작성하는 것은 어리석은 일입니다. 어디에나 존재하고 빠르게 진화하는 AI의 특성과 그 활용을 고려할 때, 우리는 취약한 커뮤니티와 공유지의 관점에서 위험을 살펴보는 것이 더 유용하다고 생각합니다. 이러한 접근법에 따라 초기 분류를 시도했으며(박스 3), 기존의 노력을 바탕으로 위험 평가 프레임워크로 발전시켜 나갈 것입니다. 기술, 기술의 채택, 사용이 발전함에 따라 위험에 대한 역동성이 존재할 것입니다. 이는 학제간 과학 및 증거 기반 접근 방식을 통해 위험을 계속 검토해야 할 필요성을 나타냅니다. 다양한 시기와 지역의 경험에 따라 조정할 수 있는 적응형 위험 관리 프레임워크도 필요합니다. UN은 그러한 상호 학습과 민첩한 적응을 위한 귀중한 공간을 제공할 수 있습니다.
박스 3: 기존 또는 잠재적 취약성의 관점에서 위험 분류하기

기존 또는 잠재적 취약성의 관점에서 본 AI 리스크

  • 개인

o 인간의 존엄성/가치/권한(조작, 기만, 유도, 선고)

o 생명, 안전, 보안(자율 무기, 자율 주행 자동차, 화학, 생물학, 방사능 및 핵 방어와의 상호작용)

o 신체적, 정신적 완전성, 건강 및 안전(진단, 유도, 신경기술)

o (기타) 인권/시민적 자유, 예: 공정한 재판(재범 예측), 무죄 추정(예측 치안), 표현의 자유(유도), 프라이버시(생체 인식)

o 삶의 기회(교육, 일자리, 재정적 안정)

  • 그룹

o 성별을 포함한 하위 그룹에 대한 차별/부당한 대우

o 집단 고립/소외

o 커뮤니티의 기능

o 사회적 평등/형평성(성별을 포함한 집단에 대한 불공정한 대우)

o 어린이, 노인, 장애인

  • 사회

o 국제 및 국가 안보(자율 무기/허위 정보)

o 민주주의(선거, 신뢰)

o 정보 무결성(허위 또는 잘못된 정보, 딥페이크, 개인화된 뉴스)

o 법치(기관 및 사법부의 기능 및 신뢰)

o 보안(군사 및 치안 용도)

o 문화적 다양성 및 인간관계의 변화(동질성, 가짜 친구)

o 사회 결속력(필터 버블, 뉴스, 정보에 대한 신뢰도 하락)

  • 경제

o 권력 집중

o 기술적 종속성

o 불평등한 경제적 기회

o 자원 분배/할당

o AI의 과소/과다 사용, 기술 해결주의

  • (생태)시스템

o 금융 시스템의 안정성

o 중요 인프라에 대한 위험

o 환경/기후/천연 자원에 대한 부담

  • 가치와 규범

o 윤리적 가치

o 도덕적 가치

o 사회적 가치

o 문화적 가치

o 법적 규범

  1. 이러한 위험을 평가하거나 해결하는 방법에 대한 합의는 아직 이루어지지 않았습니다. 그럼에도 불구하고 사전 예방 원칙이 환경 딜레마에 대해 규정하고 있듯이, 위험에 대한 과학적 불확실성이 거버넌스 마비로 이어져서는 안 됩니다. 합의를 도출하고 이에 따라 행동하려면 공유된 위험 모니터링 메커니즘을 포함한 전 세계적인 협력과 조정이 필요합니다. 국제기구는 조약법과 기타 규범적 틀을 기반으로 화학 및 생물학 무기에서 원자력에 이르기까지 이중 용도 기술에 대한 수십 년간의 관련 경험을 보유하고 있으며, 이는 AI의 위험을 해결하는 데 적용될 수 있습니다.
  1. 또한 우리는 선제적으로 대응해야 할 필요성도 인식하고 있습니다. 소셜 미디어와 같이 전 세계적으로 확장 가능하고 영향력이 큰 다른 기술에 대한 최근의 경험에서 중요한 교훈을 얻을 수 있습니다. 다양한 사회가 AI의 영향과 의미를 처리하는 과정에서 우려를 공유하고 대응을 조율하기 위한 효과적인 글로벌 거버넌스의 필요성은 분명합니다.
  1. 우리는 어떤 위험이 용납될 수 없는지, 어떻게 예방하거나 선점할 수 있는지에 대한 공감대를 형성하는 등 AI 위험을 식별, 분류, 해결해야 합니다. 또한, AI 시스템이 점점 더 다양하고 검증되지 않은 상황에서 도입됨에 따라 AI로 인한 예상치 못한 결과에 대한 경각심과 위험 범위 탐색도 필요합니다. 이를 위해서는 기술적, 정치적, 사회적 과제를 극복해야 합니다. 

해결해야 할 과제

  1. 많은 인공지능 시스템은 내재된 복잡성 또는 내부 작동에 대한 상업적 비밀로 인해 불투명합니다. 연구자와 거버넌스 기관은 정보에 접근하거나 독점적인 데이터 세트, 모델, 시스템을 완전히 조사하는 데 어려움을 겪습니다. 또한, AI 과학은 초기 단계에 있으며, 우리는 아직 첨단 AI 시스템이 어떻게 작동하는지 완전히 이해하지 못하고 있습니다. 이러한 투명성, 접근성, 컴퓨팅 및 기타 리소스, 이해 부족은 위험이 어디에서 비롯되는지, 그리고 그러한 위험을 관리(또는 피해에 대한 보상)할 책임이 어디에 있는지 파악하는 데 방해가 됩니다.
  1. AI의 전 세계적 영향력에도 불구하고 거버넌스는 여전히 지역적이고 파편화되어 있습니다. 일반적으로 물리적 국경에서 끝나는 규제에 대한 국가적 접근 방식은 AI가 이러한 국경을 존중하지 않을 경우 긴장이나 갈등으로 이어질 수 있습니다. 위험을 파악하고, 피하고, 완화하려면 자율 규제, 국가 규제는 물론 국제적인 거버넌스 노력이 필요합니다. 책임성이 부족해서는 안 됩니다.
  1. 우리는 또한 회원국들이 어디에 있어야 하고 무엇을 해야 하는지 알려주기보다는 글로벌 AI 거버넌스 참여 및 준수 측면에서 특정 제약이 있는 회원국을 만나서 각자의 상황에서 필요한 것을 지원해야 합니다. 관련될 수 없는 맥락에 기초하여 행동해야 합니다.
  1. 이러한 도전은 기술적, 정치적 장애물 외에도 더 광범위한 사회적 맥락에서 존재합니다. 디지털 기술은 거버넌스에 도전하는 사회의 ‘소프트웨어’에 큰 영향을 미치고 있습니다. 또한, 인간의 삶과 환경이 모든 AI 통합 프로세스의 시작과 끝에 있기 때문에 AI 소프트웨어뿐만 아니라 하드웨어의 인적, 환경적 비용도 AI의 수명주기 전반에 걸쳐 고려되어야 합니다.
  1. 오용 외에도 우리는 지나친 경계로 인해 AI 기술의 혜택을 활용 및 공유하지 못하는 등 잘못된 사용에 대한 우려도 상쇄하고 있습니다. 교육 접근성을 개선하기 위해 AI를 활용하면 청소년의 데이터 프라이버시 및 교사의 권한에 대한 우려가 제기될 수 있습니다. 하지만 수억 명의 학생들이 양질의 교육 자원에 접근하지 못하는 현실에서 격차를 해소하기 위해 기술을 활용하지 않는다는 것은 단점이 있을 수 있습니다. 이러한 장단점을 합의하고 해결하려면 정보를 공유하고, 자원을 모으고, 공통 전략을 채택할 수 있는 국제 거버넌스 메커니즘이 도움이 될 것입니다.

AI의 국제 거버넌스

AI 거버넌스 환경

  1. 오늘날 AI 거버넌스에 관한 가이드, 프레임워크, 원칙은 매우 많습니다. 민간 부문과 시민 사회는 물론 국가, 지역, 다자간 기구에서 다양한 수준의 영향력을 가진 문서 초안을 작성했습니다. 기술적인 측면에서 거버넌스 노력은 데이터, 모델, 벤치마크 또는 평가에 집중되어 왔습니다. 특히 건강 또는 이중 용도 기술과 같이 기존의 부문별 거버넌스 체계가 있는 곳에서는 응용 분야에도 초점이 맞춰졌습니다. 이러한 노력은 EU AI 법이나 미국 행정명령과 같은 특정 거버넌스 제도에 기반을 둘 수 있으며, 참여 및 규정 준수에 대한 인센티브와 연계될 수 있습니다. 그림 1은 새로운 AI 거버넌스 환경을 고려하기 위한 단순화된 도식을 제시하며, 자문단은 다음 작업 단계에서 이를 더욱 발전시킬 것입니다. 

그림 1: 다양한 AI 거버넌스 노력 전반에서 상호 운용성을 고려하기 위한 3요소로 단순화된 도식

  1. 기존의 AI 거버넌스 노력은 공정성, 책임성, 투명성의 중요성과 같은 언어상의 유사점을 도출해냈습니다. 그러나 관할권 간의 상호 운용성이나 관할권 내 규정 준수에 대한 인센티브 구현에 대한 세계적 차원의 일치는 이루어지지 않았습니다. 일부는 구속력 있는 규칙을 선호하는 반면 다른 일부는 구속력이 없는 유도 방식를 선호합니다. 접근성과 안전성의 균형을 맞추는 방법, 또는 현재에 초점을 맞출지 미래의 잠재적 피해에 초점을 맞출지 등 절충안이 논의되고 있습니다. 또한 모델에 따라 거버넌스에서 강조해야 할 부분이 다를 수 있습니다. 전 세계의 사회적, 문화적 다양성을 반영하는 다양한 규제 접근법이 공존할 수 있는 공간이 필요함에도 불구하고 국가 및 다국적 위험 관리 프레임워크 간의 공통 표준과 벤치마크가 부족하고 이러한 프레임워크에서 사용되는 AI에 대한 정의가 다양하기 때문에 AI 거버넌스 환경이 복잡해졌습니다.
  1. 한편, AI의 기술적 발전과 그 사용이 계속 가속화되면서 AI를 개발하는 기술 기업, 다양한 분야와 사회 공간에서 AI를 사용하는 기업 및 기타 조직, 그리고 AI의 개발, 배포 및 사용을 규제하는 사람들 간의 이해와 역량 격차가 확대되고 있습니다.
  1. 그 결과, 많은 관할권에서 AI 거버넌스는 AI 시스템의 개발자, 배포자, 사용자 스스로가 자체 정책을 수립하는 것에 그칠 수 있습니다. 이러한 조직과 개인이 선의를 갖고 있다고 가정하더라도 이러한 상황은 위험을 장기적으로 바라보거나 다양한 이해관계자, 특히 남반구의 이해관계자를 포용하는 것을 장려하지 않습니다. 이제는 바뀌어야 합니다. 

국제 AI 거버넌스의 원칙과 기능을 향하여

  1. 자문기구는 AI의 국제 거버넌스에 대한 옵션을 제시하는 임무를 맡고 있습니다. 우리는 무엇보다도 FATF, FSB, IAEA, ICANN, ICAO, ILO, IMO, IPCC, ITU, SWIFT, UNOOSA2 등 기존 거버넌스 기관들이 기술적인 측면에서 수행하는 기능을 검토했습니다. 이러한 조직은 글로벌 거버넌스 및 조정에 대한 영감과 사례를 제공합니다.
  1. AI가 제시하는 이해관계자와 잠재적 적용 범위, 그리고 다양한 맥락에서의 활용으로 인해 기존의 거버넌스 모델을 정확히 복제하는 것은 부적절합니다. 그럼에도 불구하고 다음과 같은 노력을 기울인 기관의 사례에서 교훈을 얻을 수 있습니다: (a) 위험, 영향, 정책에 대한 과학적 합의 구축(IPCC), (b) 글로벌 표준 수립(ICAO, ITU, IMO), 반복 및 조정, (c) 역량 구축, 상호 보증 및 모니터링 제공(IAEA, ICAO), (d) 연구 자원 네트워크 및 풀링(CERN), (e) 다양한 이해 관계자 참여(ILO, ICANN), (f) 상업 흐름 촉진 및 시스템적 위험 해결(SWIFT, FATF, FSB) 등이 그것입니다.
  1. 이 중간 보고서에서 제시하는 예비 권고안은 현 단계에서 AI 거버넌스를 위한 단일 모델을 제안하기보다는 새로운 글로벌 AI 거버넌스 기관을 구성하는 데 필요한 원칙과 해당 기관이 수행해야 할 광범위한 기능에 초점을 맞추고 있습니다. 아래 표 1에 나열된 하위 기능은 AI 거버넌스에 대한 기존 연구에 대한 설문조사와 중국의 AI 서비스 관리를 위한 임시 조치, 유럽 이사회의 AI 협약 초안, EU AI 법, G7 히로시마 프로세스, AI 글로벌 파트너십, OECD AI 원칙, 2 부록의 약어 목록 참조 등 9개의 현재 AI 거버넌스에 대한 격차 분석을 통해 정보를 얻었습니다. AI 파트너십 및 재단 모델 포럼, 영국 AI 안전 서밋, 미국 행정명령 14110 등입니다.

예비 권장 사항

  1. 기본 원칙

기본 원칙 1. 인공지능은 포괄적으로, 모든 사람에 의해, 그리고 모든 사람의 이익을 위해 관리되어야 합니다.

  1. AI의 잠재력에도 불구하고, 전 세계 많은 사람들이 아직 자신의 삶을 의미 있게 개선하는 방식으로 AI에 접근하고 사용할 수 있는 위치에 있지 않습니다. AI의 잠재력을 최대한 활용하고 개발, 배포, 사용에 폭넓은 참여를 가능하게 하는 것은 세계적 난제에 대한 지속 가능한 해결책을 추진하는 데 매우 중요합니다. 남반구를 포함한 모든 시민은 AI를 통해 스스로 기회를 창출하고, 이를 활용하며, 번영을 이룰 수 있어야 합니다. 규모에 관계없이 모든 국가가 AI 거버넌스에 참여할 수 있어야 합니다.
  1. 기술의 개발, 배포, 사용, 거버넌스에서 여성과 다양한 성 주체 등 특정 커뮤니티의 역사적, 구조적 배제를 해결하고 디지털 격차를 포용적인 디지털 기회로 전환하기 위해서는 접근과 역량 강화를 포함한 긍정적이고 시정적인 조치가 필요합니다. 

기본 원칙 2. AI는 공익을 위해 관리되어야 합니다.

  1. AI 시스템의 개발은 대부분 기술 기업의 손에 집중되어 있습니다. AI의 개선, 배포 및 사용에는 원래 개발자(기업, 소규모 AI 연구소, 기타 조직, 국가 등)를 포함하되 이에 국한되지 않고 개인, 기업, 조직, 정부에 이르기까지 다양한 배포자와 사용자가 참여하며 이들은 다양한 접근 방식에 다양한 인센티브를 제공하게 될 것입니다.
  1. 소셜 미디어의 경험에서 알 수 있듯이, AI 제품 및 서비스는 국경과 사용자 범주를 넘어 빠르게 확장될 수 있습니다. 이러한 이유로, 기회와 위험에 대한 폭넓은 기회와 위험을 고려할 때, AI는 더 넓은 공공의 이익에 따라 관리되어야 합니다. “해를 끼치지 말라”는 원칙은 필요하지만 충분하지 않습니다. AI를 구축, 배포, 통제하는 기업과 기타 조직은 물론 AI의 수명 주기 전반에 걸쳐 경제와 사회의 여러 부문에서 AI를 사용하는 조직에 대한 책임을 위해서는 보다 폭넓은 프레임워크가 필요합니다. 이는 자율 규제에만 의존할 수 없으며, 사익이 아닌 공공의 이익이 우선하도록 보장하기 위해서는 회원국들이 일관되게 시행하는 구속력 있는 규범이 필요합니다.
  1. AI는 여러 부문에 걸쳐 다양한 사용 사례와 복잡성, 위험성을 가진 사람과 조직에서 사용될 것입니다. 거버넌스 노력은 다양성, 형평성, 포용성, 지속가능성, 사회 및 개인의 복지, 경쟁 시장, 건강한 혁신 생태계와 관련된 공공 정책 목표를 염두에 두어야 합니다. 또한 경제 및 사회 발전을 위해 놓친 활용의 의미도 통합해야 합니다. 이러한 맥락에서 거버넌스는 다양한 이해관계자의 대표성을 확대하고 공공 및 민간 부문 주체 간의 책임을 보다 명확하게 규정해야 합니다. 공익을 위한 거버넌스는 공공 기술, 인프라, 공무원의 역량에 대한 투자도 의미합니다.  

기본 원칙 3. AI 거버넌스는 데이터 거버넌스 및 데이터 커먼즈 촉진에 발맞춰 구축되어야 합니다.

  1. 데이터는 많은 주요 AI 시스템에서 매우 중요합니다. 공공의 이익을 위한 거버넌스 및 관리는 AI 거버넌스의 다른 구성 요소와 분리할 수 없습니다(그림 1). 관련 법률에 따라 개인 데이터의 프라이버시와 보안을 보호하는 동시에 이러한 데이터의 사용을 적극적으로 촉진하는 규제 프레임워크와 기술 법적 조치는 현지 또는 지역 법률에 따라 AI 거버넌스 조치를 보완하는 중요한 요소가 될 것입니다. 또한 기후 변화, 공중 보건, 경제 개발, 역량 강화, 위기 대응 등 사회적 난제를 해결하는 데 중요한 공공 데이터를 여러 이해관계자가 사용할 수 있도록 공공 데이터 커먼즈의 개발을 장려해야 합니다.

기본 원칙 4. AI 거버넌스는 보편적이고 네트워크화되어야 하며 적응형 다중 이해관계자 협업에 뿌리를 두어야 합니다.

  1. 모든 AI 거버넌스 노력은 다양한 회원국과 이해관계자의 보편적인 동의를 우선시해야 합니다. 이는 포용적인 참여를 촉진하는 것이며, 특히 이전에 배제되었던 남반구 커뮤니티의 진입 장벽을 낮추는 것(지도 원칙 1)과 더불어 이루어져야 합니다. 이는 새로운 AI 규제가 책임 격차를 피하는 방식으로 조화를 이루기 위한 핵심 요소입니다.
  1. 효과적인 거버넌스는 AI의 영향에 비추어 현재 기능을 검토해야 하는 기존 기관을 활용해야 합니다. 하지만 이것만으로는 충분하지 않습니다. 새로운 수평적 조정 및 감독 기능이 필요하며, 이러한 기능은 새로운 조직 구조에 맡겨야 합니다. 새로운 기관과 기존 기관이 거버넌스 구조의 네트워크에서 노드를 형성할 수 있습니다. 여러 지역에서 이를 위한 분명한 추진력이 있으며, 민간 부문에서도 잘 조율되고 상호 운용 가능한 거버넌스 프레임워크에 대한 인식이 높아지고 있습니다. AI가 인권에 미치는 영향에 대한 시민 사회의 우려도 비슷한 방향을 가리키고 있습니다.
  1. 이러한 AI 거버넌스 프레임워크는 전 세계의 모범 사례와 전문 지식을 활용할 수 있습니다. 또한 AI 개발, 배포 및 사용을 주도하는 다양한 문화적 이념에 대한 이해가 바탕이 되어야 합니다. 정부와 함께 민간 부문, 학계, 시민사회를 참여시키기 위해서는 거버넌스 프레임워크 내의 혁신적인 구조가 필요합니다. ILO의 노사정 구조와 유엔 글로벌 콤팩트 등 공공재를 추구하기 위해 민간 부문을 참여시키려는 과거의 노력에서 영감을 얻을 수 있습니다. 

기본 원칙 5. AI 거버넌스는 유엔 헌장, 국제인권법, 지속가능한 개발 목표와 같은 기타 합의된 국제적 약속에 기반을 두어야 합니다.

  1. 유엔은 고유한 규범적, 제도적 역할을 수행해야 하며, AI 거버넌스를 유엔 헌장과 평화와 안보, 인권, 지속 가능한 개발에 대한 헌신 등 유엔의 기본 가치와 연계하는 것은 강력한 기반과 나침반을 제공합니다. 유엔은 인권과 법치에 대한 보편적 존중과 집행의 필요성을 바탕으로 다양한 글로벌 경제, 사회, 보건, 안보, 문화적 조건에 대한 AI의 영향을 고려할 수 있는 입장에 있습니다. 이미 여러 유엔 기관에서 교육부터 군비 통제에 이르기까지 다양한 분야에서 AI가 미치는 영향에 대해 중요한 연구를 수행했습니다.
  1. 글로벌 디지털 콤팩트와 디지털 협력 로드맵은 AI를 포함한 기술의 글로벌 거버넌스 프레임워크를 향한 여러 이해관계자의 심의 사례입니다. 유엔 회원국의 강력한 참여, 유엔 기관의 역량 강화, 다양한 이해관계자의 참여는 글로벌 AI 거버넌스 대응에 힘을 실어주고 자원을 확보하는 데 필수적입니다.
  1. 제도적 기능
  1. 우리는 인류를 위해 AI를 적절히 관리하기 위해서는 AI를 위한 국제 거버넌스 체제가 최소한 다음과 같은 기능을 수행해야 한다고 생각합니다. 이러한 기능은 개별 기관 또는 기관 네트워크에 의해 수행될 수 있습니다.

그림 2: 제도적의 ‘경직성’에 따라 분산된 AI 거버넌스 기능

  1. 그림 2는 국제 AI 거버넌스를 위해 권장되는 제도적 기능을 요약한 것입니다. 세계적 수준에서는 국제기구, 정부, 민간 부문이 이러한 기능에 대한 일차적인 책임을 져야 합니다. 학계와 독립 과학자를 포함한 시민 사회는 정책을 위한 증거를 구축하고, 영향을 평가하며, 실행 과정에서 주요 행위자에게 책임을 묻는 데 핵심적인 역할을 할 것입니다. 각 기능은 민간 부문, 정부, 국제기구 등 거버넌스의 각 계층에서 서로 다른 책임 소재를 갖게 될 것입니다. 우리는 다음 작업 단계에서 거버넌스 스택의 여러 계층에 있는 여러 이해관계자에 대한 공유 및 차별화된 책임 개념을 더욱 발전시킬 것입니다.

제도적 기능 1: AI의 미래 방향과 영향을 정기적으로 평가합니다.

  1. 현재 AI의 미래 궤적과 영향에 대한 독립적이고 포괄적이며 다학제적인 평가를 위한 권위 있는 제도적 기능은 없습니다. AI 기술의 방향과 속도, 그리고 관련 위험과 기회에 대한 합의는 정책 입안자들이 혁신을 장려하고 위험을 관리하기 위해 국내 AI 프로그램을 개발할 때 참고할 수 있는 자원이 될 수 있습니다.
  1. IPCC와 유사한 방식으로, 정책 입안자에게 AI 개발의 미래 궤적에 대해 알리기 위해 전문화된 AI 지식 및 연구 기능은 독립적인 전문가 주도 프로세스를 통해 6개월마다 과학적이고 증거에 기반한 인사이트를 도출하여 과학적, 증거 기반 통찰력을 제공합니다(표 1의 하위 기능 1-3). 여기에는 연구 및 위험범위 탐색을 목적으로 한 정보 접근에 대한 기업과의 합의가 포함되어야 합니다. 이 기능은 대중이 AI를 더 잘 이해하도록 돕고, AI의 발전 속도와 영향에 대한 국제 사회의 합의를 이끌어내는 데 도움이 될 것입니다. 이 자문기구는 정기적으로 공유되는 위험 평가를 작성하고 AI의 환경 및 기타 영향을 측정하기 위한 표준을 수립할 것입니다. 이 자문기구는 이러한 전문가 주도의 프로세스의 시작이며, 적절한 자원과 제도화가 필요합니다.
  1. AI의 부정적 외부효과가 어느 정도인지는 아직 명확하지 않습니다. 인간 발달의 핵심인 삶의 측면을 중개하는 AI의 역할은 개인과 공동체의 기능 방식을 근본적으로 변화시킬 수 있습니다. AI 역량이 더욱 발전함에 따라 우리가 생활하고 일하고 상호 작용하는 방식에 심오하고 구조적인 변화가 일어날 가능성이 있습니다. 글로벌 분석 관측소 기능은 노동, 교육, 공중보건, 평화와 안보, 지정학적 안정에 미치는 영향 등 AI의 중요한 사회적 영향에 대한 연구 노력을 조정할 수 있습니다. 이러한 기능은 전 세계의 전문 지식을 활용하고 지식을 공유함으로써 모범 사례와 공동 대응의 출현을 촉진할 수 있습니다.

제도적 기능 2: 보편적 환경(UN)에서 승인된 글로벌 AI 거버넌스 프레임워크를 통해 전 세계적으로 부상하는 거버넌스 노력의 상호운용성과 국제 규범에 대한 기반을 강화합니다.

  1. AI 거버넌스 제도는 관할권 간 상호 운용이 가능해야 하며 세계인권선언(위 원칙 4)과 같은 국제 규범에 근거해야 합니다. 관할권 간 규제 조치의 상호 운용성을 강화하기 위해 기존 유엔 기구와 유네스코, ITU와 같은 포럼을 활용해야 합니다. AI 거버넌스 노력은 정책을 조율하고, 공통의 이해를 구축하고, 모범 사례를 드러내고, 실행을 지원하고, P2P 학습을 촉진하는 기구를 통해 조정될 수도 있습니다(표 1의 하위 기능 7~10). 글로벌 AI 거버넌스 프레임워크는 공공 및 민간 부문, 지역, 국가 간 AI 격차와 거버넌스 격차를 방지하고 다양한 조직이 운영해야 할 원칙과 규범을 명확히 하기 위해 정책 결정을 지원하고 이행을 안내할 수 있습니다. 이 프레임워크의 일환으로 민간 및 공공 부문의 역량 강화와 전 세계에 지식과 인식을 전파하는 데 특별한 주의를 기울여야 합니다. 민간 및 공공 부문 AI 시스템 개발자의 인권 영향 평가와 같은 모범 사례는 이러한 프레임워크를 통해 확산될 수 있으며, 이를 위해서는 국제적 합의가 필요할 수 있습니다.

제도적 기능 3: 표준, 안전 및 위험 관리 프레임워크 개발 및 조화

  1. AI에 대한 기술 및 규범 표준, 안전, 위험 관리 프레임워크를 개발하기 위한 몇 가지 중요한 이니셔티브가 진행 중이지만 글로벌 조화와 조정이 부족합니다(표 1의 하위 기능 11). 유엔은 전 세계 회원국을 보유하고 있기 때문에 국가들을 하나로 모으고, 공통의 사회 기술 표준을 개발하고, 법적 및 기술적 상호 운용성을 보장하는 데 중요한 역할을 할 수 있습니다.
  1. 예를 들어, 신흥 AI 안전 기관을 네트워크로 연결하여 경쟁 프레임워크, 관할권 간 표준화 관행의 파편화, 너무 많은 격차가 있는 글로벌 패치워크의 위험을 줄일 수 있습니다. 그러나 다른 기능과 규범에 대한 병행적인 움직임 없이 기술적 상호운용성만 지나치게 강조하지 않도록 주의해야 합니다. 사회 기술 표준에 대한 인식이 높아지고 있지만, 이러한 표준을 개발하기 위해서는 더 많은 연구와 시민 사회의 적극적인 참여, 그리고 학제 간 협력이 필요합니다.
  1. 또한, AI가 환경에 미치는 영향과 에너지 및 천연자원 소비(예: 전기 및 물)를 측정하고 추적하는 새로운 글로벌 표준과 지표를 정의하여 AI 개발을 유도하고 환경 보호와 관련된 SDG를 달성하는 데 도움을 줄 수 있습니다.

제도적 기능 4: 국제적인 다중 이해관계자 협력을 통해 경제적, 사회적 이익을 위한 AI의 개발, 배포 및 사용을 촉진합니다.

  1. 특히 남반구의 개발자와 사용자들은 피해와 오용을 방지하기 위한 표준 외에도 데이터 라벨링 및 테스트 표준, 데이터 보호 및 교환 프로토콜, 스타트업의 국경을 넘어 테스트 및 배포를 가능하게 하는 표준, 법적 책임, 분쟁 해결, 비즈니스 개발 및 기타 지원 메커니즘과 같은 중요한 조력자가 필요합니다. 기존의 법적, 재정적, 기술적 조치는 미래의 복잡한 적응형 AI 시스템을 예측할 수 있도록 진화해야 하며, 이를 위해서는 FATF, SWIFT 및 이와 유사한 메커니즘과 같은 포럼에서 얻은 교훈을 고려해야 합니다. 또한 대부분의 국가와 지역에서 AI의 책임감 있고 유익한 사용을 촉진하고 AI 지원 요소를 개발하기 위한 국제 다중 이해관계자 협력 프레임워크에 참여하기 위해 공공 부문의 역량 개발이 시급히 필요합니다(표 1의 하위 기능 4, 5, 11).

제도적 기능 5: 인재 개발, 컴퓨팅 인프라에 대한 접근, 다양한 고품질 데이터 세트 구축, 오픈소스 모델의 책임 있는 공유, SDGs를 위한 AI 기반 공공재에 대한 국제 협력 촉진

  1. 업그레이드된 지역 가치 사슬을 통해 SDGs를 위한 AI 시스템을 개발, 배포, 사용하기 위해서는 데이터, 컴퓨팅, 인재에 대한 접근을 촉진하고 독립적인 학술 연구자, 사회적 기업가, 시민 사회가 자체 모델을 구축하고 연구 및 평가를 수행하는 데 필요한 인프라와 데이터세트에 접근할 수 있는 새로운 메커니즘(또는 기구)이 필요합니다. 이를 위해서는 공익을 위해 사용할 수 있는 공통 데이터 세트와 데이터 커먼즈를 구축하고, 오픈 소스 모델과 컴퓨팅 리소스를 책임감 있게 공유하며, 교육과 훈련을 확대하기 위한 네트워크화된 자원과 노력이 필요할 수 있습니다.
  1. CERN, EMLB 또는 ITER와 유사한 전문 지식과 자원, 그리고 IAEA의 기술 확산 기능을 결합하면 SDGs(표 1의 하위 기능 6)에 절실히 필요한 추진력을 제공할 수 있습니다. 민간 부문 주체들이 연구 개발을 위한 도구를 공유하고 이용할 수 있도록 인센티브를 제공하는 것도 이러한 기능을 보완할 수 있습니다. AI 관련 글로벌 컨퍼런스에서 남반구의 전문가들은 종종 보이지 않습니다. 이는 바뀌어야 합니다.
  1. 데이터와 컴퓨팅에 대한 접근성 개방은 특히 남반구에서 역량 강화가 수반되어야 합니다. 현지에서 모델을 만들고, 채택하고, 상황에 맞게 조정하는 것을 촉진하기 위해서는 AI의 긍정적인 사용을 추적하고, 인센티브를 제공하고, AI를 활용한 공공재를 평가하는 것이 중요합니다. 민간 부문의 참여는 SDGs를 위해 AI를 활용하는 데 있어 매우 중요합니다. 글로벌 콤팩트에 따른 기업의 약속과 유사하게, 여기에는 기술 및 기타 기업이 공익을 위해 AI를 개발, 배포, 사용하겠다는 공개적인 약속이 포함될 수 있습니다. 글로벌 디지털 콤팩트라는 더 큰 맥락에서는 AI가 지속 가능한 개발 목표를 지원하는 방식에 대한 보고도 포함될 수 있습니다.

제도적 기능 6: 위험 모니터링, 사고 보고, 긴급 대응 조율

  1. 키 한 번만 누르면 전 세계로 확산될 수 있는 AI 도구의 국경 없는 특성은 국제 안보와 글로벌 안정에 새로운 도전을 제기합니다. AI 모델은 대량살상무기에 대한 접근 장벽을 낮출 수 있습니다. AI 기반 사이버 도구는 중요 인프라에 대한 공격 위험을 증가시키고, 이중 용도 AI는 국제 인도법 및 기타 규범에 위험을 초래할 수 있는 치명적인 자율 무기를 구동하는 데 사용될 수 있습니다. 봇은 점점 더 인간적인 특성을 지닌 유해한 정보를 빠르게 유포하여 시장과 공공 기관에 심각한 피해를 입힐 수 있습니다. 악성 AI가 통제를 벗어나 더 큰 위험을 초래할 가능성도 배제할 수 없습니다. 이러한 과제를 고려할 때, 글로벌 차원에서 시스템적 취약성과 국제 안정성에 대한 교란을 모니터링, 보고, 신속하게 대응할 수 있는 역량을 구축해야 합니다(표 1의 하위 기능 13, 14).
  1. 예를 들어, 중앙은행의 탄력성을 높이는 데 사용되는 거시 건전성 프레임워크와 유사한 기술 건전성 모델을 국가 차원에서 개발하면 글로벌 안정성에 대한 유사한 AI 리스크를 차단하는 데 도움이 될 수 있습니다. 이러한 모델은 인권 원칙에 기반을 두어야 합니다.
  1. 보고 프레임워크는 핵 안전과 핵 안보에 대한 상호 확신을 위한 IAEA의 기존 관행과 질병 감시에 대한 세계보건기구(WHO)에서 영감을 얻을 수 있습니다.

제도적 기능 7: 규범에 기반한 준수 및 책임성

  1. 글로벌 차원에서 법적 구속력이 있는 규범과 집행이 필요할 가능성도 배제할 수 없습니다. 인공지능 조약을 위한 지역적 노력이 이미 진행 중이며, 재래식 무기 조약의 틀 안에서 치명적인 자율 무기 문제가 고려되고 있습니다. 구속력이 없는 규범도 단독으로 또는 구속력 있는 규범과 함께 중요한 역할을 할 수 있습니다. 유엔은 AI 거버넌스의 유일한 중재자가 될 수 없으며, 그렇게 하려고 해서도 안 됩니다. 그러나 국제 안보에 대한 도전과 같은 특정 분야에서는 규범을 정교화할 고유한 정당성이 있습니다(표 1의 하위 기능 12). 또한, 예를 들어 국가들이 인권 관행에 대한 모니터링, 평가, 보고를 용이하게 하는 보편적 정례검토와 SDGs 목표에 대한 보고와 유사한 보고를 하도록 장려함으로써 책임 공백이 발생하지 않도록 도울 수 있습니다(표 1의 하위 기능 15). 이는 시의적절하고 정확한 방식으로 이루어져야 합니다. 세계무역기구와 같은 기존 기관에서 영감을 받아 글로벌 포럼을 통해 분쟁 해결을 촉진할 수도 있습니다.
  1. 동시에 모든 글로벌 거버넌스 기관의 정당성은 해당 기관 자체의 책임성에 달려 있습니다. 국제 거버넌스 노력은 목표와 절차에 있어 단호한 투명성을 입증하고 이해 상충을 방지하는 등 시민 이해관계자의 신뢰를 얻기 위해 모든 노력을 기울여야 합니다.

표 1: 인공지능의 국제 거버넌스를 위한 하위 기능 요약표 및 실현 가능한 기간 표

하위기능 설명 카테고리 제안된 하위 기능을 제도화하는 데 필요한 가능한 기간
1. 과학적 평가 최소 6개월마다 국제, 지역 및 국가 AI 정책에 대한 공개 검토를 준비합니다. 연구 및 분석 6~12개월
2. 위험 범위 스캔 국경을 초월하여 모든 관할권에 잠재적으로 영향을 미칠 수 있는 위험을 식별하는 위험 범위 스캔 보고서를 준비하세요. 연구 및 분석 6~12개월
3. 위험 분류 기존 및 향후 출시 예정인 AI 모델을 유지 불가능, 높음, 중간 수준, 위험 낮음 또는 없음의 위험 척도로 평가하세요. 연구 및 분석 6~12개월
4. 혜택에 대한 접근성 AI의 기술과 혜택에 공평하게 접근하여 지속 가능한 개발 목표의 달성을 가속화합니다. 활성화  12-24개월
5.역량 구축 AI 기술 및 비즈니스, 국가 간 거버넌스 및 홍보 역량을 구축하기 위한 프로그램과 리소스. 활성화  12-24개월
6.공동 R&D AI 도구나 전문 지식이 없는 사람들에게 혜택을 줄 수 있도록 AI 공동 연구 및 개발을 수행할 수 있는 역량을 구축합니다.  활성화  12-24개월
7. 포용적 참여 공동 거버넌스, 리스크 관리 및 기회 실현에 모든 이해관계자 그룹과 모든 국가 및 지역의 참여를 보장하고, 혁신적인 거버넌스를 위해 노력합니다. 거버넌스  6-12개월
8. 소집, 국제 학습 이해관계자들을 정기적으로 소집하여 관할권 전반에 걸친 AI 정책을 고려하고, 공유 어휘와 정의에 대한 공감대를 형성하며, P2P 학습을 진행합니다.  거버넌스  6-12개월
9. 국제 협력 AI를 지속적으로 다루는 기존 국제기구의 상충되는 업무를 조정하고 시너지를 창출합니다. 거버넌스  6-12개월
10. 정책 조화; 규범 조정 위험 완화 및 경제 성장을 포함한 규범과 규칙에 대한 모범 사례를 제시합니다. 상호운용성을 지원하기 위해 지역, 국가, 산업 수준에서 개발된 연성 및 경성 법률, 표준, 방법, 프레임워크를 조정하고, 활용하고, 포함합니다. 거버넌스  12-24개월
11.표준 설정 국가 표준 개발 기구(SDO)와 협력하여 이해관계자 그룹 전반에 걸쳐 AI 사용 표준에 대한 글로벌 합의를 도출하고 정기적으로 업데이트합니다. 거버넌스  12-24개월
12.규범 정교화 이해관계자들을 소집하여 AI를 위한 구속력 있는 프레임워크, 조약 또는 기타 제도의 필요성을 평가하고 협상을 진행합니다. 거버넌스  24-36개월 
13. 시행  상호 안심 제도, 상업 및 국가 안보 정보를 존중하는 정보 공유 메커니즘, 분쟁 해결 메커니즘, 책임 체계/제도를 개발합니다. 거버넌스  > 36개월
14.안정화 및 대응 비상 대응 능력, 오프 스위치 및 기타 안정화 조치를 개발하고 공동으로 유지합니다. 거버넌스  > 36개월
15.모니터링 및 검증 15.모니터링 및 검증

AI 시스템의 설계, 배포 및 사용이 해당 국제법을 준수하는지 확인하기 위해 적절한 경우 정교한 감독 및 검증 체계를 마련합니다.

거버넌스  > 36개월

결론

  1. AI는 우리의 일과 사교, 교육과 통치 방식, 일상적인 상호 작용 방식 등 우리 삶에 영향을 미치면서 이를 어떻게 관리할 것인가보다 더 근본적인 질문을 제기하고 있습니다. 완전히 디지털화되고 네트워크화된 세상에서 인간이 된다는 것이 무엇을 의미하는지에 대한 이러한 질문은 이 자문기구의 범위를 훨씬 뛰어넘는 것입니다. 하지만 이러한 질문들은 오늘날 우리가 내리는 결정에 영향을 미칩니다. 거버넌스는 목적이 아니라 수단이며, 선과 악의 잠재력을 가진 어떤 것에 대한 통제나 방향을 제시하기 위한 일련의 메커니즘이기 때문입니다.
  1. 우리는 인공지능이 사람들의 삶에 미치는 영향에 대한 포괄적인 평가와 유엔이 만들 수 있는 고유한 차이를 파악하는 데 목표를 두고자 합니다. 우리는 AI의 진정한 이점을 명확히 파악하는 동시에 그 위험성도 명확히 인식하기를 바랍니다.
  1. 무대책의 위험 또한 분명합니다. 우리는 오늘날 모든 국가, 지역사회, 개인에게 이 기술이 가져다주는 중요한 기회를 누리고 위험을 헤쳐나가기 위해서는 글로벌 AI 거버넌스가 필수적이라고 믿습니다. 그리고 다가올 세대를 위해서도요.
  1. AI의 국제 거버넌스가 효과적이려면 원칙에 따라 명확한 기능을 통해 구현되어야 합니다. 이러한 글로벌 기능은 가치를 더하고, 확인된 격차를 메우며, 지역, 국가, 산업 및 커뮤니티 수준에서 상호 운용 가능한 조치를 가능하게 해야 합니다. 이러한 기능은 국제기구, 국가 및 지역 프레임워크, 민간 부문 전반에 걸쳐 함께 수행되어야 합니다. 우리의 예비 권고안은 모든 글로벌 AI 거버넌스 프레임워크의 핵심 원칙과 기능을 제시합니다.
  1. 저희는 기능에 따라 형태를 따르는 접근 방식을 취했으며, 현 단계에서는 AI 거버넌스를 위한 단일 모델을 제안하지 않습니다. 그러나 궁극적으로 AI 거버넌스는 사람과 사회에 실질적인 혜택과 안전장치를 제공해야 합니다. 효과적인 글로벌 거버넌스 프레임워크는 원칙과 실질적인 영향력 사이의 간극을 메워야 합니다. 다음 단계에서는 전 세계 다양한 이해관계자의 관점을 바탕으로 글로벌 AI 거버넌스를 위한 제도적 형태에 대한 옵션을 모색할 것입니다.

다음 단계

  1. 앞서 언급한 예비 권고안은 현 단계에서 AI 거버넌스를 위한 단일 모델을 제안하기보다는 그러한 제도가 지향해야 할 원칙과 기능에 초점을 맞추고 있습니다.
  1. 앞으로 몇 달 동안 우리는 전 세계의 다양한 이해관계자들과 개별적으로 또는 그룹으로 협의할 것입니다. 여기에는 이 보고서의 이슈를 논의하기 위한 행사 참여와 정부, 민간 부문, 시민 사회, 연구 및 기술 커뮤니티와의 참여가 포함됩니다. 또한 위험 평가 방법론과 거버넌스 상호운용성을 포함한 연구를 추진할 것입니다. 보고서에서 확인된 착륙 문제를 구체적인 맥락에서 생각해 볼 수 있도록 사례 연구를 개발할 것입니다. 또한 기존의 노력과 제도를 활용하여 오픈소스, AI 및 금융 부문, 표준 설정, 지적 재산권, 인권, 업무의 미래 등 몇 가지 분야에 대해 심도 있게 다룰 계획입니다.
  1. AI에 관심이 있는 모든 분들의 건설적인 참여를 환영합니다. 현재 진행 중인 작업에 참여하는 방법에 대한 자세한 정보는 다음 링크에서 확인할 수 있습니다.

https://www.un.org/en/ai-advisory-body.

  1. 우리는 디지털 협력과 더 큰 자유 속에서 사회적 진보와 더 나은 삶의 기준을 위한 유엔의 지속적인 노력을 지원하기 위해 이 중간 보고서에서 확인된 질문에 보다 완벽하게 답하기 위해 다양한 이해관계자들과 함께 참여하기를 기대합니다.
박스 4: 이 중간 보고서에 대한 협의에서 다뤄야 할 질문의 예

다음 단계의 작업에서 추가 논의를 위한 주요 질문

  • AI의 기회와 조력자

데이터 보호 및 교환 프레임워크, 컴퓨팅에 대한 공유 액세스 등을 통해 모델 구축 생태계를 촉진함으로써 AI 개발을 더욱 포용적으로 만들 수 있을까요?

데이터 라벨링 및 테스트에 대한 공통 표준을 사용하면 AI 스타트업이 더 많은 국가와 지역에 걸쳐 테스트하고 배포하도록 장려할 수 있을까요?

이해관계자와 회원국 간에 컴퓨팅에 대한 공평한 접근과 프라이버시를 보호하는 데이터 세트의 공유를 촉진하는 메커니즘은 무엇인가요?

AI 인재를 어떻게 성장시키고 확산시킬 수 있을까요? 유엔 기구 또는 기타 기관이 학생 교환, 공동 박사 프로그램, 교차 영역(보건과 AI, 농업과 AI) 인재 개발을 촉진할 수 있을까요?

국제 협업을 통해 과학 연구와 SDG를 위해 AI 인재, 데이터, 컴퓨팅을 어떻게 활용할 수 있을까요?

전 세계의 AI 개발을 촉진하는 다른 핵심 인프라에 투자하도록 정부와 민간 부문에 인센티브를 제공하려면 어떻게 해야 할까요?

  • AI의 위험과 과제

AI 위험을 식별, 분류, 해결하기 위한 합의를 도출하는 가장 좋은 방법은 무엇인가요?

자율 무기 시스템과 같은 AI의 보다 구체적인 사용 사례와 관련하여 위험과 과제를 어떻게 평가해야 할까요?

(아마도 생의학 연구에서 인간 복제를 금지하는 것과 유사한) 레드라인을 식별하기 위한 기준 또는 트리거는 무엇이어야 할까요? 

그러한 레드라인은 어떻게 정책화되고 집행될 수 있을까요?

  • AI의 국제 거버넌스

위에 열거된 원칙이 AI에 대한 글로벌 거버넌스 체제가 가져야 할 열망을 제대로 반영하고 있나요?

위에서 설명한 기능들이 글로벌 AI 거버넌스가 할 수 있고 해야 하는 일을 제대로 반영하고 있나요?

새로운 기관 또는 일련의 기관이 이러한 원칙을 준수하고 이러한 기능을 수행하기 위해 가장 적합한 구조적 조치는 무엇인가요?

유엔 시스템 내에는 산업계를 부문별 업무에 참여시키기 위한 다양한 모델이 존재합니다(WHO, ITU, ICAO 등).

AI의 국제 거버넌스에 대한 업계의 참여를 가장 잘 지원할 수 있는 메커니즘은 무엇인가요? 현재 존재하는 규범, 정책 및 정보 수단 중 정부, 민간 부문 및 시민 사회 전반에 걸친 기술 거버넌스의 일관성을 지원할 수 있는 것은 무엇인가요?

위에서 설명한 기능을 다루기 위한 효과적인 국제 협정을 위해 어떤 종류의 자금 조달 및 역량 구축 메커니즘이 필요할까요?