2016년 한국 사회는 구글 딥마인드가 개발한 알파고와 프로 이세돌 기사의 세기적 대결을 목격하면서 최근 인공지능의 발달 상황에 대해 크게 놀랐습니다. 2022년 다양한 생성형 인공지능과 대규모 언어모델 챗GPT의 등장은 한층 더 충격적이었습니다. 생성형 인공지능과 언어모델은 일반 사람들이 직접 체험을 해볼 수 있었기 때문에 그 충격이 더욱 직접적이었습니다.
이미 인공지능은 우리 사회의 여러 분야에 도입이 되어 왔습니다. 인공지능 스피커, 번역 서비스, 배달 플랫폼, 채용 AI, 부정수급 탐지 시스템 등 공공과 민간의 여러 분야에서 인공지능이 활용되고 있습니다.
인공지능은 인간의 삶을 더욱 윤택하게 할 것으로 기대를 모으고 있습니다. 그러나 국가인권위원회가 지적하였듯이, 인공지능을 무분별하게 개발·활용할 경우 시민들의 안전과 인권을 위협하고 사회 곳곳에 부정적인 영향을 미칠 수 있습니다. 인공지능이 사람을 대상으로 예측하고 결정을 내릴 때 그 부정적 영향은 치명적일 수 있습니다.
한국의 시민사회단체는 인공지능 기술 발달에 상응하여 그 위험성을 통제하는 규제 체제가 필요하다고 주장해 왔습니다.
진보네트워크센터는 진보통신연합 APC의 지원을 받아, 국내외에서 논란이 되고 대안이 모색 중인 인공지능과 정보인권 문제를 알기쉽게 정리하여 소개합니다.
인공지능 관련 국내 논쟁 사례
한국 사회에서도 자동화 알고리즘과 인공지능이 인권에 미치는 부정적 영향이 우려되는 사례가 발생해 왔습니다. 특히 채용 AI의 불투명성과 차별 우려, 인공지능 챗봇 이루다의 개인정보 침해와 혐오 채팅, 카카오택시의 알고리즘 조작, 법무부 출입국 식별추적 인공지능의 얼굴정보 무단 학습 문제는 많은 사회적 논쟁을 불러 일으켰습니다. 일부 사례의 경우에는 공정거래위, 개인정보보호위 등 규제기관이 개입하여 행정적으로 제재하였으나, 정부와 국회 일각에서는 국내 인공지능 산업을 보호육성해야 한다는 논리를 앞세워 법 규제를 완화하려는 시도가 계속되고 있습니다.
Controversial Cases on AI in Republic of Korea
In South Korea, there have been cases where automatic algorithms and AI have raised concern about the negative impact on human rights. In particular, the opacity and discrimination of recruitment AI have been debated. Additionally, issues like the privacy violation and hate speech of AI chatbot Lee Ruda have raised concerns. The algorithm manipulation of Kakao Taxi and and the Ministry of Justice’s immigration identification tracking AI’s unauthorized provision of facial information for AI training have also caused a lot of social debate. In some cases, regulatory agencies such as the Korea Fair Trade Commission and the Personal Information Protection Commission have intervened and administratively sanctioned the cases, but the government and some members of the National Assembly have continued attempting to deregulate under the guise of protecting and fostering the domestic AI industry.
인공지능 관련 해외 논쟁사례(1) : 불투명성
인공지능과 자동화된 처리를 위한 알고리즘의 도입이 사회적으로 확산되면서 차별적이고 불투명하며 일방적인 결정으로 인한 인권 침해, 공정경쟁의 훼손, 민주적 여론형성 침해 등 다양한 문제들이 발생하고 있습니다. 해외에서도 공공기관이 업무 효율성 증대 및 비용 절감 등을 명분으로 도입한 자동화된 시스템에 대해 기본권 침해와 적법절차 위반이라는 논란이 제기되었습니다. 또한 빅테크 플랫폼이 자사의 이익을 위해 알고리즘을 조작하여 공정한 경쟁과 민주주의에 부정적 영향을 미침에 따라 빅테크 알고리즘에 대해 투명성과 책임성 의무를 부과해야 한다는 목소리가 높아지고 있습니다.
인공지능 관련 해외 논쟁사례(2) : 차별
인공지능 기술의 발전이 빠른 속도로 진행되며 그 사용이 사회적으로 확산되고 있습니다. 그 과정에서 인공지능의 자동화된 처리에 따른 차별적이고 불투명하며 일방적인 결정으로 인한 인권 침해, 공정경쟁의 훼손, 민주적 여론형성 침해 등 다양한 문제들이 함께 발생하고 있습니다. 일부에서 인공지능이 사람보다 중립적이라는 주장을 하기도 하지만, 그것은 환상입니다. 인공지능은 수많은 데이터를 학습해 결정하는 구조이기 때문입니다. 오히려 그러한 환상 속에서 기존의 차별과 불평등을 강화할 우려가 있습니다.
사용되는 데이터에 결함이 있거나 편향적이라면, 혹은 인공지능을 개발하는 집단의 구조적 편향이 알고리즘에 반영된다면, 인공지능이 산출하는 결과물 역시 편향을 갖기 쉽습니다. 그러므로 지금 우리 사회가 이미 편향적인 생각을 갖고 있다면, 그 데이터를 그대로 흡수해 차별을 더욱 강화할 수 있는 것이 인공지능입니다.
인공지능 관련 해외 논쟁 사례 (3) : 감시
언제 어디서든 우리의 일상을 촬영하거나 위치를 기록에 남길 수 있는 스마트폰과, 우리의 일상과 자신의 생각을 다른 사람과 공유할 수 있는 소셜네트워크 플랫폼의 등장, 그리고 얼굴인식을 비롯한 생체인식 기술의 발전으로 개인의 행적은 언제 어디서나 쉽게 추적 가능하게 되었습니다. 권력이 불평등한 사회에서 이는 쉽게 감시로 전환될 수 있습니다. 상업적 감시와 국가 권력의 감시가 결합된 영화 <마이너리티 리포트>가 그리는 미래는 그리 멀지 않았습니다.
국내 인공지능 규제 동향
국내에서는 제대로 된 인공지능 규제법이 없습니다. 2023년 2월, 국회 소위안을 통과한 인공지능법안이 있지만, 산업진흥에 중점을 둔 법안입니다. 국내 인공지능 정책을 들여다보니, 역대 정부를 관통하는 키워드는 ‘인공지능 산업진흥과 규제완화’임을 단언할 수 있습니다. 현 정부는 ‘디지털플랫폼정부’를 표방하고 있으며 인공지능을 기반으로 흩어져 있는 정보를 하나의 플랫폼으로 통합해 활용하는데 초점이 맞춰져 있습니다. 인공지능 윤리규범과 자율규제로 인공지능의 위험을 방지할 수 있을까요? 이에, 국내 인공지능 규제 동향을 살펴보았습니다.
인공지능 관련 국제 규제 동향
인공지능 기술의 급속한 발전이 이루어지면서 그 혜택에 대한 기대가 커져왔지만, 다른 한편으로 인공지능의 안전을 위해, 인권 침해와 차별에 대한 문제제기도 확산되고 있습니다. 특히 인공지능의 불투명성 및 설명불가능성으로 인하여 책무성이 확보되지 못하고 안전과 인권을 보장하는 법률의 집행이나 피해자 권리구제가 어려워지는 문제에 대한 대책이 요구되어 왔습니다. 이에 국제적으로 인공지능의 위험을 사전·사후적으로 규제하기 위한 규범이 형성되어 왔습니다. 최근에는 챗GPT를 비롯한 범용 인공지능의 등장으로 인간 중심적 인공지능 통제에 대한 논의가 더욱 활발해졌고 개별 국가보다 더 큰 수준에서 협의가 이루어지기 시작하였습니다.