차별금지법은 인공지능의 차별을 막아낼 최적의 알고리즘
윤리를 넘어 명확한 인권보장과 비차별성이 필수적
차별과 혐오를 방치하는 사회에는 차별과 혐오를 학습한 인공지능 뿐
1. 인공지능은 지난 몇 년 간 폭발적인 성장을 보여줬습니다. 동시에 인공지능의 개발과 활용에서 발생하는 부정적 영향에 대한 우려도 커져왔습니다. 우리는 전형적인 젠더 고정관념이 반영된 인공지능 음성비서부터 시작해 혐오발언을 내뱉는 챗봇, 피부색과 성별에 따라 정확도가 떨어지는 인식 기술, 여성을 깎아내리는 채용과 신용 평가, 흑인에게 더 가혹한 평가를 내리는 재범예측프로그램, 거주 지역에 따라 성적을 결정하는 알고리즘 등 다양한 인공지능의 부작용을 국내외에서 목격해왔습니다.
2. 인공지능 관련 기술이 전면적으로 사용 및 도입되고 있는 지금, 인공지능의 차별은 미래의 문제가 아닙니다. 인공지능의 기술적 특성은 블랙박스 깊숙이 차별을 감춰둘 수 있습니다. 영향을 받는 당사자가 차별 사실을 인지하기 어려운 것은 물론이고, 기술의 개발자나 사용자조차 파악하기 어려울 수 있습니다. 이러한 차별은 다시 데이터로 누적되고 재활용되어 끝없는 차별의 악순환을 만들어낼 수도 있습니다. 체계적으로 배제되어 온 이들의 참여와 평등, 그리고 다양성이 어느 때보다 절실히 필요한 시기입니다.
3. 그간 인공지능의 부정적 영향을 다루기 위한 많은 대책들이 나왔습니다. 정부는 인공지능 국가전략을 발표하며 ‘사람 중심의 인공지능 구현’이라는 목표를 내세웠고, 과학기술정보통신부는 지켜도 되고 말아도 되는 인공지능 윤리기준을 만들었습니다. 인공지능을 개발하고 서비스하는 대기업들도 각기 인공지능과 관련된 ‘윤리 준칙’, ‘윤리 헌장’ 등을 발표했습니다. 그러나 평등과 차별 금지의 원칙이 구체화되지 않은 선언만으로는 인공지능이 가져올 차별을 막을 수 없습니다. 우리에게는 공허한 윤리를 넘어 명료하고 강력한 제도가 필요합니다. 그 시작이 바로 차별금지법의 제정입니다.
4. 차별금지법은 인공지능의 차별을 막아낼 최적의 알고리즘입니다. 이미 모든 사회적 합의는 끝났습니다. 남은 것은 국회 뿐입니다. 모든 사람의 평등과 안전, 사랑 그리고 신뢰할 수 있는 기술을 위해 지금 당장 차별금지법을 제정해야 합니다.