AI소식지월간네트워커

[해외정보인권] AI의 영향에 대한 조사 결과

By 2024/02/23 2월 28th, 2024 No Comments

편집자주 :

인공지능이 널리 보급됨에 따라 개인은 물론, 공동체 역시도 그 영향을 받고 있습니다. 그런데 인공지능은 완전히 새로운 기술이 아니라, 기존의 데이터를 학습하는 방식이기 때문에 편견과 차별에서 자유로울 수 없습니다. 또한 인공지능이 내린 결정은 그 결정에 도달하게 된 근거나 과정을 일반 시민이 제대로 알기 어렵기 때문에 이의를 제기하거나 설명을 요구하는 등의 구제 절차가 쉽지 않습니다. 그렇기에 이번에 합의를 이룬 유럽연합 인공지능 법안의 경우 ‘영향을 받는 사람’이라는 개념을 도입해 인공지능의 배치로 영향을 받는 사람들의 인권에 미치는 영향을 평가하고 완화하도록 하는 안전장치를 마련한 바 있습니다. 인공지능이 단지 편리한 도구가 아니라 누군가의 삶에 막대한 영향을 미칠 수 있다는 점을 직시하고, 인권 기준에 맞는 규제를 마련할 필요가 있습니다.

이번 해외정보인권에서는 인공지능이 미국 내 여성, 아시아계 미국인, 흑인, 원주민 등 여러 공동체에 어떤 영향을 끼치고 있는지를 그 당사자들에게 직접 들은 내용을 바탕으로 한 미국 국가인공지능자문위원회(NAIAC)의 보고서를 소개합니다.

NAIAC 소개
국가인공지능자문위원회(NAIAC)는 대통령과 백악관 국가 인공지능 이니셔티브 사무국(NAIIO)에 인공지능과 혁신, 경쟁, 사회 문제, 경제, 법률, 국제 관계 및 장단기적으로 인공지능의 영향을 받을 수 있는 기타 영역의 교차점에 대해 자문합니다. 이들은 미국 정부가 민주적 가치와 시민의 자유를 우선시하는 동시에 기회를 확대하는 미국 고유의 방식으로 AI를 활용할 수 있도록 안내합니다. 윌리엄 M. (맥) 쏜베리 국방수권법에 의해 2022년 4월에 설립되어 2022년 5월에 처음 소집되었습니다. 산업계부터 학계, 시민사회에 이르기까지 다양한 영역의 AI 전문가들로 구성되어 있습니다.


번역오류는 jinbo.policy 골뱅이 gmail.com 으로 알려주세요.
제목 : AI의 영향에 대한 조사 결과
원문제목 : FINDINGS: Exploring the Impact of AI
원문링크 : https://ai.gov/wp-content/uploads/2023/12/Findings_Exploring-the-Impact-of-AI.pdf

일시 : 2023년 11월
작성 : NAIAC

1. 요약

인공지능(AI)이 널리 보급됨에 따라 미국의 모든 공동체가 이 기술의 영향을 받고 있습니다.
NAIAC는 최근 AI가 7가지 특정 공동체에 어떤 영향을 미치는지 조사했습니다: 미국 여성, 아시아계 미국인, 흑인 미국인, 장애가 있는 미국인, 미국 원주민, 라틴계 미국인, LGBTQ+ 미국인 등, 위원회는 이러한 공동체를 대표하는 리더들의 의견을 직접 들었습니다.
이러한 각 공동체와 그 안의 소규모 공동체는 AI와 독특한 관계를 맺고 있습니다. 하지만 모든 공동체에는 공통점이 있습니다. 예를 들어 AI는 경제적 기회, 혁신 및 기타 수단을 통해 이러한 공동체에 혜택을 줄 수 있는 잠재력을 가지고 있지만, 그것은 이러한 공동체가 관련 자원에 동등하게 접근할 수 있는 경우에만 가능합니다. 반면 AI는 기존의 사회적 편견을 증폭시킴으로써 이러한 공동체에 해를 끼칠 수도 있습니다. 이번 연구 결과는 이러한 기회와 해악에 대해 자세히 설명합니다.

2. AI가 아시아계 공동체에 미치는 영향

발견 1: 역사적으로 아시아계 미국인은 중요한 AI 관련 데이터셋에서 배제되어 왔습니다.

의학 연구부터 안면 인식에 이르기까지 모든 정보를 제공하는 결과적 데이터셋에서 아시아계 미국인, 하와이 원주민, 태평양 섬 주민은 크게 과소대표되는 경우가 많습니다. 만약 이러한 공동체의 개인이 (데이터셋에)포함되더라도 영어에 능숙한 개인일 가능성이 더 높습니다. 일부 아시아계 미국인 공동체의 약 50%가 비영어권이라는 점을 고려하면 이는 가장 취약한 계층 중 일부가 영향력 있는 데이터 세트에서 제거되고, AI에서 간과된다는 의미입니다. 이는 AI가 이민, 의료, 취업 기회 등에 대한 결정을 내리는 세계에서 심각한 결과를 초래합니다.

또한 데이터셋에 내재된 이러한 차별은 콘텐츠 조정 문제로 이어질 수 있습니다. 소셜 미디어 알고리즘은 아시아계 미국인의 문화나 언어에 대한 맥락이 부족하기 때문에 증오심이 있거나 유해한 콘텐츠를 제거하지 못할 수 있습니다.

마지막으로, 아시아계 미국인이 데이터셋에 포함된 경우라도 데이터가 세분화되지 않는 경우가 많아 다양한 공동체가 하나의 획일화된 공동체로 축소됩니다.

발견 2: 이러한 배제의 영향에 대해 연구할 필요가 있습니다.

2023년 6월 NAIAC의 공청회에서 Emily Chi는 미국 정부가 이러한 배제의 규모와 영향을 더 잘 파악하는 것이 필수적이라고 강조했습니다. 이를 위해서는 가장 취약하고 억압받는 개인 및 공동체와 소통하고 이러한 기술이 그들의 일상적인 생활 경험에 어떤 영향을 미치는지 파악해야 합니다.

발견 3: 영향을 받은 공동체에 의미있는 접근, 이해, 권한을 부여하세요.

미국 정부는 이러한 배제를 완화하기 위한 조치를 취할 수 있습니다. 여기에는 다음이 포함됩니다. 아시아계 미국인 공동체가 원본 데이터셋에 포함되도록 하는 것뿐만 아니라 사용자 테스트 프로세스(특히 영어가 능숙하지 않은 사용자)에도 포함시켜야 합니다. 에밀리 치는 미국 정부가 데이터 사용 방식에 대해 공동체와 협의하여 수정할 수 있는 기회와 원하지 않는 시스템에 참여하지 않을 수 있는 기회를 제공해야 한다고 권고했습니다.

2. AI가 흑인 공동체에 미치는 영향

발견 1: AI는 흑인 공동체의 기회와 형평성을 방해할 수 있습니다.

주택부터 금융 서비스, 고용 및 채용, 교육에 이르기까지 중요한 영역에서 공공 및 민간에서의 AI 사용이 흑인 공동체의 기회와 공평한 대우를 가로막는 장벽으로 작용하는 사례는 무수히 많습니다.

AI와 데이터 중심 시스템은 흑인 공동체를 향상시킬 수 있는 잠재력을 가지고 있지만, 데이터의 역사와 역할이 표적화된 차별적 관행을 제정하고 영속화하기 때문에 이러한 잠재력은 축소됩니다. 예를 들어, 우편번호를 사용하여 서비스를 제공할 대상과 조건을 결정하는 AI 시스템은 레드라이닝과 지속적인 주거 분리 정책의 역사로 인해 흑인 및 기타 유색인종 고객에 대한 차별을 초래할 수 있습니다. SAT 점수를 포함한 대출자의 교육 데이터를 모델에 사용하는 대출기관은 SAT 시험에 내재된 편견으로 인해 과거의 차별적 관행을 재확인할 수도 있습니다.

발견 2: 법 집행 기관에서 AI를 사용하면 흑인 공동체에 해를 끼칠 수 있습니다.

법 집행 기관에서 AI와 데이터 중심 기술을 사용한 결과 흑인에 대한 차별적 관행이 지속되고 있습니다. 예를 들어, 연구자들은 예측 치안 도구가 범죄를 예측하는 대신 흑인 공동체에 대한 과잉 치안과 차별적 치안 관행을 강화한다는 사실을 발견했습니다. 또한 흑인, 특히 피부색이 어두운 흑인 여성을 정확하게 인식하는 데 어려움을 겪는 법 집행 기관의 얼굴 인식 기술과 같은 AI 사용으로 인해 흑인 공동체도 어려움을 겪을 수 있습니다.

법 집행 기관에서 얼굴인식을 사용하면 정확도의 차이 외에도 흑인 공동체에 대한 감시가 증가하여 오탐지 및 부당 체포가 발생할 수 있습니다. 형사 피고인이 알고리즘에 의해 기소되는 경우 투명성이 부족하고 구제책이 줄어들기 때문에 AI 시스템은 헌법상 적법 절차 규범을 훼손할 수 있으며, 이는 이미 범죄로 기소된 사람들에게 특히 우려되는 부분이며, 특히 걱정스러운 부분입니다.

발견 3: 흑인 공동체는 AI 개발에서 배제되어 왔습니다.

인공지능이 차별적인 데이터 포인트에 의해 구축되는 경우가 많을 뿐만 아니라, 역사적으로 흑인은 인공지능의 기술 개발과 인공지능의 사회적 목적과 역할 개발에서 배제되어 왔기 때문에 인공지능은 흑인 공동체의 관심사, 욕구, 혜택을 고려하지 않은 채 개발되었습니다.

피부색이 밝은 사람은 고임금 직종에, 피부색이 어두운 사람은 저임금 직종에 연결시키는 생성적 AI 시스템의 예와 기타 인종차별적 고정관념과 대표성 부족은 AI 개발과 사회 통합의 혜택이 본질적으로 평등하지 않다는 것을 보여줍니다.

발견 4: AI는 여러 가지 소외된 정체성을 가진 미국 흑인에게 특히 위험합니다.

흑인 여성과 소녀(특히 피부색이 어두운 흑인 여성과 소녀), 성소수자 공동체의 흑인 구성원, 장애가 있는 흑인 등 여러 가지 소외된 정체성을 가진 흑인의 경우 AI의 피해는 더 심각합니다. 흑인 여성과 소녀는 소셜 미디어의 악용에 특히 취약하고, 검색 엔진의 부정적 편견에 직면하며, 자동화된 도구에 의해 부정행위자로 오인되고, 얼굴 인식 기술에 의해 잘못 식별되거나 부당하게 식별될 수 있습니다. 또한, 이원적 성별 데이터를 기반으로 구축된 얼굴인식 기술 및 기타 AI 시스템은 흑인 트랜스젠더와 비바이너리 트랜스젠더를 더욱 소외시키고 인종적 프로파일링, 잘못된 성별 분류, 신체적 위험에 처할 가능성을 높입니다.

4. AI가 장애인 공동체에 미치는 영향

발견 1: AI는 장애가 있는 미국인의 고용에 위험-리스크-을 초래합니다.

고용주는 이전에 선발된 근로자의 이력서 패턴을 재현하는 이력서 스크리너, 지원자의 반응을 분석하여 특정 적성이나 성격 특성을 측정하는 게임형 평가, 말투와 표정을 기반으로 성격 특성을 평가하는 비디오 인터뷰 분석 소프트웨어 등 다양한 AI 도구를 사용하여 구직자를 평가합니다. 이러한 도구는 지원자가 특정 자질을 보이는 방식과 현재 직원들이 갖고 있는 자질을 비교함으로써 불공정하게 또는 심지어 불법적으로 자격을 갖춘 지원자를 장애를 이유로 선별할 수 있습니다.

또한 직장에서 근로자의 생산성 및 성과를 추적하는 데에도 AI 도구가 사용되는데, 이는 엄격한 생산성 할당량이나 성과 지표를 적용하여 장애인 근로자의 신체적 또는 정신적 건강상의 위험을 증가시킬 수 있습니다.

발견 2: AI는 장애가 있는 미국인을 위한 교육에 위험을 초래합니다.

학교는 학업 부정행위와 학생의 안전과 복지에 대한 위협을 감지하기 위해 다양한 도구를 사용합니다. 한 가지 예로 응시자의 얼굴을 신분증과 대조하고 활동을 모니터링하여 부정행위를 감지하는 자동 감독 소프트웨어가 있습니다. 흑인 및 갈색 피부색을 지닌 학생은 시험 시간 동안 밝은 빛을 얼굴에 비춰야 소프트웨어가 자신을 인식할 수 있어 빛에 민감해져 편두통과 기타 통증을 유발할 수 있습니다. 또한 이 소프트웨어는 시험 편의 장치 또는 보조 장치의 사용을 항상 지원하는 것은 아닙니다.
학교는 또한 단어 선택을 잘못 해석할 수 있는 소셜 미디어 모니터링 소프트웨어와 정신 건강 지원과 같은 자원에 대한 접근을 포함하여 학교에서 발급한 기기에서 학생의 활동을 모니터링하는 소프트웨어를 사용합니다. 또한 학교는 움직임을 잘못 해석할 수 있는 얼굴인식과 목소리 톤, 틱 또는 크고 비정형적인 말을 잘못 표시할 수 있는 공격성 감지 기능을 사용합니다. 그 결과, 장애가 있는 학생은 위험 학생으로 분류될 가능성이 더 높으며 흑인, 라틴계 또는 무슬림 학생의 경우 프로파일링이 더 자주 이루어집니다.

발견 3: AI는 장애가 있는 미국인들의 주거에 위험을 초래합니다.

예를 들어, 임대인은 세입자 심사 알고리즘을 사용하여 임대 신청자의 신원 조회를 수행합니다. 세입자 심사 알고리즘이 검토하는 데이터의 대부분은 불공정한 주택 거부를 초래할 수 있습니다. 예를 들어, 일부 알고리즘은 신청자가 다른 세입자를 학대하거나 임대 부동산을 파손할 가능성이 있는지, 임대료를 지불할 소득이 부족한지 여부는 고려하지 않고 의료 부채와 같은 요소만 고려합니다. 장애인의 의료 부채는 장애와 관련된 경우가 많기 때문에 임대 의무를 이행할 수 있는 경우에도 임대 신청이 거부될 수 있습니다.

또 다른 우려는 세입자 심사에서 신청자가 다른 세입자나 재산에 위험을 초래할 수 있다고 예측하기 위해 법원 기록에 의존하는 것입니다. 예를 들어, 세입자 심사 알고리즘이 퇴거 기록으로 인해 신청자를 거부하는 경우, 가정 폭력으로 인한 잦은 경찰 출동으로 인한 퇴거 기록인지 고려하지 않는데, 장애인은 가정 폭력을 경험할 가능성이 더 높고 학대 관계에서 벗어나기 더 어렵다는 점을 고려할 때 장애인이 퇴거 기록이 더 많을 가능성이 높습니다.

발견 4: AI는 장애인의 의료 서비스 이용에 위험을 초래합니다.

진단 도구는 종종 의학 연구와 진료에서 소외된 사람들에 대한 역사적 편견과 학대로 인해, 공식적인 진단과 치료를 받을 가능성이 낮거나 심지어는 접근조차 할 수 없었던 사람들을 적절하게 대표하지 못하는 데이터로 학습됩니다. 이러한 데이터로 학습된 AI를 진단 및 치료를 위한 자원 할당에 사용하면 소외된 사람들이 실제 필요에 기반한 지원, 치료, 편의시설을 이용하지 못하도록 차단할 수 있습니다.
예를 들어, 안면 분석은 비언어적인 사람들의 통증을 진단하는 데 사용될 수 있고, 안면 및 행동 분석은 특정 발달 및 인지 장애를 진단하는 데 사용되어 왔습니다.
그러나 기본 훈련 데이터에 장애가 나타나고, 가려지고, 인식되는 방식에 영향을 미치는 인종 및 성별 규범이 반영된 경우 특정 그룹에 대해서는 안면 및 행동 분석이 정확하지 않을 수 있습니다.

발견 5: AI는 미국 장애인에 대한 혜택 결정에 위험을 초래합니다.

많은 정부 기관은 혜택 자격과 배분을 결정하고 사기를 탐지하기 위해 알고리즘 도구에 의존하고 있습니다. 많은 경우, 이러한 도구는 잘못된 설계와 구현으로 인해 사람들의 혜택에 대한 접근을 방해하고 적법 절차상의 권리를 침해했습니다.

공공 혜택에 대한 알고리즘 장벽은 특히 장애인의 빈곤율에 큰 영향을 미치며, 장애가 있는 흑인의 경우 빈곤율이 더 높습니다. 예를 들어, 재가 및 지역사회 기반 서비스(HCBS)가 필요한 장애인의 경우, 일상 생활 활동을 수행하는 데 필요한 케어 시간을 계산하는 데 사용되는 알고리즘 도구가 장애인의 HCBS 혜택을 임의로 줄이거나 종료하여 장애인 수혜자가 집에서 케어받을 여유가 없어 요양 시설에 고립될 위험에 처하게 되었습니다.

발견 6: AI는 장애인을 위한 형사법 체계에서 위험을 초래합니다.

예측 치안 시스템은 법 집행 기관이 어느 지역에 자원을 투입할지 결정하는 데 도움이 됩니다. 이러한 시스템 중 일부는 학교 학업 및 징계 기록, 체포 기록, 소셜 네트워크, 가석방 또는 보호 관찰 상태와 같은 데이터를 기반으로 범죄 활동에 연루될 가능성이 높은 것으로 간주되는 사람들을 식별합니다. 위험 평가 알고리즘도 비슷한 분석을 통해 보석금이 책정된 경우 법정에 출두하지 않을 위험이나 가석방으로 석방된 경우 재범 위험을 예측하여 재판 전 구금 및 형량 결정에 정보를 제공합니다. 이러한 알고리즘이 평가하는 데이터에는 교육 수준, 고용 상태 및 소득, 거주지 및 주거 안정성, 사회적 관계 및 고립도, 범죄 기록, 약물 중독, 성격 특성 등이 포함될 수 있습니다. 이러한 요소는 공공 안전에 대한 위협보다는 공동체 지원의 필요성을 훨씬 더 잘 예측할 수 있습니다. 예를 들어, 체포 기록은 청각 장애인, 지적 또는 발달 장애가 있는 사람, 정신 건강 위기에 처한 사람에 대해 법 집행기관이 제대로 지원하지 않고 처벌로 대응한 결과일 수 있습니다.

5. AI가 라틴계 공동체에 미치는 영향

발견 1: 라틴계 공동체는 AI 분야(그리고 더 넓게는 STEM 분야)에서 과소대표되고 있습니다.

미국 히스패닉 인구는 2022년에 6,300만 명을 넘어 전체 미국인의 19%를 차지할 것으로 예상됩니다. 이 공동체는 미국 노동력의 17%를 차지하지만, STEM 일자리의 8%에 불과합니다. 이는 라틴계 미국인들이 높은 창업률을 보이고 있으며, 기술을 조기에 도입하는 경우가 많음에도 불구하고 나타나는 현상입니다. 미국에 거주하는 라틴계 및 비백인 히스패닉계는 2019년 AI 박사 학위 졸업생 중 3.2%에 불과했습니다. 지난 몇 년 동안 이 수치는 약간 증가했지만 여전히 그 비율은 부족합니다.

발견 2: 라틴계 공동체는 AI 분야(그리고 더 넓게는 STEM 분야)에 진입하는 데 장벽에 직면해 있습니다.

라틴계 연구자와 스타트업은 현재 글로벌 시장에서 성공하는 데 필요한 자본, 멘토링, 데이터, 컴퓨팅 파워에 대한 접근성이 부족합니다. 많은 라틴계 사람들은 AI 및 STEM 분야에서 멘토와 롤모델이 부족하다고 느끼며, 이러한 사례가 더 많아진다면 컴퓨터 과학 및 AI 분야의 직업을 선택할 가능성이 더 높아질 것이라고 생각합니다.

발견 3: 영어 중심의 AI 시스템은 스페인어 사용자(그리고 더 넓게는 영어를 사용하지 않는 세계)에게 부정적인 영향을 미칠 수 있습니다.

많은 AI 시스템이 영어 데이터 집합으로만 학습됩니다. 이로 인해 스페인어 사용자에게 여러 가지 피해가 발생할 수 있습니다. 이러한 AI 시스템의 결과물은 고정관념을 강화하고 라틴계 공동체를 배제하며 라틴계 공동체(예: 아프리카계 라틴계, 아시아계 라틴계 및 기타 라틴계 민족 하위 그룹)의 다양성을 평준화할 수 있습니다. 또한 알고리즘은 관련 스페인어 뉴스를 표시하는 데 어려움을 겪을 수 있으며, 이로 인해 라틴계 공동체에서 공공 서비스나 투표 정보에 접근하는 데 어려움을 겪을 수 있습니다.

발견 4: AI 시스템은 이민의 맥락에서 라틴계 공동체에 부정적인 영향을 미칠 수 있습니다.

남부 국경 지대에서 안면인식과 같은 AI 시스템을 사용하면 감시가 강화되고 시민의 자유가 침해될 수 있으며, 규제로 인한 제한이 발생하는 경우가 많습니다.

6. AI가 퀴어 공동체에 미치는 영향

발견 1: AI는 성소수자 공동체에 대한 혐오 발언을 증폭시킬 수 있습니다.

성소수자들은 폭력, 낙인, 차별, 삭제 등 사회적 피해를 불균형적으로 경험하고 있습니다. 포용적인 참여를 장려하는 의도적인 설계가 없다면, AI 개발은 성소수자의 시민권, 시민의 자유, 기회에 위험을 초래할 수 있습니다.

대규모 언어 모델은 퀴어 혐오적 표현이 포함되어 있고 퀴어를 긍정하는 언어와 다양한 정체성의 표현이 부족한 데이터로 학습됩니다. 따라서 LLM은 퀴어에 대한 고정관념과 유해한 내러티브를 생성하여 잘못된 젠더화(예: 성별을 확인하지 않는 이름이나 대명사 사용), 소외, 지워짐에 기여하게 됩니다. 또한 이러한 모델은 사람에 대한 정적 또는 부정확한 정보를 학습하여 사람에 대한 구식 정보나 잘못된 정보를 거의 여과없이 생성합니다.

또한 콘텐츠 검열에 배치된 AI는 퀴어 혐오 증오 발언을 감지하지 못하는 경우가 많지만, 퀴어 콘텐츠를 유해한 것으로 분류하여 검열하는 경우도 많습니다. 예를 들어, 퀴어 성교육 콘텐츠나 “나는 퀴어입니다”와 같은 커밍아웃 발언은 종종 부적절하거나 “유해한” 것으로 표시되어 자동으로 삭제됩니다. 또한, AI는 퀴어를 식별하고 얼굴에서 성별을 유추하는 데 사용되어 사회적 고정관념을 강화합니다.

발견 2: AI가 성소수자 공동체를 잘못 식별할 수 있습니다.

정부는 남성 또는 여성, 남자 또는 여자 등 이분법적인 성별 데이터를 수집하기 때문에 트랜스젠더와 이분법적이지 않은 사람들은 정확한 신원 확인을 위해 고유한 문제에 직면하게 됩니다. 특히 정부기관이 이분법적 성별 데이터로 학습된 AI를 사용함에 따라 더욱 그러합니다. 정부기관이 성별 및 성별 데이터에 AI 분석을 적용할 때, 데이터의 불일치로 인해 트랜스젠더를 비정상적인 사람으로 분류할 위험이 있습니다. 잘못된 신원 확인은 의료보험 거부, 법 집행 기관과의 접촉 증가와 같은 심각한 결과를 초래할 수 있습니다.

또한 생체인식 데이터는 일반적으로 정적이고 변하지 않기 때문에 신체적으로 성전환을 하는 트랜스젠더와 비성전환자에게는 제대로 작동하지 않습니다. 따라서 신원을 확인하거나 사기를 탐지하기 위해 생체인식을 도입하면 (1) 트랜스젠더를 색출하여 성별 위화감을 유발하고, (2) 성소수자를 보안 위험으로 잘못 분류하며, (3) 미국에 입국하거나 필수적인 건강, 고용, 주거 서비스를 이용하려는 성소수자를 차별할 수 있습니다. 또한, NAIAC 1차년도 보고서에 따르면 “정보 비대칭성”으로 인해 알고리즘 차별에 대한 주장을 입증하기 어렵고, 트랜스젠더는 생체인식 데이터의 사용이 자신을 차별하는 이유나 방법을 알지 못하여 구제받지 못할 수 있습니다.

7. AI가 미국 원주민 공동체에 미치는 영향

발견 1: 미국 원주민의 목소리를 배제한 채 AI가 개발되고 있습니다.

미국 내 원주민 공동체는 빈곤율이 가장 높은 지역 중 하나이며 고용 기회도 가장 제한적인 지역 중 하나로, 일부 공동체의 경우 최대 40%가 빈곤층에 속합니다.
이러한 격차는 기술에 대한 접근성에서도 나타납니다: 부족 지역에 거주하는 개인의 18% 이상이 광대역에 접속할 수 없습니다. 현재 많은 미국 원주민이 다니는 학교는 컴퓨터 과학을 가르칠 능력이 부족합니다. 그리고 2022년 북미에서 컴퓨터 과학 박사 학위를 받은 원주민은 총 1,700명 중 단 3명에 불과합니다.

발견 2: 결과적으로 AI는 미국 원주민 공동체에 도움이 되지 않습니다.

미국 원주민은 온라인에 의미있게 참여할 수 있는 접근성과 리소스가 부족하기 때문에, AI 도구는 이들의 의견과 필요를 염두에 두지 않고 개발됩니다. 실제로 자연어 처리 프레임워크는 북미의 대부분의 원주민 언어를 모델링할 수 없습니다. 이로 인해 전체 미국 원주민 인구가 AI 도구의 잠재력을 실현하는 데 배제되고 있습니다. 또한 대부분의 원주민 언어가 멸종 위기에 처했거나 이미 멸종된 상황에서 이러한 언어를 보존하지도 못합니다.

이러한 배제는 부족 경제에도 심각한 결과를 초래하여 AI가 제공할 수 있는 혁신과 경제적 기회 등 혜택을 받지 못하게 합니다.

발견 3: AI는 미국 원주민에 의해, 미국 원주민을 위해 구축되어야 합니다.

이러한 소외 문제를 해결하려면 원주민 공동체가 AI 시스템의 설계, 배포, 거버넌스에 직접 참여할 수 있는 경로가 필요합니다. 미국 정부는 미국 원주민 인재가 컴퓨터 과학, AI, 머신 러닝에 참여할 수 있도록 자금과 리소스를 제공할 수 있습니다. 또한 미국 정부는 원주민 언어 재생 및 활성화에 대한 AI 연구에 자금과 리소스를 제공하여 AI를 더욱 포용적으로 만들고 문화유산을 보존할 수 있습니다. 또한 AI 분야의 공공 및 민간기관이 관련 전문 지식을 갖춘 원주민 개인 및 공동체와의 협력(및 보상)을 우선순위로 삼을 수 있습니다. 미국 정부도 원주민 데이터 주권을 우선시할 수 있습니다. 여기에는 아메리카 원주민 공동체가 자신의 데이터를 통제하고 AI 연구 프로젝트에 의한 착취를 방지하는 데 도움이 되는 정책이나 교육 이니셔티브가 포함될 수 있습니다.

마지막으로, 2023년 6월 NAIAC 공청회에서 메이슨 그림쇼는 모든 솔루션이 고유한 언어와 문화를 가진 미국 내 원주민 공동체의 다양성을 고려해야 한다고 언급했습니다.

8. AI가 여성에 미치는 영향

발견 1: AI는 젠더라는 렌즈를 통해 검토되어야 합니다.

사회에서 AI의 보급이 증가함에 따라 편견, 배제, 접근성, 사회경제적 불공정성 등 오랫동안 여성들이 직면해 온 문제와 교차합니다. 따라서 AI를 다룰 때 성인지적 관점은 기술이 이러한 문제를 악화시키지 않고 완화할 수 있도록 하는 데 유용합니다.

안타깝게도 이미 후자의 사례가 몇 가지 있습니다. 현재 AI 업계에서 여성의 대표성은 제한적입니다. 또한, AI 시스템은 종종 성별 편견을 강화하는 데이터셋을 사용하여 학습되기 때문에 여성에 대한 대출을 부당하게 거부하는 신용 승인 알고리즘과 같은 결과를 초래할 수 있습니다. 또한 AI 시스템이 더욱 정교해짐에 따라 데이터 프라이버시를 지키기가 더욱 어려워져 여성은 데이터 유출과 온라인상의 하이퍼 타겟팅에 취약해집니다.

발견 2: AI 업계에서 여성의 대표성 확대가 필요합니다.

2023년 6월 NAIAC 공청회에서 부바 샤크티는 여성이 AI 기술을 형성하는 데 있어 동등한 역할을 할 수 있도록 미국 정부가 취할 수 있는 조치를 권고했습니다. 미국 정부는 공공 및 민간 금융 파트너십을 통해 여성 창업자, 여성 임원, 여성 소유 기업을 지원할 수 있습니다. 이는 유색인종 여성, 장애가 있는 여성, 비이성애자의 경우 특히 중요합니다. 보조금 및 기타 인센티브는 포용성을 표준화하고, 성차별을 없애며, 여성의 심리적 안전을 높이는 데 도움이 될 수 있습니다. 또한 미국 정부는 고등학교 수준의 여학생들에게 무료 교육과 체험 학습 기회를 제공하여 차세대 여성 리더들이 중요한 AI 기술을 갖출 수 있도록 지원할 수 있습니다.

발견 3: 미국 정부는 AI가 여성을 소외시키지 않도록 도울 수 있습니다.

부바 샤크티는 또한 AI가 본질적으로 여성을 소외시키지 않도록 하기 위해 미국 정부가 취할 수 있는 규제 조치에 대해서도 강조했습니다. 미국 정부는 AI 학습 데이터셋에 성별 편견이 없는지 확인하는 규정을 통과시키고 시행할 수 있습니다. 이는 AI 모델에 대한 역산 테스트와 같은 방법을 사용하여 수행할 수 있습니다.

또한 정부는 개인과 기업을 위한 생성적 AI 도구에 대한 접근을 민주화하여 노동 인구의 여성이 이러한 도구의 혜택을 동등하게 누릴 수 있도록 보장할 수 있습니다. 이는 AI의 경제적 이점이 노동력에 미치는 부정적인 영향보다 더 크다는 것을 보장할 수 있습니다. 그리고 미국 정부는 현재 여성을 포함한 차세대 AI 리더가 있는 중간 관리자를 대상으로 책임감 있는 AI 교육을 의무화할 수 있습니다. 또한 미국 정부는 여성의 데이터를 더 안전하게 보호하기 위해 개인정보 보호에 대한 보다 포괄적인 연방 차원의 감독과 집행을 제공할 수 있습니다.