소식지

[해외정보인권] 알고리즘와치의 생성형 AI를 책임감 있게 사용하기 위한 가이드라인

By 2026/01/30 No Comments

편집자주 :

생성형 AI가 사회 전반에 엄청난 속도로 파고드는 것을 다들 느끼셨을 텐데요, 지난해 말, 디지털정의네트워크는 빠띠·정보인권연구소와 함께 시민사회 활동가를 대상으로 하는 생성형 AI 가이드라인을 만든 바 있습니다. 이번에는 해외 시민단체 AlgorithmWatch의 생성형 AI 가이드라인을 소개합니다.

“생성형 인공지능은 우리 주변 어디에나 존재합니다. 하지만 동시에 많은 문제점도 안고 있습니다. 결과물이 신뢰할 수 없거나 정치적으로 편향된 경우가 많고, 이 기술은 막대한 양의 에너지와 물을 소비하며, 이러한 시스템이 실제로 어떻게 작동하는지 명확하게 밝혀지지 않은 경우가 많습니다. 그럼에도 불구하고 많은 사람들에게 생성형 인공지능은 일상 업무의 필수적인 부분이 되었습니다.

따라서 우리는 현재 많은 조직들이 고심하고 있는 질문, 즉 우리의 가치에 부합하는 방식으로 생성형 AI를 어떻게 활용할 수 있을까라는 질문에 직면하게 되었습니다.

우리는 이 문제를 해결하기 위해 충분한 시간을 들였습니다. 팀원들에게 AI가 어떤 면에서 도움이 될 수 있는지, 그리고 어떤 위험이 있다고 생각하는지 물어보았습니다. 이 설문조사를 바탕으로 직원들에게 다음과 같은 지침을 제공했습니다. AI를 사용하는 것이 적절한 경우는 언제일까요? AI 사용이 과도한 경우는 언제일까요? 고려해야 할 위험 요소는 무엇일까요? 그리고 품질, 보안 및 투명성을 어떻게 보장할 수 있을까요?

오늘 이 정책을 여러분과 공유하는 이유는 인공지능을 보다 책임감 있게 사용하고자 하는 모든 분들이 자신만의 방법을 찾는 데 도움이 될 수 있다고 믿기 때문입니다.”

모두와 함께 현명한 방법을 찾아 나아가기를 바랍니다.


번역오류는 policy 골뱅이 digitaljustice.kr 으로 알려주세요.
제목 : 생성형 AI를 책임감 있게 사용하기 위한 가이드라인
글 : AlgorithmWatch

우리 조직은 디지털 기술이 무책임하고 책임성 없이 개발·도입·사용되는 것에 맞서 활동하고 있습니다. 하지만 이러한 기술은 책임 있게 사용될 경우, 이러한 활동을 수행하는 데 도움을 줄 수도 있습니다. 생성형 AI는 그중에서도 특히 중요한 사례로 그 이점과 위험을 어떻게 균형 있게 고려하며 책임 있게 행동할 것인지에 대한 질문을 제기합니다.

이 문서는 AlgorithmWatch 정책의 원칙과 절차를 소개합니다. 우리는 이 문서가 생성형 AI를 책임 있게 사용하려는 다른 조직들에게, 이러한 기술의 유용한 활용 사례와 위험을 균형 있게 고려하는 데 참고할 수 있는 하나의 모델이 되기를 바랍니다. 다양한 활용 사례와 위험·이점, 그리고 생성형 AI를 둘러싼 관점들이 빠르게 변화하고 있기 때문에, 이러한 정책을 개발하고 실행하는 일은 쉽지 않습니다.

AlgorithmWatch의 접근은 먼저 내부 구성원을 대상으로 한 설문조사에서 시작되었습니다. 이를 통해 (i) 구성원들이 생성형 AI에서 유용하다고 느끼는 활용 사례와 (ii) AlgorithmWatch의 활동에서 생성형 AI 사용과 관련해 인식하고 있는 우려와 위험을 파악했습니다. 이후, 구성원 개개인이 생성형 AI를 사용할지 여부와 그 사용 방식을 결정할 때, 우리 조직의 가치와 미션에 부합하도록 안내하는 정책을 마련했습니다.

이 정책은 다음의 네 가지 원칙에 기반합니다.

⚖️ 비례성(Proportionality)

🗝️ 보안(Security)

💯 품질(Quality)

🪟 투명성(Transparency)

또한 이 정책에는 활용 사례와 도구를 수집하고 논의하는 절차, 그리고 시간이 지나며 정책을 업데이트하는 구조가 포함되어 있습니다. 이는 기술의 활용 범위와 지속적인 변화, 그리고 그에 따른 이점과 위험을 다루기 위해 필요한 요소입니다.

조직 내에서 유사한 정책을 도입할 계획이 있다면, 이 정책이 지원이나 참고 모델로 활용되기를 바랍니다. 지금까지의 경험과 논의를 통해 다음과 같은 점을 이야기할 수 있습니다.

  • 조직 내에서 현재의 활용 방식과 인식을 파악하기 위한 설문조사로 시작하고 그 결과를(집계된 형태로라도) 구성원들과 공유하는 것이 도움이 됩니다. 이는 정책이 조직 내 다양한 관점과 활용 방식을 반영하고 있음을 보여주는 데 기여합니다. 아래 문서에는 우리가 사용한 설문조사를 부록으로 포함했습니다.
  • 이 정책은 개별적인 의사결정을 위한 가이드라인을 제공함으로써 다양한 활용 사례에 유연하게 대응할 수 있도록 돕습니다. 다만 이는 구성원들이 생성형 AI의 위험에 대해 인식하고 있으며 위험과 이점의 균형을 고려해 사용하고자 할 때 효과적으로 작동합니다. 그렇지 않은 경우에는 더 명확하고 엄격한 규칙이 더 적절할 수 있습니다.
  • 정책을 실행하는 과정과 환경의 변화에 따라 이를 조정해 나갈 수 있는 명확한 방식이 있는 것이 중요합니다.

가이드라인 원문 보기