일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 고려대학교언론학과 #언론학박사논문 #언론인의정체성변화
- 보건의료
- 5.18 #광주항쟁 #기억 #역사연구
- 518광주민주화운동 #임을위한행진곡
- 미니픽션 #한 사람 #심아진 #유지안
- 쿰벵
- 알렉산드라 미하일로브로나 콜른타이 #위대한 사랑 #콜른타이의 위대한 사랑
- 항구의사랑
- 산업재해 #코로나시국
- 김민조 #기록의 기술 #세월호 #0set Project
- 국가란 무엇인가 #광주518 #세월호 #코로나19
- 앙겔루스 노부스의 시선
- 공공보건의료 #코로나19
- 코로나19 #
- 권여선 #선우은실 #하늘 높이 아름답게 #김승옥문학상수상작품집
- 선우은실
- 죽음을넘어
- 한상원
- 수료연구생제도 #고려대학교대학원신문사 #n번방 #코로나19
- 임계장 #노동법 #갑질
- 심아진 #도깨비 #미니픽션 #유지안
- BK21 #4차BK21
- 고려대학교대학원신문사
- 시대의어둠을넘어
- 애도의애도를위하여 #진태원
- n번방
- 마크 피셔 #자본주의 리얼리즘 #염동규 #자본주의
- 쿰벵 #총선
- Today
- Total
고려대학교 대학원신문
챗봇 ‘이루다’ 사태를 통해 인공지능과 법 제도를 살펴보다 본문
현재 인공지능은 우리 사회 속 다양한 분야에서 활용되고 있다. 그러나 아직 이를 안전하게 개발하고 활용할 수 있는 토대가 안정적으로 자리 잡지 못해, 사회·법적 제도의 발전이 기술의 발전 속도를 따라가지 못하고 있다는 우려의 목소리가 나오고 있다. 이에 본지는 인공지능 기술의 개발과 활용에 있어 법적·윤리적 실태를 파악하고 향후 나아가야 할 방향을 논의하기 위해 공공데이터 및 공익데이터 정책을 연구하는 Parti 공익데이터본부 변호사와 한국인공지능윤리협회의 목소리를 들어보았다.
챗봇‘이루다’사태를 통해 인공지능과 법 제도를 살펴보다
지난해 12월에 출시되었던 인공지능 챗봇(Chatbot) ‘이루다’는 2주 만에 75만 명 이상의 사용자를 기록할 정도로 폭발적인 인기를 끌었다. 그러나 불과 며칠 사이에 챗봇은 사회적 소수자에 대한 혐오 발언을 한 것으로 나타나 논란이 일었고, 이어 데이터 수집 과정에서 이를 제대로 익명화하지 않았다는 개인정보 유출 의혹까지 제기되었다. 이에 결국 개발사 스캐터랩(SCATTER LAB) 측은 출시 3주 만에 서비스를 종료했지만, 지난달 3일 인권 침해 및 차별 진정, 정책권고를 요청하는 제안서가 인권위원회에 제출되는 등 ‘이루다’는 여전히 사회적인 관심을 끌고 있다. 이에 따라 Parti 공익데이터본부 박지환 변호사를 만나 ‘이루다’ 사건을 통해 드러난 인공지능 기술과 데이터 활용 문제에 대한 법리학적 해석에 대해 물었다.
인공지능 관련 법의 실태
인공지능 기술이 발전하면서 이를 우리 사회에 안전하고 효율적으로 활용하기 위한 법을 마련해야 한다는 목소리가 커지고 있다. 이와 관련하여 현재 법규에서는 인공지능 기술을 어떻게 규정하고 있으며, 이번 ‘이루다’ 사태에서 논란의 핵심이었던 인공지능 기술 개발 과정에서의 개인정보 활용법에 대해 물었다.
“지난해 12월부터 기존의 ‘국가정보화지능법’에 인공지능 관련 사항을 반영해 개정한 ‘지능정보화기본법’이 시행되고 있습니다. 특히 제61조(사생활 보호 설계 등)와 제62조(지능정보사회윤리)에서는 ‘지능정보기술’이라는 단어로 인공지능 관련 내용을 다루고 있습니다. 그러나 아직 그 내용이 구체적이지 않고, 최근 4개의 법안이 추가 발의되어 국회에 계류 중이기는 하나 역시 아직은 걸음마 단계라고 할 수 있겠습니다. 현재 법규에서는 기술 개발과 전문인력 양성 등 국가계획이나 산업진흥과 관련한 내용이 주를 이루고 있습니다. 이는 여러 지방자치단체 등에서 인공지능을 다루는 기업 유치를 위해 노력하고 있는 현실이 반영된 것이라 할 수 있죠.
각 나라 법제 문화가 조금씩 다르기는 하지만, 해외 법규의 사례를 잠시 살펴볼 필요가 있습니다. 현재 미국과 유럽연합(EU)의 경우 산업진흥과 사용자 권리 양면을 고려해 사전규제적인 법안이 제정되고 있는데, 대표적으로 미국의 “알고리즘 책임 법안”과 EU의 “인공지능 발전과 신뢰를 위한 백서”가 있습니다. 두 사례는 공통적으로 ‘공정성,’ ‘투명성,’ ‘책임성’ 세 가지 내용을 준수하는데 목표를 두고 있습니다. 한국 역시 장차 이러한 방향으로 나아갈 필요가 있습니다만, 아직은 그 제도화 수준에 있어 아쉬운 부분이 많다고 봅니다.
한 가지 주목해야 할 것은 이번 ‘이루다’ 사태에서 특히나 논란이 되었던 개인정보 활용 방식입니다. 개발사 측에서는 개인정보 유출이 없었다고 밝혔지만, 사용자들은 자신의 개인정보가 챗봇 개발에 활용되는지 몰랐다며 불만을 토로하고 있습니다. 특히 지난해부터 가명 처리된 개인정보를 통계 작성, 공익적 기록 보존, 과학적 연구 등에 정보 주체의 사전 동의 없이 사용할 수 있도록 하는 ‘데이터 3법’이 시행되면서 이러한 신기술 개발과 개인정보 활용에 대한 민감성이 더욱 강조되고 있습니다. 이는 엄연히 이용자보다는 개발자를 배려한 법이기 때문이죠. 물론, ‘이루다’를 개발한 스캐터랩은 데이터 3법 시행 이전부터 프로그램 개발을 준비했기에 해당 법과 관련성이 명확하지 않고, 아직 사실관계 확인 중에 있어 결론이 명확하게 나지 않은 사안이라 단정적으로 말씀드리기는 어렵습니다. 다만 ‘이루다’ 논란은 개인정보 활용 관련 법안 자체의 사각지대라기보다는, 기본적으로 개발자가 개인정보보호법을 제대로 준수하지 않아서 발생한 문제로 보입니다. 개인정보처리자는 정보주체의 개인정보가 어떻게 사용될지 구체적으로 명시해야 할 의무가 있습니다. ‘연애의 과학’ 앱은 최초 회원가입 시 사용자의 데이터가 신제품 즉, 이루다 챗봇 개발에 사용된다는 부분에서 ‘선택 동의’ 방식의 선택권을 명시하지 않았고 ‘신규서비스 개발 및 마케팅·광고의 활용 동의’와 같이 필수동의 사항으로 만들었다는 점에서 문제가 발생했습니다. 이용자가 필수적이지 않은 항목에 대해 선택 여부를 결정하도록 제정된 개인정보보호법 관련 부분을 잘 준수했으면 문제가 크게 일어나지 않았을 법도 한데 빠른 개발을 위해 관련 법규를 간과하지 않았나 하는 아쉬움이 드는 게 사실입니다. 이 문제는 해당 특정 회사만의 문제가 아닌 전반적인 산업계를 대상으로 살펴볼 필요가 있기도 합니다.”
‘혐오 딥러닝’의 배경
‘이루다’가 출시된 지 불과 며칠 만에 여성, 장애인, 동성애자 등 사회적 소수자에 대한 혐오 발언을 하면서 딥러닝 과정에 대한 문제가 제기되었다. 이러한 ‘혐오 딥러닝’이 발생하게 된 기술적·제도적 배경은 무엇일까.
“‘이루다’의 혐오 발언 논란의 배경은 크게 우리 사회 전반적인 차원과 기술 개발의 차원으로 나누어 볼 수 있습니다. 먼저 근본적으로 딥러닝 과정에서 학습한 대화 자체의 문제를 들 수 있습니다. 사실 ‘이루다’와 같은 인공지능 챗봇은 친밀한 사람의 대화 데이터를 오랫동안 집중적으로 학습해 사람처럼 대화할 수 있다는 점에서 인공지능 기술 중에서도 특수한 경우라고 할 수 있습니다. 그런데 우리 사회에서 특정 발언을 법적으로 규정할 수 있는 틀은 아직 미흡한 수준입니다. 예컨대 독일에서는 홀로코스트에 대한 부정이나 왜곡 발언이 처벌받을 수 있는 것과 같이 명확한 법적 기준이 있습니다. 그런데 한국에서는 이와 같은 금지어, 특히 사적인 대화에서 특정 발언에 대한 사회적 합의와 법적 규제가 부재합니다. 이는 우리 사회만의 문제라기보다는 대화라는 영역이 ‘표현의 자유’와도 연관되면서 이러한 기본권 제한에 매우 신중하게 접근할 필요가 있기 때문이기도 합니다. 인공지능 챗봇이 학습한 것은 이러한 현실이라고 할 수 있죠. 또, 챗봇 개발 과정에서 활용하는 데이터의 특성상 앞으로 같은 문제가 발생하지 않을 것이라 확신하기 어렵습니다. 이는 혐오 발언에 대한 사회적인 합의가 먼저 이루어져야 하는 부분이기 때문에 앞으로도 꾸준한 공론화가 요구되는 영역이라고 생각합니다.
다음, 기술적인 차원에서 인공지능 기술에서의 차별성은 두 가지 측면에서 나타난다고 볼 수 있습니다. 첫째는 인공지능 기술의 차별적 활용이고 둘째는 이번 ‘이루다’ 사태와 같이 구체적으로 발현된 인공지능의 차별적 발화입니다. 전자의 경우 보다 일반적인 차원에서 인공지능 기술이 일상생활에서 모두에게 공평하게 활용될 수 있도록 인공지능 기술을 규제하는 접근이 필요합니다. 미국과 EU의 경우 인공지능 중 사생활 침해나 보안 관련 위험성에 따라 인공지능을 차등적으로 규정하여 자동화 시스템을 평가하는 법규를 도입하고 있지만, 안타깝게도 한국에서는 아직 ‘고위험 인공지능’을 규제할 방법이 없습니다. 한편 ‘이루다’ 사태에서의 논란은 상당히 세부적인 사례로 인공지능 기술의 차별적 발화에 해당합니다. 여기서 문제 소지가 될 수 있는 차별적 요소를 미리 제거하고 출시 전 검수했어야 한다고 봅니다. 앞서 말씀드린 미국과 EU의 인공지능 관련 사전규제 사례에서는 훈련 데이터의 차별적 요소 제거를 사전 조치 대상으로 두고 있습니다. 또한, 이러한 규정에 따라 차별성을 배제하기 위해 엄격한 테스트를 거친 후에야 출시됩니다. ‘이루다’의 경우 이 같은 차별성 배제 노력을 사전에 기울이지 않았던 것으로 보이고, 수집한 데이터를 여과 없이 딥러닝에 활용한 것이 문제였다고 할 수 있습니다. 이는 학습편향 관련한 사전규제가 마련되어 있지 않기 때문에 발생한 상황이기도 합니다. 현재 법제는 학습편향과 같은 사안을 기업의 자율성에 맡기는 수준이죠. 따라서 앞으로 인종, 성별, 경제·사회적 지위와 같이 자칫 큰 피해 위험성이 있는 고위험 인공지능 영역의 공정성을 학습할 수 있도록 프로그램을 개발하는 게 중요합니다. 다시 말해, 개발 과정에서 인공지능의 차별적 활용과 차별적 발화를 모두 배제하는 데 중점을 두어서 인공지능 기술이 차별을 학습하지 않도록 하는 것이 과제라고 생각합니다.”
‘법적 주체’로서의 인공지능
챗봇의 캐릭터를 20세 여대생을 캐릭터로 설정하면서 이를 성적대상화하거나 우회적 표현을 통해 성적 대화를 유도하는 모습이 각종 커뮤니티에 공유되면서 인공지능을 대상으로 한 성희롱 문제에 대한 논란이 일기도 했다. 일각에서는 이에 대해 인공지능을 실제 피해자로 볼 수 있는지에 대한 문제를 제기하기도 했다. 이처럼 ‘사람 같지만 사람은 아닌’ 인공지능을 법적 대상으로서 어떻게 바라볼 수 있을까.
“이는 인공지능 기술의 ‘주체성’을 어떻게 바라볼 것인가라는, 어쩌면 철학적인 고민과도 결부된 문제입니다. 그러나 결론부터 말씀드리자면 현재 법규에서는 인공지능을 ‘법적 인격이 있는 주체’로 설정하고 있지 않습니다. 따라서 부적절한 언행을 했거나, 이로 인한 피해를 본 인공지능 자체에 대한 처벌과 보상을 법적 기준에서 제시하기는 어렵습니다. 굳이 보자면 이번 사태에서 인공지능 챗봇을 성희롱한 것보다는, 이러한 대화를 캡처하고 공유한 행위를 손해배상 청구 정도로 대응하는 방법은 논할 수 있겠습니다. 그러나 이는 인공지능에 대한 인격을 부여하여 성범죄의 피해자로 설정하는 것과는 성격이 다른 문제입니다. 즉, 해당 문제에 있어 법은 인공지능에게 책임 주체로서의 인격을 부여할 것인가라는 근본적인 변화가 있어야 기능을 할 것이라고 봐야 합니다.
따라서 실제로 챗봇을 활용하는 이용자들의 행동강령을 더욱 명확하게 확립해야 할 필요가 있어 보입니다. 사실 현재 국회에 발의된 인공지능 기술 관련 법률안에서는 ‘이용자’라는 단어가 한 번도 사용되지 않습니다. 그만큼 법적 틀이 산업계에 집중하고 있다는 뜻이죠. 다만, 개별 기술을 이용하는 법을 제정하는 데에는 한계가 있으므로 법적 강제력이 없더라도 올바른 이용의 방향을 제시하는 틀이 필요합니다. 좋은 예시로는 인공지능 기술을 사용하는 사람들의 윤리의식에 대한 ‘행동강령(Code of Conduct)’이나 SNS에서 운영에 주로 사용되는 ‘커뮤니티 규정’ 등 사용자들이 이용하는데 준수해야 할 사항을 제정하고 문제가 있는 담화를 사용할 시 저지하는 방안을 들 수 있겠습니다. 이처럼 윤리 준수사항을 개발자가 사전에 공지하고 위반할 시 기술적으로 제재할 필요가 있습니다. 그리고 그 과정에서는 이용자들의 의견이 충분히 반영되어야 합니다. 즉, 인공지능 기술을 어떻게 활용해야 하는지 개발자와 이용자들 사이의 합의를 만들어 가는 장기적인 과제라고 생각합니다. 이처럼 챗봇뿐만 아니라 여러 분야에 걸친 인공지능 기술을 사용하는 사람들의 문해력(literacy)과 이용자-개발자-정부 사이의 상호관계가 중요한 사항입니다.”
인공지능과 법·제도적 영역의 전망
이번 사건을 시작으로 인공지능과 사회적·윤리적 문제에 관한 논의는 지속될 것으로 보인다. 마지막으로 인공지능이 일상생활의 일부로 자리매김해 가는 과정에서 향후 법·제도적 영역에서 나아가야 할 방향을 물었다.
“인공지능 기술을 사후에 규제하는 방식만으로는 생산적인 발전을 이루어 내기 힘들어 보이입니다. 오히려 다른 국가들의 사례처럼 고위험인공지능 영역에서는 사전 규제로 접근하는 것이 더 효과적일 것이라 생각합니다. 즉, 기술을 개발하면서도 이용자의 피해가 없는 방향으로 나아가야 할 것입니다. 이를 위해 제가 희망하는 바람직한 방향은 정부 차원에서의 법 제도 강화와 기업과 사용자 차원의 자율규제 강화 두 흐름입니다. 정부 차원에서는 앞서 말씀드린 기술의 위험도에 따라 인공지능을 차등적으로 규정하여 발생할 수 있는 피해를 최소화해야 할 것입니다. 최근 공기업에서 채용 시 인공지능 면접을 채택하면서 인공지능 채용이 공정성을 담보할 수 있을지 우려의 목소리가 나오고 있습니다. 위험도에 따라 인공지능을 차등적으로 규제하면서 공적으로 활용할 수 있는 방안을 찾는 것이 이러한 문제를 해결하고 제도적으로 인공지능의 공공성을 빠르게 확립하는데 기여할 수 있을 거라 봅니다.
다음, 자율규제는 한 의견만 반영할 경우 기술발전의 저해와 같은 문제가 발생할 수 있으므로 정부, 기업, 사용자 모두의 의견을 수렴하는 것도 중요합니다. 이를 위해서는 모두가 참여할 수 있는 논의의 장을 만들고, 이러한 과정을 통해 준수해야 할 기준선을 제정하여 사전규제를 확립해야 합니다. 최근 인공지능의 공정성, 투명성, 책임성 보장을 위한 법제 정비 방안에 관한 토론회가 국회에서 열렸습니다. 여기에는 과학기술정보통신부, 공정거래위원회, 개인정보보호위원회, 학계와 시민사회가 모두 목소리를 낼 수 있었습니다. 세부 방침에 대한 고민은 앞으로 조율해 나가야 하겠지만, 인공지능에 대한 공정성, 투명성, 책임성을 보장해야 한다는 전반적인 방향에 동의하고 있으며, 특히 이용자의 입장이 잘 반영될 수 있는 방향으로 논의되고 있다는 것이 희망적으로 보입니다.
‘이루다’ 사태뿐만 아니라 인공지능 기술은 여전히 많은 법적, 윤리적, 사회적 문제가 남아있습니다. 그리고 아직 우리나라 법문화 상 인공지능 관련 세칙을 정립하는 데에는 상당한 시간이 필요할 것으로 보입니다. 그러나 이와 같은 공론의 장을 마련해 나가고 있다는 것은 분명한 성과라고 할 수 있으며, 앞으로도 학계, 시민사회, 정부 간의 협력을 통해 인공지능 기술과 관련된 사회적 합의를 만들어 가는 것이 우리의 과제라고 생각합니다.”
■ 인터뷰 정리: 최서윤 기자( seoyoon2290@daum.net)
김연광 기자( dusrhkd99@korea.ac.kr)
'3면 > 쟁점기획' 카테고리의 다른 글
불편을 넘어 보편을 지향하다 - 장애인 이동권 투쟁 20년을 돌아보며 (0) | 2021.05.06 |
---|---|
코로나19 시대의 먹거리 문제와 대안으로서의 ‘로컬 푸드’ (0) | 2021.04.04 |
변화를 위해 달려온 3년, 변화를 향해 함께 나아갈 길 (0) | 2020.12.02 |
전태일3법을 통해 노동 현실과 개선의 방향성을 묻다 (0) | 2020.11.06 |
공공의료를 막아선 의사들에 저항하는 다른 목소리 (0) | 2020.10.13 |