본문 바로가기

ChemiPLUS

착한 인공지능 : AI 윤리기준은 왜 필요할까?

 

마침내, 대(大)AI (Artificial Intelligence, 인공지능) 시대입니다. 4차산업혁명을 통해 새롭게 생겨난 산업은 물론, 육아나 교육 같은 전통 분야에서도 인공지능을 활용하고 있습니다. 우스개 소리로 사람보다 나은 인공지능이라고 말 하기도 하죠. 그런데, 진정 AI는 인간의 삶에 들어올 준비가 되어 있는 것일까요? 과연, 이들은 우리 인간을 대체할 수 있는 걸까요? AI는 인간과 ‘닮아’있나요?

 

 

01

혐오를 배운 인공지능

   

출처 : 스캐터랩, 마이크로소프트 '테이', OPEN AI

 

지난 2020년, 국내 인공지능 스타트업 회사 ‘스캐터랩’이 개발한 AI 챗봇 ‘이루다’를 기억하시나요? ‘이루다’는 인공지능과 대화를 하는 혁신적 기술로 주목받았지만 서비스 20일 만에 중단을 해야했습니다. 출시 초기에는 인공지능을 향한 사용자들의 성희롱과 모욕 등의 문제가 있었고, 이후에는 이루다가 약자 혐오 등의 발언을 하는 AI 윤리 문제까지 일어났죠. 이 사건은 인간과 인공지능 사이의 상호적 윤리문제에 대한 화두를 던졌습니다. 

사실 ‘이루다’ 사건 전에도 AI의 윤리문제는 지속적으로 제기되어 왔습니다. 2015년 구글 포토가 흑인 커플 사진을 ‘고릴라’로 분류해 큰 물의를 일으켜 알고리즘을 수정하는 사건이 있었고, 2016년 마이크로소프트(MS)의 채팅봇 ‘테이’는 악성 사용자들과의 대화 도중 백인우월주의 및 여성 혐오 내용을 학습하게 되어 왜곡된 대화를 수행했고 이 역시 서비스 출시 16시간만에 중단되었죠. 2018년에는 아마존이 개발한 AI 기반 채용 시스템이 여대 졸업자를 포함한 여성들에게 불리하게 작용한 것이 알려지며 시스템을 중단하는 사건도 있었습니다. 가장 최근 큰 화제가 되고 있는 챗GPT는 이용자와 인공지능이 혐오 발언을 할 수 없게 제한을 걸어두기도 했고요.  

 

 

02

인공지능의 작동원리

  

 

왜 인공지능에서 이러한 편향적 사고와 혐오 사상의 문제가 일어나는 걸까요? 이유는 AI 기술의 작동원리에서 이해할 수 있습니다. AI가 세상을 이해하고 자신의 자아를 가지는 방식은 인간이 축적해온 데이터를 기반으로 하기 때문에, 훈련 데이터로 사용한 특정 “사회”의 편향적 사고를 그대로 나타낼 수 있습니다. 이루다의 경우 대부분 10~20대가 사용하던 ‘연애의 과학’에서 연인과 나눈 카카오톡 대화를 데이터로 사용했고 한국 10~20대가 할 법한 혐오 발화를 쏟아 내었습니다. 인공지능 테이는 미국의 18세~24세 이용자들을 겨냥해 만들어 졌고 이 중 극우 성향 이용자들이 인종·성차별 발언을 반복적으로 학습시켜 차별적 발언을 하는 AI가 되었죠.

안타깝게도 이러한 차별적 데이터 학습의 근본적 해결은 쉽지 않습니다. 일단 데이터의 양이 너무 많고, 어떤 윤리 기준으로 데이터를 어떻게 정제할 지에 대해서도 많은 의견이 있기 때문이죠. 그리고 AI는 데이터 학습에 대한 알고리즘을 설계할 뿐 데이터 자체를 설계하지는 않기 때문에 이들이 학습하는 데이터는 우리 사회의 경험치와 특성이 그대로 반영된, 인터넷 상의 혐오와 차별이 두드러진 자극적인 콘텐츠 기반의 데이터입니다. 이렇게 학습된 차별과 혐오는 쉽게 고칠 수 없습니다.

 

 

03

AI 윤리기준의 필요성

   

 

AI가 인간사회에 깊이 자리잡은 차별과 잘못된 편견마저 ‘닮아’보이게 학습하는 것이 과연 옳은 일일까요? 이 문제는 AI 연구자들 뿐 아니라 우리가 살아가는 사회의 평등과 인권에 대한 합의점에 연결된 복잡한 문제입니다. 우리 사회의 평등과 차별에 대한 명제와 법은 나라마다, 문화권마다 차이가 있기 때문입니다. 한 문화권에서 A라는 발언은 차별이라고 지적 받을지라도, 다른 문화권에서는 문제가 없는 발언이 될 수 있습니다.  

AI가 잘못된 방향으로 나아가고 있다는 비판이 거세지면서 구글, 마이크로소프트 등 IT 기업을 비롯해 유럽연합, 미국 등에서 평등한, 착한 AI를 위한 윤리 규범 및 가이드라인을 정립해 왔습니다. 우리나라 역시 2020년 12월에  과학기술정보통신부를 필두로 사람이 중심이 되는 「인공지능(AI) 윤리기준」을 마련해 기술의 오남용·알고리즘에 의한 차별·프라이버시 침해 등의 문제를 해결하기 위해 노력하고 있습니다. 물론 많은 노력이 필요하겠죠, AI가 학습하는 건 결국 AI에게 차별적이고 편견이 들어간 데이터를 제공한 사람들의 인식이니까요. 


우리 사회의 깊은 곳까지 AI가 영향을 미치는 시대를 피할 수는 없습니다. 많은 기업들에서 전화 상담 대신 AI 상담을 진행하고 있으며, 현재 가장 인기 있는 인공지능 챗GPT는 학습에서 마케팅까지 전방위 적인 쓰임을 하고 있으니까요. 하지만, 인공지능이 인간을 위하고 인간성을 중심에 둔 AI 윤리기준을 충족하지 못한 채  개발된다면, 영화에서나 봤던 디스토피아가 실현 될지도 모를 일입니다. 


(글 : 이화여자대학교 나종걸 교수)

 

 

 

 

 


종합 케미칼 & 에너지 리더,

한화토탈에너지스에 대해 더 알고 싶다면?