[AI 알고 보자 인공지능!] 나쁜 인공지능을 만드는 건 바로 ‘사람’
정리=신현주 기자 marieleo@chosun.com 입력 : 2024.02.20 22:00

우리 주변에는 어떤 인공지능이 있을까?

친구들 사진을 ‘고릴라’ 폴더에 저장했다고?

2015년, 구글의 사진 관리 앱 '구글 포토'는 때아닌 인종차별 논란에 휘말렸어. 한 미국인이 친구와 찍은 사진을 구글 포토에 올렸는데, 얼굴 인식 인공지능(AI)이 친구들의 사진을 '고릴라' 폴더에 저장해 버린 거야. 한두 장도 아니고, 무려 80장이나. 구글에선 당장 이 문제를 고치겠다며 사과했어.

2016년에는 마이크로소프트에서 발표한 AI 챗봇 '테이'가 문제를 일으켰어. 테이는 사람과 채팅을 하면서 단어와 대화 방법을 학습하도록 설계됐지. 그런데 나쁜 마음을 가진 사람들이 테이에게 욕설을 가르치고, 인종차별적인 단어를 계속 말하자 그대로 배워 버린 거야. 16시간 만에 테이는 이상해졌어. 테이에게 "네가 제일 혐오하는 인종이 뭐야?"라고 물으면 "멕시코인과 흑인이야"라고 대답했고, 심지어 미국의 오바마 전 대통령을 원숭이에 비유했대. 마이크로소프트는 바로 사과를 하며 하루 만에 서비스를 중단했어. 이 외에도 백인보다 흑인의 재범률이 더 높다고 분석한 범죄 위험 예측 AI '컴퍼스'처럼 흑인이 나오는 동영상을 보던 사람에게 "영장류 영상을 계속 보시겠어요?"라고 말한 페이스북의 AI 등 비슷한 문제는 계속해서 벌어지고 있어.
	/아이클릭아트
/아이클릭아트
문제는 ‘AI가 학습한 데이터’에 있다

이렇듯 AI의 분석 결과가 한쪽으로 치우치는 건 데이터 자체에 문제가 있기 때문이야. 잘못된 데이터를 학습한 AI가 잘못된 결정을 내리는 거지. 예컨대 노벨상 수상자를 예측하기 위해 AI에게 수상자 데이터를 학습시켰다고 생각해 보자. 그거 알아? 노벨상이 처음 설립된 1901년부터 2022년까지, 122년간 총 989명이 노벨상을 받았는데, 이 중 여성은 단 60명에 불과해. 이 데이터를 학습한 AI는 당연히 다음 해 수상자도 남자일 거라고 예측할 가능성이 높을 거야. 앞서 말한 컴퍼스도 비슷한 경우야. 옛날에는 백인 판사가 흑인에게 더 가혹한 판결을 내리는 일이 많았거든. 과거의 잘못된 역사를 그대로 학습한 AI가 인종차별을 반복하는 거야.

AI를 연구하는 사람들은 이런 오류를 바로잡기 위해 다양한 노력을 하고 있어. 전문가들은 가장 먼저 성별·나이·인종 등 데이터에 다양한 정보가 반영됐는지 확인해. 그리고 AI의 분석 결과가 한쪽으로 치우치지 않았는지 검사하고, 알고리즘을 수정하지. AI 기술이 무한한 잠재력을 지닌 건 부정할 수 없는 사실이지만, 아직 완성된 기술이라 보기는 힘들어. 그렇기 때문에 AI가 실수를 저지르지 않는지 두 눈을 크게 뜨고 살펴보는 게 중요해. 우리가 AI를 배워야 하는 이유도 바로 여기에 있어.
질문AI가 색안경을 쓰지 않도록 개발하기 위해서 어떤 규칙 또는 기능을 설정하면 좋을지 생각해 봅시다.

질문AI가 ‘차별’을 학습한 배경과 원인을 찾아 정리한 뒤 또 다른 사례가 없는지 찾아봅시다.
● 우리 주변의 인공지능 
손종희 글ㅣ이주미 그림ㅣ이주민 감수ㅣ현암주니어
  • 2024 초등 NIE 봄학기 수강생 모집
  • 조선일보 NIE 지도자 양성 과정 모집
  • 초등 NIE 겨울학기 수강생 모집
  • 명예기자신청&활동팁