본문 바로가기
휴지통/IT 스크랩

흑인=고릴라...편견 데이터가 AI에 미치는 영향 (AI의 문제점)

by 빨강자몽 2018. 5. 30.

최근 AI가 급속도로 발전, 성장하고 있고 각광 받는 기술이지만,

AI가 잘못된 정보를 가지고 학습했을 때 생기는 사회적 문제에 대해서도 생각해봐야 한다.




AI의 편견은 상상 이상의 사회적인 사회 혼란을 초래 할 수 있다고 생각되어진다.

지난 구글 포토스의 사례를 보면 AI 기술을 통해 얼굴을 인식하고 사진을 분류하는 구글 포토스는

흑인 두 명의 사진을 '고릴라'로 인식하는 오류가 발생했다.


AI가 당시 검은 피부색을 사람으로 인지하지 못하면서 발생한 오류였고

구글은 즉각 사과 성명서와 함께 짙은 피부색에 대한 얼굴 인식 알고리즘을 개선하겠다 발표했다.




AI의 '건강한' 아웃풋을 도출하기 위해서는, '건강한' 인풋 데이터의 조건으로 타당성,질,양을 꼽았고

좋은 질과 많은 양의 데이터는 가장 기본이라고 생각되어진다.


이와 같이 착한 AI를 위해서는 AI를 검증하는 AI가 필요하다는 최근 IT업계의 생각과 이어진다.

이런 AI에 인풋 적절한지, AI의 아웃풋이 적절한지에 대한 검증의 필요성에 증가에따라서

설명 가능 인공지능(XAI, Explainable AI)이 주목 받고 있다.

이는 AI가 아웃풋에 대한 도출 이유를 설명해줌으로써, AI를 검증할 수 있게 된다.


또한 이런 AI에 의도적으로 부적절하고 타당하지 않은 데이터를 입력함으로써 발생하는 해킹도 생각해 보았을 때

AI의 인풋에 대한 적절성 검사에 대한 연구가 중요시 될 것이다.