최근 AI가 급속도로 발전, 성장하고 있고 각광 받는 기술이지만,
AI가 잘못된 정보를 가지고 학습했을 때 생기는 사회적 문제에 대해서도 생각해봐야 한다.
AI의 편견은 상상 이상의 사회적인 사회 혼란을 초래 할 수 있다고 생각되어진다.
지난 구글 포토스의 사례를 보면 AI 기술을 통해 얼굴을 인식하고 사진을 분류하는 구글 포토스는
흑인 두 명의 사진을 '고릴라'로 인식하는 오류가 발생했다.
AI가 당시 검은 피부색을 사람으로 인지하지 못하면서 발생한 오류였고
구글은 즉각 사과 성명서와 함께 짙은 피부색에 대한 얼굴 인식 알고리즘을 개선하겠다 발표했다.
AI의 '건강한' 아웃풋을 도출하기 위해서는, '건강한' 인풋 데이터의 조건으로 타당성,질,양을 꼽았고
좋은 질과 많은 양의 데이터는 가장 기본이라고 생각되어진다.
이와 같이 착한 AI를 위해서는 AI를 검증하는 AI가 필요하다는 최근 IT업계의 생각과 이어진다.
이런 AI에 인풋 적절한지, AI의 아웃풋이 적절한지에 대한 검증의 필요성에 증가에따라서
설명 가능 인공지능(XAI, Explainable AI)이 주목 받고 있다.
이는 AI가 아웃풋에 대한 도출 이유를 설명해줌으로써, AI를 검증할 수 있게 된다.
또한 이런 AI에 의도적으로 부적절하고 타당하지 않은 데이터를 입력함으로써 발생하는 해킹도 생각해 보았을 때
AI의 인풋에 대한 적절성 검사에 대한 연구가 중요시 될 것이다.
이전 글 : 갤노트7 발화 사태 1년, 원인 분석과 갤노트8
'휴지통 > IT 스크랩' 카테고리의 다른 글
갤노트7 발화 사태 1년, 원인 분석과 갤노트8 (0) | 2018.05.30 |
---|---|
인공 지능 '알파고'에 이은 페이스북의 '엘프 오픈고' 개발 중 (0) | 2018.05.30 |
전 세계가 주목하는 구글 I/O 2018 D-2 어떤 기술을 선보일까 (0) | 2018.05.30 |
커피를 만드는 로봇 AI, 푸드테크 외식시장에서의 영역 확장 (0) | 2018.05.30 |
티스토리 깔끔하게 소스코드 추가하기(Syntaxhighlighter) (0) | 2018.05.30 |