코난테크놀로지, 공정한 의사결정 AI 개발…‘편향성’ 연구 참여

하수은 / 기사승인 : 2019-08-08 11:37:48
  • -
  • +
  • 인쇄

[일요주간=하수은 기자] 인공지능(AI) 기업 코난테크놀로지가 AI 모델과 학습데이터의 편향성 분석-탐지-완화·제거 지원 프레임워크 개발에 참여한다고 8일 밝혔다.
 
이번 연구는 ▲데이터와 AI 모델의 편향성 분석을 위한 공정성 개념과 측도 ▲편향성 탐지-완화·제거 알고리즘 연구 ▲편향성 분석을 위한 시각화도구 개발과 산업영역에 적용이다.
 
연구에 참여하는 연구팀은 KAIST, 연세대학교, 코난테크놀로지, 아크릴(acryl)이다. 국제협력으로 페이스북과 마이크로소프트, 국제연합대학이 함께한다.
 

ⓒ코난테크놀로지

AI는 비서, 자율주행, 전문가 시스템, 정밀 의료 등 다양한 분야에 활용되면서 연구가 계속되고 있다.
 
AI는 금융 분야에서의 신용평가·신용점수부과, 채용 및 인사와 같은 HR 분야, 법원에서의 판결 등 인간을 평가하는 분야에 있어서는 특히 공정성 요구되고 있다. 예측이나 평가에 성별, 인종, 지역 등에 따른 차별적 결과나 에러 문제를 보이는 경우가 있기 때문이다.
 
마이크로소프트에서 2016년에 선보인 AI 챗봇 ‘Tay’는 성·인종차별적 발언 문제로 16시간 만에 운영이 중지됐다. Tay는 사용자와의 대화를 훈련데이터로 사용해 학습했는데 편향된 데이터를 활용한 자가 학습의 위험성을 보여준 대표적인 사례다.
 
아마존의 AI 채용 시스템은 10년간 아마존에 제출한 이력서를 훈련데이터로 사용했다. 그러나 학습된 모델은 성차별적인 결과를 보였다.
 
아마존의 또 다른 AI인 ‘Rekognition’은 이미지 분석 시스템으로 성별 분석 기능을 제공했는데 성별이나 인종에 따라 최대 35배까지 에러율이 나타났다.
 
백인남성은 1%의 에러를 보였으나 흑인여성은 35%나 됐다.
 
아마존뿐만 아니라 IBM, MS, 메그비(Megvii), Face++ 시스템에서도 비슷한 문제가 있었다. 구글은 객체인식 기반 자동 태깅 시스템에서 흑인 얼굴을 고릴라로 잘못 인식해 사회적으로 큰 파장을 불러일으켰다.
 
코난테크놀로지 관계자는 “이렇게 편향된 데이터로 인한 문제로 머신러닝 공정성 필요성이 점차 커지고 있다”며 “기존 학습 데이터의 편향성을 사전에 분석하고 탐지해 완화하거나 지원해 편향성을 확대·재생산할 가능성을 차단해야 하며 인간을 평가하는 분야에서는 공정성을 위해 성별, 종교, 빈부, 지역, 장애, 정치적 성향, 연령, 학력 등의 속성에 편향되지 않도록 하는 연구가 필요하다”고 지적했다.
 
코난테크놀로지는 이번 연구를 통해 학습데이터와 AI 모형의 편향성 측도 개발 및 탐지-완화-제거를 위한 모듈과 프레임워크를 개발해 악의적이고 편향된 학습모델과 데이터, 편향된 인공지능 모델, 심각한 업무 오류나 공정성의 윤리적 문제를 해소한다는 계획이다.
 
연구는 2022년까지 45개월간 이뤄질 예정이다.
 
안춘근 코난테크놀로지의 이사는 “인공지능의 편향성 연구로, 인공지능 모델 데이터의 편향성을 자동으로 탐지하고 편향성 완화·제거를 통한 학습이 가능할 것”이라며 “이를 통해 공정하고 안전한 의사결정이 가능한 인공지능 개발이 가능할 것”이라고 말했다.

 

[저작권자ⓒ 일요주간. 무단전재-재배포 금지]

오늘의 이슈

뉴스댓글 >

주요기사

+

PHOTO NEWS