[언택트+⑥] 사람중심의 AI를 위한 현실적 과제와 전망(산드라 워처 교수)

조무정 기자 / 기사승인 : 2020-12-14 14:31:11
  • -
  • +
  • 인쇄
KISDI, ‘제2회 지능정보사회 이용자보호 국제컨퍼런스’ 온라인 취재
‘유럽의 알고리즘 공정성’ 주제로 AI시대의 과제와 전망 제시

 

[일요주간TV = 조무정 기자] 정보통신정책연구원(KISDI, 원장 권호열)은 방송통신위원회(위원장, 한상혁)와 지난 3일 온라인 생중계로 ‘제2회 지능정보사회 이용자보호 국제컨퍼런스(2nd International Conference on Ethics of the Intelligent Information Society, ICEI)”를 개최했다.

‘사람중심의 AI를 향하여(Toward Human-Centered AI)’를 주제로 열린 이번 컨퍼런스는 인공지능 등 지능정보기술 적용에 따라 변화하는 사회에 필요한 윤리적 고려 사항과 이용자 정책에 대해 국내외 전문가들이 발표와 토론이 펼쳐졌다.

첫 번 째 발표자로 나선 영국 옥스퍼드대학교 인터텟 연구소의 산드라 워처 교수는 ‘유럽의 알고리즘 공정성’을 주제로 AI시대의 과제와 전망을 내놨다.

워처 교수는 “저는 기계학습, AI, 로봇공학의 법적 윤리적 의미의 연구에 중점을 두고 있다"고 운을 뗀 뒤 “오늘 말씀 드릴 주제는 알고리즘 분야의 개인정보보호와 차별금지다"고 밝혔다.

이어 “우선 우리는 왜 AI의 공정성에 관심을 가져야 할까?”라고 전제한 뒤 "과거에 축적된 데이터를 알고리즘에 넣고 데이터 세트에서 특정 패턴의 유사성을 찾은 다음, 그 데이터 세트를 기반으로 미래를 예측한다"며 “이에 분명히 문제의 소지가 있다는 것을 몇 가지 예를 통해 알수 있다"고 덧붙였다.

그러면서 “옥스퍼드 대학교에서 교수를 채용한다고 가정해 봤을 때 알고리즘에 (교수들의) 50년, 60년, 70년간 합격자들의 과거 데이터를 입력한다"며 “그리고 알고리즘에 이 모든 교수들의 공통점을 찾아 달라고 요청하게 되는데 이 자리에 들어올 작임자는 다양하지 않을 것이다"고 지적했다.

워처 교수는 “만약 그 알고리즘의 프로필과 일치하지 않는 사람이 실제로 지원하게 되면 절대 면접에 합격하지 못할 것이고 이는 큰 문제다"고 부연했다.

알고리즘 기술에 내재된 문제이며 우리는 이것을 제대로 해결해야 한다는 게 워처 교수의 설명이다.

“편향 없는 데이터는 없다는 점을 꼭 기억해야 한다. 데이터에 얼마나 편행이 많은지 몇 가지 예를 들어보면 초중고등학교, 대학, 대학원에 들어가려면, 취업하려면, 펠로우가 되려면 성적이 필요하다. 모두들 채점에 주관적인 요소가 있다는 것에 동의할 것이다. 그런데 한 흥미로운 연구 결과에서는 성적에도 편향이 있다고 한다. 선생님들이 남학생의 수학 성적을 여학생보다 더 높게 평가하는 것으로 나타났다.”

워처 교수는 “평균적으로 여학생들의 능력이 남학생들의 능력과 같거나 더 낫기도 하다"며 “그런데 교사들뿐만 아니라 일반 동급생들도 종종 여학생들의 수학 능력이 남학생보다 수학을 잘 못한다고 생각한다"면서 이 같은 문제점을 지적했다.

그는 또 “성적 취향, 나이, 장애 여부, 종교 뿐 아니라 인종 민족성 문제도 있다"며 “이는 어떤 면에서 내재된 인종차별 이념이 담긴 데이터를 수집한다는, 흔히 볼 수 있는 예이다"고 밝혔다.

그러면서 “하지만 이 부분 또한 AI는 알지 못한다"며 “AI는 그저 누가 좋은 직장, 교육, 지원금을 받을지 평가하도록 이력서를 줄 뿐이다"고 지적했다.

워처 교수는 “그러나 이 데이터에 본질적으로 편향이 있다는 걸 모르는 게 문제다"며 “안타깝게도 이건 새로운 문제가 아니라 아주 오랫동안 존재해 온 문제다"고 말했다.

[저작권자ⓒ 일요주간. 무단전재-재배포 금지]

오늘의 이슈