[CSRC@KAIST 차세대보안R&D리포트] 알고리즘 공정성과 윤리적 인공지능

2021-03-04 09:25
  • 카카오톡
  • url
윤리적이고 공정한 인공지능 개발 위해 기업의 적극적인 노력 필요

[보안뉴스= 고기혁 KAIST 사이버보안연구센터 AI보안팀장] 하루가 다르게 발전하는 인공지능 기술은 이미 우리 삶에 빼놓을 수 없는 요소로 자리 잡고 있으며, 이는 기술적인 측면뿐만 아니라 채용, 입학, 신용평가 등의 사회경제적인 분야에도 널리 확대될 예정이다. 이처럼 우리의 삶을 평생 좌우할 수 있는 중요한 결정에 불공정한 인공지능을 활용하거나 인공지능이 차별적인 행동을 한다면 큰 사회문제를 야기할 수 있다.


[이미지=pixabay]

실례로 지난 2014년, 미국의 전자상거래 기업인 아마존(Amazon)에서 보다 효율적인 인력 채용을 돕기 위한 인공지능 모델을 개발, 사용했으나 해당 알고리즘이 여성 지원자보다 남성 지원자를 선호하는 차별적인 행동을 보여 결국 2018년 폐기되는 일이 있었다. 또한, 구글(Google)의 구직광고 플랫폼이 고임금 직업을 동일한 조건의 여성 구직자보다 남성 구직자에게 6배 이상 자주 보여줌으로써 성별간 고용 기회 불평등을 조장한다는 논란을 빚은 바 있다.

이처럼 인공지능이 차별적인 행동을 하게 되는 것은 바로 학습 데이터에 존재하는 편향성(bias)을 그대로 학습하기 때문이다. 사실 기계학습이란 데이터에서 유의미한 통계적 편향성을 발견하고 이를 통해 결과를 구분해 내는 과정인데, 이러한 모델의 학습 바탕이 되는 데이터에 성별, 인종 등을 바탕으로 한 편향성이 존재한다면 공정하지 않은 모델이 학습된다. 이렇게 학습된 인공지능은 과거의 성별, 인종 등을 바탕으로 한 차별을 그대로 답습, 구조적 불평등을 강화시키는 도구로서 사용될 수 있어 인공지능 모델의 편향성에 대한 판단 및 대응방안이 필요하다는 목소리가 커지고 있다.

그렇다면 인공지능 모델이 가지는 편향성, 차별적인 행위는 어떻게 규정하고 판단해야 할까? 흔히 학술적으로 알고리즘 공정성(algorithmic fairness)이라고도 불리는 인공지능 공정성에 대한 연구는 크게 그룹 공정성(group fairness)과 개별 공정성(individual fairness)의 두 가지로 분류된다.

먼저 그룹 공정성이란 생물학, 사회학적 성별이나 인종 등으로 나누어지는 ‘서로 다른 그룹이 통계적으로 동등(statistical parity)하거나 유사한 대우를 받아야 한다’는 공정성 원리다. 앞서 예시로 든 채용의 경우, 남성 지원자와 여성 지원자 간의 합격률이 크게 차이난다면 이 공정성 원리에 위배된다고 할 수 있다. 또 다른 예시로서 특정 인종에 대한 학습데이터의 부족으로 얼굴인식 인공지능의 정확성이 떨어지는 현상이 발견됐는데, 이 또한 그룹 공정성에 위배된다고 할 수 있다. 이처럼 합격률, 정확도 등 여러 통계 지표에 따라 그룹 간 공정성을 규정하고 판단할 수 있다.

반면 ‘개인 공정성’이라고도 불리우는 개별 공정성은, ‘서로 유사한 두 개인은 유사한 대우를 받아야 한다’는 공정성 원리다. 사회경제적 능력이 유사한 두 사람에 대한 대우가 크게 다르다면 당연히 차별의 가능성을 생각할 수 있다. 그룹 공정성이 서로 다른 그룹 간 차별을 방지한다면 개별 공정성은 각 개인이 ‘능력만큼의 대우’를 정당하게 받는 것을 보장하는 정당성의 개념이다.

공정한 인공지능은 그룹 공정성뿐만 아니라 개별 공정성 또한 만족하는 모델이다. 반면, 조금만 생각해 보면 두 가지 공정성이 모두 만족되는 것이 불가능한 상황도 분명 존재한다. 바로 두 그룹 간 능력 차이가 확연히 드러날 경우다. 만약 A그룹의 전원이 B그룹 전원보다 월등한 능력을 가지고 있다면, 그룹 공정성을 충족하기 위해 A그룹의 일원 대신 능력이 떨어지는 B그룹의 일원을 선택해야 하는 일이 반드시 발생하기 때문이다. 물론 법적으로는 직무상 필요(business necessity)에 따라 B그룹의 일원을 선택하지 않아도 되지만, 이를 인공지능이 활용되는 상황에 적용하기는 매우 어렵다.

덧붙여, 그룹 및 개별 공정성을 만족한다고 해서 모든 불공정 사례를 방지할 수 있는 것은 아니다. 지난 2015년 구글 포토의 자동 태깅 기능은 흑인을 ‘고릴라’라고 태그함으로서 물의를 일으킨 바 있고, 작년에 특정 성소수자 그룹에 대해 혐오 및 차별적인 발언을 한 스캐터랩의 챗봇 ‘이루다’의 사례 또한 존재한다. 이러한 예시들은 그룹 및 개별 공정성과는 다른 차원에서도 인공지능에 의해 공정성이 침해될 수 있음을 보여주며, 비슷한 사례들이 얼마든지 존재할 수 있다는 것을 시사한다. 그룹 및 개별 공정성은 공정한 인공지능의 개발을 위한 필요충분조건처럼 보이지만, 다소 이론적인 개념에 불과하며 만능 해결책 또한 아니다.


▲고기혁 카이스트 사이버보안연구센터 AI보안팀장[사진=보안뉴스]
인공지능 공정성의 확보는 윤리적인 인공지능의 개발과도 밀접히 연관돼 있다. 인공지능 기술의 다양한 분야로의 적용은 지난해 12월 과기정통부가 제시한 ‘사람이 중심이 되는 AI 윤리기준’의 설립으로 이어졌다. AI 윤리기준에 나열돼 있는 10대 핵심 요건에서 투명성, 책임성의 부여는 인공지능이 내린 결정과정 및 결정의 이유를 정확히 파악할 수 있게 된다는 점에서 공정성 판단에 선행돼야 할 핵심적인 요소다.

이처럼 공정한 인공지능 개발을 위해서는 투명성, 책임성 부여의 차원에서 더 많은 연구가 필요한 것도 사실이지만, 실제 서비스를 개발하는 기업의 적극적인 참여 또한 중요하다. 이런 측면에서 지금까지 인공지능 윤리와 관련된 논란이 있을 때마다 기업이 보여준 ‘회피식’ 대응은 바람직하지 않다. 아마존은 인공지능을 활용한 채용을 포기했으며, 구글 포토는 흑인에 대한 태깅을 보다 정확하게 고치는 것이 아닌 자동 태깅 시스템에서 ‘고릴라’라는 태그를 없앰으로서 논란을 해결했다. 스캐터랩의 ‘이루다’ 챗봇이 많은 논란 끝에 결국 서비스를 종료하게 된 것 또한 비슷한 행보라고 볼 수 있다. 보다 공정하고 편향 없는 인공지능 확보를 통한 윤리적 인공지능 실현은 기업의 적극적인 문제해결 의지가 있을 때 비로소 가능해질 것이다.
[글_ 고기혁 KAIST 사이버보안연구센터 AI보안팀장]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

이전 스크랩하기


과월호 eBook List 정기구독 신청하기

Copyright thebn Co., Ltd. All Rights Reserved.

MENU

회원가입

PC버전

닫기