[주말판] 인공지능의 편향성과 불평등, 시급한 해결이 필요하다

2023-08-05 10:24
  • 카카오톡
  • 네이버 블로그
  • url
인공지능이 가진 잠재력은 실로 어마어마하다. 누구라도 여기에는 이견이 없을 것이다. 문제는 그 잠재력만큼 위험성도 높다는 것이다. 일부 전문가들은 인공지능을 위험하게 만드는 건 기술이 아니라 윤리적인 차원에서 발생하는 것들이라고 한다.

[보안뉴스 문정후 기자] 인공지능과 데이터 윤리학의 전문가들이 지난 주 수요일 인공지능이 극복해야 할 가장 큰 문제는 편견과 평등이라고 입을 모아 지적했다. 이퀄AI(EqualAI)의 CEO인 미리안 보겔(Miriam Vogel), 오카(ORCAA)의 CEO 케이시 오닐(Cathy O’Neil), SAS인스티튜트(SAS Institute)의 부회장 레기 타운센드(Reggie Townsend)가 참여한 컨퍼런스 자리에서였다.


[이미지 = gettyimagesbank]

먼저 운을 뗀 보겔을 “인공지능이 우리 삶과 경제를 크게 변화시킬 것이 기대된다는 점에서 우리 모두 이견이 없지만 강력한 인공지능을 보다 안전하게 활용하기 위해 우리가 해야 할 일이 남아 있다는 점 역시 염두에 두고 있다”고 짚었다. “지금 상태로서는 인공지능이 안전하다고 할 수 없으며, 오히려 역사 속에서 유례를 찾을 수 없을 정도로 편견과 차별이 가득한 결과물을 내는 기술입니다. 조금만 바꾸면 우리는 강력한 도구를 손에 쥘 수 있게 될 겁니다.”

이미 여러 인공지능 모델에서 편향성이 가득한 임무 수행 결과가 나오고 있다. 하버드대학과 국립생물의료영상생명공학연구소에서도 이런 비슷한 실험 결과를 보고서로 발표한 바 있다. 인종과 성별에 대한 편향성이 인공지능으로부터 자주 나오고 있는 상황이며, 이 때문에 인공지능이 본격적으로 사용될 경우 사회에 여러 가지 악영향을 끼칠 것이 우려되고 있다.

예를 들어 범죄자나 용의자를 찾아내기 위한 얼굴 인식 기능에 인공지능의 편향성이 반영되면 어떻게 될까? 의료 행위를 수행할 때 인공지능이 편향성으로 인해 인종을 잘못 파악하게 된다면? 파장이 대단히 클 수 있는 인공지능 편향성 시나리오는 끝도 없이 나오고 있다.

책임감 있는 인공지능을 구성하는 네 가지 요소
보겔은 “윤리적으로 양호한 인공지능 거버넌스를 정착시키려면 세 가지 요소가 필요하다”고 말한다. “먼저는 직원들부터 책임감 있는 인공지능 기술을 요구해야 합니다. 사실 인공지능이 자기 목을 겨눈 칼이 될 수 있다면 누구도 그런 인공지능이 있는 회사에서 일하고 싶지 않죠. 그 다음 브랜드의 무결성에 대한 고려를 업체 전체가 해야 합니다. 회사가 추구하는 가치와 인공지능이 어울려야 한다는 뜻입니다. 그러면서 자연스럽게 인공지능 기술과 맞닿아 있는 모든 관계자(소비자 포함)들까지도 인공지능 거버넌스는 아울러야 하지요.”

오닐은 “인공지능을 훈련시키기 위한 데이터를 모으는 과정에서부터 조심스럽게 접근해야 하고, 훈련된 인공지능이 활용되는 방법까지도 고려하면서 거버넌스가 형성되어야 한다”는 입장이다. “현재까지 연구된 바에 의하면 인공지능의 편향성과 불공정성 때문에 피해를 입는 건, 역사적으로 계속해서 편견과 불평등에 노출되어 왔던 취약계층입니다. 우리가 이들을 차별하며 만들어 놓은 데이터가 인공지능에 들어가니 그렇게 될 수밖에 없는 겁니다. 그러니 데이터로 훈련을 진행하는 과정에서부터 철저한 검증과 데이터 품질 관리가 필요합니다.”

인공지능의 문제 해결, 전문가들만의 영역이 아니다
오닐은 “지금 상태에서의 인공지능이 많은 문제를 가지고 있는 것처럼 보이지만, 그것들을 해결하는 게 기술적으로 대단히 어려운 건 또 아니”라고 강조한다. “인공지능은 첨단 과학이지만, 인공지능이 가지고 있는 윤리적 딜레마를 해결하는 것까지 첨단 과학을 필요로 하는 건 아닙니다. 어떤 문제가 일어날 것인지 예상하고, 그에 대한 보호 장치를 마련하는 건 얼마든지 가능합니다. 즉 인공지능 모델을 개발하는 회사에서 이 부분을 충분히 고려하여 서비스를 마련한다는 책임감을 발휘해야 한다는 겁니다.”

이미 여러 인공지능 개발사들이 ‘책임감 있는 인공지능 개발’을 약속하고 있다. 미국에서는 얼마 전 아마존, 앤스로픽, 구글 인플렉션, 메타, 마이크로소프트, 오픈AI가 바이든 행정부의 지도 하에 서약하기도 했다. 보겔은 “서약이 상징적이긴 하지만, 첫 발을 내디뎠다는 점에서 칭찬할 만하다”는 의견을 피력한다. “그러나 그런 선언과 서약에서 만족하면 아무런 의미가 없습니다. 정말로 인공지능의 안전한 발전을 위한 가이드라인과 실천 수칙 등이 구체적으로 마련되어야 합니다. 편향성과 평등에 관한 내용도 보다 구체적으로 담겨 있어야 하겠고요.”

타운센드는 “인공지능이라는 기술 자체만 바라볼 게 아니라 우리가 이전부터 차별해 왔던 소외계층이 어디에 있는지 찾아야 하고, 그들이 어떤 식으로 고통을 받아 왔는지 이해해야 한다”고 강조한다. “문제의 근원은 ‘편향성’과 ‘불평등’이지 ‘인공지능’이 아닙니다. 소외계층의 고통을 알아야 인공지능이 어떤 방향으로 발전해 가야 할지도 알게 됩니다. 소외계층들을 찾아 인공지능 개발과 훈련 과정에 참여시키는 것이 어쩌면 가장 좋은 방법일 수도 있습니다. 윤리적 문제를 기술로서만 바라보면 답이 나오질 않습니다.”

글 : 셰인 스나이더(Shane Snider), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

연관 뉴스

헤드라인 뉴스

TOP 뉴스

이전 스크랩하기


과월호 eBook List 정기구독 신청하기

    • 지인테크

    • 인콘

    • 엔텍디바이스코리아

    • 핀텔

    • KCL

    • 아이디스

    • 씨프로

    • 웹게이트

    • 엔토스정보통신

    • 하이크비전

    • 한화비전

    • ZKTeco

    • 비엔에스테크

    • 지오멕스소프트

    • 원우이엔지

    • HS효성인포메이션시스템

    • TVT코리아

    • 이화트론

    • 다누시스

    • 테크스피어

    • 홍석

    • 슈프리마

    • 인텔리빅스

    • 시큐인포

    • 미래정보기술(주)

    • 유니뷰

    • 비전정보통신

    • 아이원코리아

    • 인터엠

    • 위트콘

    • 성현시스템

    • 한국씨텍

    • 투윈스컴

    • 스피어AX

    • 다후아테크놀로지코리아

    • 한결피아이에프

    • 경인씨엔에스

    • 디비시스

    • 트루엔

    • 세연테크

    • 프로브디지털

    • 동양유니텍

    • 포엠아이텍

    • 넥스트림

    • 핀텔

    • 위즈코리아

    • 삼오씨엔에스

    • 벨로크

    • 피앤피시큐어

    • 신우테크
      팬틸드 / 하우징

    • 에프에스네트워크

    • 네이즈

    • 케이제이테크

    • 셀링스시스템

    • (주)일산정밀

    • 아이엔아이

    • 새눈

    • 미래시그널

    • 인빅

    • 유투에스알

    • 에이티앤넷

    • 케비스전자

    • 한국아이티에스

    • 엣지디엑스

    • 네티마시스템

    • 에이앤티글로벌

    • 이엘피케이뉴

    • 와이즈콘

    • 현대틸스
      팬틸트 / 카메라

    • 제네텍

    • 구네보코리아주식회사

    • 창성에이스산업

    • 에이앤티코리아

    • 지에스티엔지니어링
      게이트 / 스피드게이트

    • 티에스아이솔루션

    • 엔에스티정보통신

    • 엔시드

    • 포커스에이아이

    • 넥스텝

    • 엘림광통신

    • 메트로게이트
      시큐리티 게이트

    • 레이어스

    • 주식회사 에스카

    • 엠스톤

    • 글로넥스

    • 유진시스템코리아

    • 카티스

    • 세환엠에스(주)

Copyright thebn Co., Ltd. All Rights Reserved.

MENU

회원가입

Passwordless 설정

PC버전

닫기