[보안뉴스 문정후 기자] 인공지능과 데이터 윤리학의 전문가들이 지난 주 수요일 인공지능이 극복해야 할 가장 큰 문제는 편견과 평등이라고 입을 모아 지적했다. 이퀄AI(EqualAI)의 CEO인 미리안 보겔(Miriam Vogel), 오카(ORCAA)의 CEO 케이시 오닐(Cathy O’Neil), SAS인스티튜트(SAS Institute)의 부회장 레기 타운센드(Reggie Townsend)가 참여한 컨퍼런스 자리에서였다.

[이미지 = gettyimagesbank]
먼저 운을 뗀 보겔을 “인공지능이 우리 삶과 경제를 크게 변화시킬 것이 기대된다는 점에서 우리 모두 이견이 없지만 강력한 인공지능을 보다 안전하게 활용하기 위해 우리가 해야 할 일이 남아 있다는 점 역시 염두에 두고 있다”고 짚었다. “지금 상태로서는 인공지능이 안전하다고 할 수 없으며, 오히려 역사 속에서 유례를 찾을 수 없을 정도로 편견과 차별이 가득한 결과물을 내는 기술입니다. 조금만 바꾸면 우리는 강력한 도구를 손에 쥘 수 있게 될 겁니다.”
이미 여러 인공지능 모델에서 편향성이 가득한 임무 수행 결과가 나오고 있다. 하버드대학과 국립생물의료영상생명공학연구소에서도 이런 비슷한 실험 결과를 보고서로 발표한 바 있다. 인종과 성별에 대한 편향성이 인공지능으로부터 자주 나오고 있는 상황이며, 이 때문에 인공지능이 본격적으로 사용될 경우 사회에 여러 가지 악영향을 끼칠 것이 우려되고 있다.
예를 들어 범죄자나 용의자를 찾아내기 위한 얼굴 인식 기능에 인공지능의 편향성이 반영되면 어떻게 될까? 의료 행위를 수행할 때 인공지능이 편향성으로 인해 인종을 잘못 파악하게 된다면? 파장이 대단히 클 수 있는 인공지능 편향성 시나리오는 끝도 없이 나오고 있다.
책임감 있는 인공지능을 구성하는 네 가지 요소
보겔은 “윤리적으로 양호한 인공지능 거버넌스를 정착시키려면 세 가지 요소가 필요하다”고 말한다. “먼저는 직원들부터 책임감 있는 인공지능 기술을 요구해야 합니다. 사실 인공지능이 자기 목을 겨눈 칼이 될 수 있다면 누구도 그런 인공지능이 있는 회사에서 일하고 싶지 않죠. 그 다음 브랜드의 무결성에 대한 고려를 업체 전체가 해야 합니다. 회사가 추구하는 가치와 인공지능이 어울려야 한다는 뜻입니다. 그러면서 자연스럽게 인공지능 기술과 맞닿아 있는 모든 관계자(소비자 포함)들까지도 인공지능 거버넌스는 아울러야 하지요.”
오닐은 “인공지능을 훈련시키기 위한 데이터를 모으는 과정에서부터 조심스럽게 접근해야 하고, 훈련된 인공지능이 활용되는 방법까지도 고려하면서 거버넌스가 형성되어야 한다”는 입장이다. “현재까지 연구된 바에 의하면 인공지능의 편향성과 불공정성 때문에 피해를 입는 건, 역사적으로 계속해서 편견과 불평등에 노출되어 왔던 취약계층입니다. 우리가 이들을 차별하며 만들어 놓은 데이터가 인공지능에 들어가니 그렇게 될 수밖에 없는 겁니다. 그러니 데이터로 훈련을 진행하는 과정에서부터 철저한 검증과 데이터 품질 관리가 필요합니다.”
인공지능의 문제 해결, 전문가들만의 영역이 아니다
오닐은 “지금 상태에서의 인공지능이 많은 문제를 가지고 있는 것처럼 보이지만, 그것들을 해결하는 게 기술적으로 대단히 어려운 건 또 아니”라고 강조한다. “인공지능은 첨단 과학이지만, 인공지능이 가지고 있는 윤리적 딜레마를 해결하는 것까지 첨단 과학을 필요로 하는 건 아닙니다. 어떤 문제가 일어날 것인지 예상하고, 그에 대한 보호 장치를 마련하는 건 얼마든지 가능합니다. 즉 인공지능 모델을 개발하는 회사에서 이 부분을 충분히 고려하여 서비스를 마련한다는 책임감을 발휘해야 한다는 겁니다.”
이미 여러 인공지능 개발사들이 ‘책임감 있는 인공지능 개발’을 약속하고 있다. 미국에서는 얼마 전 아마존, 앤스로픽, 구글 인플렉션, 메타, 마이크로소프트, 오픈AI가 바이든 행정부의 지도 하에 서약하기도 했다. 보겔은 “서약이 상징적이긴 하지만, 첫 발을 내디뎠다는 점에서 칭찬할 만하다”는 의견을 피력한다. “그러나 그런 선언과 서약에서 만족하면 아무런 의미가 없습니다. 정말로 인공지능의 안전한 발전을 위한 가이드라인과 실천 수칙 등이 구체적으로 마련되어야 합니다. 편향성과 평등에 관한 내용도 보다 구체적으로 담겨 있어야 하겠고요.”
타운센드는 “인공지능이라는 기술 자체만 바라볼 게 아니라 우리가 이전부터 차별해 왔던 소외계층이 어디에 있는지 찾아야 하고, 그들이 어떤 식으로 고통을 받아 왔는지 이해해야 한다”고 강조한다. “문제의 근원은 ‘편향성’과 ‘불평등’이지 ‘인공지능’이 아닙니다. 소외계층의 고통을 알아야 인공지능이 어떤 방향으로 발전해 가야 할지도 알게 됩니다. 소외계층들을 찾아 인공지능 개발과 훈련 과정에 참여시키는 것이 어쩌면 가장 좋은 방법일 수도 있습니다. 윤리적 문제를 기술로서만 바라보면 답이 나오질 않습니다.”
글 : 셰인 스나이더(Shane Snider), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>