[보안뉴스 문정후 기자] 달리 2(DALL-E 2)나 챗GPT(ChatGPT)와 같은 기술들이 등장하면서 인공지능에 대한 관심이 그 어느 때보다 높아지고 있다. 이 도구들은 사람의 말로 된 명령을 접수해 처리한 뒤 사람이 작성하거나 그렸다고 해도 대다수는 믿을 만큼 놀라운 결과물을 내놓는다. 처음 보는 사람들은 마치 컴퓨터가 마술을 부리는 것처럼 느껴지기도 한다.

[이미지 = utoimage]
하지만 어느 기술이나 그렇듯, 인공지능 도구들이라고 해서 완벽할 수는 없다. 인공지능 도구들 나름의 제한점들이 있고, 이제껏 없었던 위험 요소들도 내포하고 있다. 그러니 인공지능 도구를 도입하여 구축하기 전에 다각도로 고려하고 검토하는 것이 중요하다.
현재 인공지능을 도입하는 기업들의 수는 빠르게 늘어나고 있다. 인공지능 도구들을 통해 여러 가지 도움을 받고 있다는 증언들도 속속 나오고 있다. 기존 비즈니스 프로세스가 훨씬 빨라졌다거나, 효율이 높아져 낭비되는 것들이 줄었다거나, 인간의 통찰과 예견을 보다 날카롭게 만들어 준다는 등의 내용이 나오고 있다. 포레스터(Forrester)는 “앞으로 사업을 성공시키는 데 있어 인공지능의 역할이 대단히 중요하게 될 것”이라고 강조한다.
전문가들은 인공지능 소프트웨어에 대한 투자 규모가 2021년 330억 달러에서 2025년 640억 달러로 커질 것이라고 보고 있다. 순식간에 두 배 가까이 늘어날 것이라는 게 이 전망의 핵심이다. 이런 상황에서 기업들이 꼭 고려해야 할 것이 하나 있는데, 바로 인공지능의 편향성이다. 인간들이 가진 편향성이 여러 경로를 통해 인공지능 알고리즘에 영향을 주는 것을 말한다. 인공지능이 이 편향성으로 인해 잘못된 결과를 낼 경우 기업은 인공지능으로부터 얻은 것보다 더 많은 것을 잃을 수도 있다. 하지만 이 편향성을 제거하기 위해 실질적인 조치를 취하는 기업들은 1/4도 되지 않는다고 하며, 제거 방법이라는 것조차 제대로 수립되지도 않은 것이 현실이다.
인공지능 편향성이 미치는 영향
일각에서는 챗GPT와 같은 언어 기반 인공지능 기술 때문에 검색엔진 시장이 축소될 것이라고 예상도 나오고 있다. 그도 그럴 것이 챗GPT에 뭔가를 물어보면 구글에 검색한 것보다 더 친절한 답들이 나오기 시작했으니까 말이다. 이러한 우려와 전망에 대해 구글의 CEO인 순다르 피차이(Sundar Pichai)는 “구글의 검색 결과와, 그 외 유사 검색 엔진으로부터 나오는 결과 사이에 신뢰도에는 분명한 차이가 있다”고 말한다. 구글에서 검색해서 찾아낸 답만큼 인공지능이 내놓은 답이 객관적이고 편향성 없는 정보이겠느냐는 것이다.
실제로 인공지능 솔루션들은 요 몇 년간 편향성 섞인 결과물을 여러 차례 내놓은 바 있다. 챗GPT도 질문을 어떻게 하느냐에 따라 편향성 짙은 답을 내놓는다. 예를 들어 ‘누구부터 고문을 해야 하는가’라는 질문에 국적에 따라 순위를 매긴 바 있다.
기업 입장에서는 여러 가지 데이터를 기반으로 최대한 정확한 결정을 내려야 하는데, 인공지능이 한쪽으로 치우친, 그러므로 정확하지 않을 수 있는 결론에 도달한다는 것이 큰 문제가 될 수 있다. 인공지능이 낸 답을 결론으로 보지 않고, 결론을 내기 위한 중요한 정보로서 취급한다고 해도 이는 문제다. 최근 각종 차별적 언행이나 행위들이 어떤 식으로 ‘여론 재판’을 받는지 살펴보면 이는 쉽게 이해가 가능하다. 그런 게 아니더라도, 편향적인 정보와 결론을 가지고 자꾸만 부정확한 예측을 하는 것으로도 기업은 서서히 신뢰를 잃어갈 수 있다.
인공지능 편향성, 어떻게 제거하나
인공지능이 편향성을 갖게 되는 건, 인공지능을 훈련시킨 데이터에 이미 편향성이 내재된 내용들이 포함되어 있기 때문이다. 인터넷의 역사를 잠깐만 생각해 보면, 편향성이 데이터에 어떻게 내재되어 있는지 알 수 있는데, 그건 바로 사람이 만들어낸 무수한 ‘혐오 발언’과 ‘거짓’, ‘허위 정보’ 등이다. 인터넷과 각종 디지털 공간에 이러한 오염된 정보가 얼마나 많은지는 전문가가 아니더라도 충분히 알 수 있다. 이런 데이터를 가지고 인공지능을 훈련시키니, 인공지능이 어떻게 버틸 수 있을까.
결국 사람이 그 동안 만들어 온 데이터를 가지고 인공지능 알고리즘을 훈련시키는 이상, 인공지능에 편향성이 어느 정도 배어드는 것은 막을 수 없다. 인간이 그 어떤 선입견이나 편향성을 갖지 않는 존재로 다시 태어나는 것이 가장 근본적인 해결책일 것이다. 하지만 이건 불가능한 방법이다. 지금의 상황에서, 지금의 인간이 크게 변하지 않는다는 가정 하에 해결책을 만들어야 한다. 인공지능이 편향성을 스스로 발견할 수 있게 한다면 어떨까? 일부 전문가들은 편향성을 찾아내는 인공지능을 개발하는 중이다.
인간에게서 편향성을 완전히 없애는 건 불가능하지만, 인공지능에게서 편향성을 없애는 게 불가능하지는 않다. 먼저는 인공지능 훈련에 사용하는 데이터들을 데이터 과학자들이 보다 정교하게 골라내는 것부터 시작할 수 있다. 그러려면 어떤 데이터가 편향성 없는 데이터인지 규정하고, 이 규정에 따라 데이터를 골라내는 제도와 도구를 마련해야 할 것이다. 즉 인공지능에 주입하는 데이터의 품질 관리라는 부분에서 꾸준한 노력이 행해져야 한다는 뜻이 된다.
그 다음 중요한 건 투명성이다. 인공지능을 훈련시키는 데이터 과학자들이 각종 정보에 투명하게 접근할 수 있어야 편향성이 최소화 된다. 예를 들어 A라는 나라의 주류 인종에 대한 정보는 수두룩한데, 비주류 소수 인종에 대한 정보는 취득하기조차 어렵다면 어떻게 될까? 데이터의 품질이 아무리 좋아도 결국 데이터가 얼마 없어 학습할 수 없었던 소수 인종에 불리한 판단을 할 수밖에 없게 된다. 데이터의 품질에 대한 고민도 필요하지만, 학습에 들어가는 데이터의 양적인 측면에서도 균형을 맞추는 노력이 필요하다.
글 : 라비 마유람(Ravi Mayuram), CTO, Couchbase
[국제부 문정후 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>