[보안뉴스 문정후 기자] 인공지능의 편향성은 이제 널리 알려진 문제다. 인공지능 알고리즘이 특정 편향성을 내포한 데이터로 훈련될 경우, 혹은 훈련해야 할 전체 데이터의 일부만 소비했을 경우에 나타난다. 요 근래 몇 년 동안 인공지능 전문가들은 바로 이런 편향성 문제를 해결하기 위해 고군분투 해 왔지만 큰 성과를 내지는 못하고 있다. 그러는 동안 편향성 문제 때문에 여러 인공지능 프로젝트가 좌절되기도 했다.

[이미지 = gettyimagesbank]
편향성은 인공지능 기술이 미래로 나아가는 데 있어 가장 큰 걸림돌로 꼽히고 있다. 애리조나대학의 아서 맥카비(Arthur Maccabe) 교수가 그렇게 주장하는 사람들 중 하나다. “다만 편향성은 관찰되고 있는 하나의 현상이지 그 자체로 문제라고 할 수는 없습니다. 인공지능을 활용해 결정을 내릴 때, 편향성이 발동되어 잘못된 방향으로 결정이 내려진다면, 그게 ‘문제’입니다. 이 부분을 명확히 짚고 넘어가야 할 필요가 있습니다.”
그런 결정들, 즉 문제들이 쌓이고 쌓이면 사회적인 불공평 사례가 누적되고, 그것은 곧 사회적 파장을 일으키며, 다시 사회 약자들의 피해를 가중시키는 결과를 낳게 된다고 산타클라라대학 마이클 사모라니(Michele Samorani) 교수는 강조한다. “예를 들어 제가 저희 대학 입학 지원자들을 1차적으로 선별하는 인공지능 알고리즘을 개발했다고 합시다. 그런데 이 모델이 편향성을 내포하고 있었다면 어떻게 될까요? 특정 계층이 혜택을 보고 또 다른 계층은 피해를 보게 됩니다. 그 편향성은 어디서 나왔을까요? 과거 대학의 입학 관련 데이터로부터 나온 것일 겁니다. 과거에 대한 반추 없이 인공지능을 그대로 훈련시킬 경우 편향성이 불거지는 것을 막을 수 없습니다. 어쩌면 문제는 거기에 있을 수 있습니다. 과거를 올바로 잡지 않고 곧바로 미래로 나아가려 하는 것이요.”
인공지능 편향성으로 나타나는 결과들
인공지능의 편향성으로 인한 파장은 꽤나 널리 퍼질 수 있다. 소니그룹(Sony Group)의 인공지능 윤리 총괄인 앨리스 씨앙(Alice Xiang)은 “우리가 과거에서부터 가지고 왔던 사회적 편견을 오히려 강화시킬 수 있게 되고, 그러므로 약자에 대한 차별이 보다 노골적으로 나타날 수 있게 된다”고 설명한다. “고용, 의료 서비스 제공, 사법 처리 등 여러 사회적 기능들이 인공지능으로 발휘될 때마다 문제가 대폭 커질 수 있다는 뜻이지요. 사회 전체에 대한 개개인들의 신뢰도가 낮아질 수 있게 되고, 그것이 생각지도 못한 지점의 붕괴를 야기할 수 있습니다.”
인공지능 편향성 문제를 해결하려면, 그 파장이 사회 전체로 퍼질 수 있는 만큼, 여러 분야에서 협력적으로 접근해야 한다. “먼저는 인공지능을 훈련시킬 데이터를 다방면에서 수급해야 인공지능이 정확해지고 편향성이 줄어듭니다. 특정 집단이나 계층에서 나오는 데이터가 아니라 모든 집단과 계층에서 나오는 데이터가 수집되고 인공지능에 주입되어야 한다는 것이죠. 그렇게 하려면 각 계층과 집단들이 적절한 데이터를 생성하고 취합하는 노력을 해주어야 합니다. 특정 전문가에게만 맡길 수 없는 대단위 프로젝트인 것이죠.” 씨앙의 설명이다.
맥카비도 인공지능 시스템들을 훈련시키는 데 사용되는 데이터가 사회의 현상을 명확하게 나타내야 한다고 강조한다. “아직까지 우리는 사회 전체의 모습을 명확하게 나타낼 데이터를 어떻게, 어디서부터 수집해야 하는지 모르고 있습니다. 인공지능 개발보다 더 중요한 건 바로 이 부분의 결여를 해결하는 거라고 봅니다. 그 때까지는 인공지능의 개발을 멈추는 게 타당해 보일 정도로 시급한 문제입니다. 혹은 사회 전체의 모습을 반영하는 데이터로 훈련시키지 않아도 되는 인공지능만을 제한적으로 향상시키는 것도 좋은 대안이 될 수 있을 겁니다.”
이 두 가지 의견을 요약하면 “인공지능 편향성 문제를 해결하는 게 어렵다”가 된다. 딜로이트의 인공지능 총괄인 비나 아마나스(Beena Ammanath)는 “해결점을 찾을 때까지 우리가 할 수 있는 일은 편향성을 줄여나가는 것”이라고 말한다. “지금 우리가 할 수 있는 건 인공지능 모델을 훈련시킨 후 보다 엄격하고 철저하게 검사하는 겁니다. 편향성의 기미가 조금이라도 보인다면 빠르게 폐기하거나 새로운 데이터로 훈련시키는 등의 작업을 이어가야 하죠. 지금 가진 기술로 이 정도 일은 할 수 있습니다. 편향성을 가진 모델이 사회적인 영향을 주지 않도록 현장에 배치시키지 않을 수는 있다는 겁니다.”
어려운 작업
씨앙도 사실 아마나스의 의견에 더 가깝다고 말한다. 그게 더 현실적인 방안이라는 것이다. “인류가 현재까지 수많은 세월 동안 쌓아온 데이터 자체가 이미 편향성으로 가득합니다. 그런 상황에서 지금부터 인공지능을 완전히 깨끗하게 만들겠다니, 불가능에 가까운 희망이죠. 인공지능 시스템들에 대한 이해도를 높이고, 그들이 어떤 식으로 선용 혹은 악용될 수 있는지 케이스 스터디를 보다 깊이 함으로써 편향성에 의한 피해 발생 가능성을 낮추고 파급력을 낮추는 방향으로 나아가야 할 것입니다. 아마 많은 기업들이 이 점에 공감할 것입니다. 그렇기 때문에 인공지능 윤리 팀을 신설하는 곳이 많아지는 것이겠죠.”
사모라니는 “인공지능 윤리 문제를 다루기 위해서는 각 조직의 개별적인 노력 외에 표준과 규정 수립이라는 정부 차원에서의 노력도 동반되어야 한다”고 말한다. “저는 이 문제가 반드시 해결될 거라고 보는 편입니다. 많은 전문가들이 이미 정부의 표준과 규정 수립을 위해 적극 협조하고 있기도 하고, 어느 정도의 시행착오가 있긴 하겠지만 적절한 수준의 장치를 만들어낼 수 있을 거라고 생각합니다. 편향성이 아주 없는 인공지능을 만드는 게 불가능할 수는 있지만, 그것 때문에 문제가 발생하는 것을 막을 수는 있을 겁니다.”
씨앙은 “인공지능 편향성 문제를 해결하기 위해서는 보다 윤리적인 데이터 수집 방법론이 수립되어야 한다”며 “데이터를 바라보는 인공지능 관계자들의 시선이 바뀌는 게 급선무”라고 짚는다. “결국 최전선에서 인공지능을 훈련시키는 사람들이 데이터를 적절히 거를 마음을 가져야 합니다. 큰 틀에서 아무리 규칙을 내세운다 하더라도, 결국 현장에서 담당자 한 사람이 어떤 생각과 윤리성으로 접근하느냐에 많은 것이 결정되거든요.”
글 : 존 에드워즈(John Edwards), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>