[보안뉴스 문정후 기자] 새롭게 떠오르는 기술들이 넘쳐나고 있다. 여러 가지 특징과 장점들을 선보이고 있다. 다만 그 특징과 장점들이라는 것이 약이 될지 독이 될지 아무도 예측할 수 없다. 최근 챗GPT(ChatGPT)라는 인공지능 기술이 일반인 사이에서 화제가 되면서 희망적인 이야기도 나오고 절망적인 이야기도 나오고 있다. 딜로이트가 이와 관련하여 조사를 진행했을 때 90%의 응답자가 “신기술들의 발전과 활용을 위한 법적/윤리적 가이드라인이 부족한 것 같다”고 답했다고 한다.

[이미지 = utoimage]
하지만 산업 내 전문가들과 시장 분석가들의 의견은 다르다. 오히려 가이드라인이 있다는 것을 종사자들조차 인지하지 못하고 있다는 것과, 신기술이기 때문에 예측 못한 결과들이 자꾸만 같이 나오고 있다는 것이 문제라고 진단하고 있다.
“이제 막 개발되고 있는 기술들을 정부나 행정 기관이 통제한다는 건 여러 가지 이유로 어려운 문제입니다. 가장 큰 문제는 신기술을 활용했을 때 어떤 결과가 나타날 수 있는지 우리가 아직 이해하고 있지 못하다는 겁니다. 심지어 신기술이 어디에 어떤 식으로 활용될 수 있는지도 우리는 다 알지 못하죠. 보통 신기술이라는 건 활용 사례와 동시에 개발되기도 하니까요.” 양자컴퓨터와 인공지능 기술 업체인 멀티버스컴퓨팅(Multiverse Computing)의 전략 수석인 에스페란자 쿠엔카고메즈(Esperanza Cuenca-Gomez)의 설명이다.
그렇기 때문에 쿠엔카코메자는 “현재 개발되고 있는 기술 하나하나에 상응하는 규정이나 윤리 가이드라인을 만드냐 마느냐를 문제 삼을 것이 아니라, 예측이 불가능한 것들을 예측할 수 있게 해 주는 구조적 원리를 고안해야 한다”고 말한다. “신기술을 평가하는 기준에서부터 변화가 있어야 합니다. 신기술이 직접적으로 할 수 있는 일과, 예측 가능한 결과물들만으로 평가를 하니까요.”
인공지능 서비스 업체 아이세라(Aisera)의 CEO 무두 수다카르(Muddu Sudhakar)는 챗GPT의 사례를 예로 든다. “챗GPT 때문에 일반 대중들까지 열광했을 때, 전문가들은 금방 챗GPT라는 기술이 가져다줄 수 있는 부정적인 면모들을 지적했습니다. 특히 사회적 혹은 윤리적 문제들이 제기됐죠. 챗GPT가 생성한 콘텐츠의 저작권 문제는 어떻게 처리해야 하는가. 사람이 만든 콘텐츠와 챗GPT가 만든 콘텐츠를 어떻게 구분해야 하는가. 이런 문제들이 아직도 결론이 나지 않고 있습니다.”
수다카르는 기술적 발전도 발전이지만, 이런 사회적 논의들에 대한 답이 나와야 할 것이라고 말한다. “뚜렷한 결론 없이 기술만 발전해봐야 선용할 수가 없습니다. 기술 발전에 들어간 모든 노력과 자원들이 낭비가 되는 것이죠. 하지만 개인적으로 사회적 결론에 이르고, 그것이 정부의 규정으로 발현될 때까지 최소 20년은 더 기다려야 할 것이라고 예상합니다.”
수다카르는 현재의 이런 상황이 HTTP 쿠키 기술의 발전 역사와 비교된다고 말한다. “HTTP 쿠키들은 지난 수십 년 동안, 그리고 현재까지도 사용자가 웹사이트에 방문할 때 각종 데이터와 활동 내용들을 기록하는 기술입니다. 그러나 사용자들이 이런 기록 행위에 동의를 해야만 한다는 인식이 사회적으로 생기고 그걸 기업들이 받아들이기 시작한 건 겨우 5년 정도 됐습니다. 사용자의 모든 행위를 임의로 기록한다는 것의 위험성이 쿠키 초창기에서부터 제기되었지만 말입니다.”
그러면서 수다카르는 챗GPT 역시 개발사나 정부의 제어가 없다시피 하고 생각보다 오류가 섞인 답을 자주 내놓는다고 지적한다. “이런 단면만 보면 챗GPT가 허위 정보나 가짜뉴스를 생성하고 퍼트리는 데에 꽤나 최적화 된 도구임을 알 수 있죠. 이런 부분을 기술을 개발하는 회사에서도 다루고, 규정을 정하는 정부에서도 신경을 써야 합니다. 그런 고민 없이 기술만 발전시키면 점점 더 우리는 정교한 가짜뉴스 생성기를 얻게 되는 겁니다.”
윤리적 표준과 규정
하지만 일부 전문가들이 앞서 지적했듯 문제는 규정의 부재가 아니라, 규정이 있다는 사실에 대한 인식의 부재다. 음성 인텔리전스 플랫폼인 스킷(Skit.ai)의 CEO 수랍 굽타(Sourabh Gupta)는 “의외로 신기술 개발과 발전에 대한 가이드라인들이 존재하긴 한다”고 설명하며 “다만 그런 가이드라인들이 오래 전부터 있어 왔던 건 아니고 최근 들어 생겨나기 시작했다”고 말한다.
“신기술이 빠르게 등장하는 것도 그렇지만, 그 ‘미완성’ 혹은 ‘미성숙’ 기술들을 도입하는 속도가 전례를 찾기 힘들 정도입니다. 그래서 가이드라인 개발의 더딤이 더 크게 느껴지는 것이고, 그래서 대부분 ‘없다’고 여기는 겁니다.” 그러므로 굽타는 “신기술이 발명되는 것과 그 기술이 책임감 있게 사용되는 것의 간극이 너무 크고, 거기서부터 온갖 윤리적, 사회적 논의들이 나오고 있는 것”이라고 보고 있다.
“특정 기술을 개발한다고 했을 때 투명성과 설명 가능성을 처음부터 염두에 두고 설계를 하는 것이, 나중에 예상치 못한 결과가 나왔을 때 대처하는 것보다 낫습니다. 피해라는 측면에 있어서도 후자가 훨씬 크죠.” 클락슨대학의 컴퓨터과학 교수인 지나 매튜즈(Jeanna Matthews)의 설명이다. “후속 수습이 아니라 예방의 차원에서 여러 방안을 마련하기 위해 많은 단체들이 나름의 수단을 마련하고 있기도 합니다.”
그러면서 매튜즈는 한 가지 사례를 제시한다. “미국 계산기학회(Association for Computing Machinery) 내 세계 기술 정책 위원회(Technology Policy Council)의 경우 지난 해 10월 ‘책임 있는 알고리즘 시스템의 원칙 선언(Statement on Principles for Responsible Algorithmic Systems)’이라는 문건을 만들어 발표하기도 했었습니다. 이 문건에는 아홉 가지 원칙이 담겨져 있습니다. 정당성과 역량, 피해의 최소화, 보안과 프라이버시, 투명성, 해석 가능성과 설명 가능성, 유지 가능성, 경쟁 가능성과 감사 가능성, 책임, 환경적 충격 최소화가 바로 그것입니다.”
2022년 12월, 유럽연합의 유럽평의회는 ‘인공지능법(Artificial Intelligence Act)’이라는 법을 제안했다. IT 회사 노보스(Knovos)의 CEO 다르메시 슁갈라(Dharmesh Shingala)는 “인공지능의 윤리적인 개발을 위해 지역 전체에 영향을 주는 법적 장치를 마련하고자 한 건 이 인공지능법이 처음”이라고 설명한다. 세계경제포럼(WEF)도 양자컴퓨터에 관한 가이드라인과 표준을 마련하고자 ‘양자컴퓨팅거버넌스원칙(Quantum Computing Governance Principles)’이라는 것을 마련해 지난 해 1월에 발표했었다.
미국의 경우 2022년 10월 ‘인공지능 권리장전(AI Bill of Rights)’이라는 것의 초안을 마련했다. 영국의 데이터윤리혁신센터(Centre for Data Ethics and Innovation)는 2021년 12월 ‘효과적인 인공지능 보장 생태계를 위한 로드맵(Roadmap to an effective AI assurance ecosystem)’이라는 것을 준비하기 시작했다. 그 외에도 여러 국가들이 인공지능, 양자컴퓨터, 자율 주행 자동차와 같은 기술들을 제대로 활용하기 위한 각종 제도들을 고민 중에 있다.
정부 기관 외에 전문가 단체들도 부지런히 신기술들에 대한 표준 마련을 위해 움직이는 중이다. “전기전자학회(IEEE)는 자율 시스템을 통해 인간의 삶이 윤택해지는 것이 가장 우선이라는 철학을 가지고 사회기술적인 표준과 정책들을 마련하고 있습니다. 공통적인 인간의 가치, 데이터 대행 단체, 기술적인 신뢰도 등과 같은 가치들을 한 번에 아울러서 인공지능과 자율 시스템을 개발하는 사람들에게 제시하려는 것입니다. 이것이 IEEE 7000 표준들이라고 볼 수 있습니다.” IEEE의 총괄 국장인 콘스탄티노스 카라찰리오스(Konstantinos Karachalios)의 설명이다.
개척자들을 위한 가이드라인
스스로 책임감 있게 새로운 기술들을 활용해 뭔가를 창조해 보려는 기업들이라면 “기술도 미완성, 규정도 미완성인데, 언제까지 기다려야 하는가?”라는 의문이 들 수 있다. 굽타는 “윤리적 딜레마가 생겨나는 데에는 몇 가지 중요한 요소들이 있다”고 설명을 시작한다. “예를 들어 인공지능의 경우 비윤리적인 활용 문제, 데이터 프라이버시 문제, 편향성 문제를 고려하면서 개발을 이어가야 합니다. 마련되고 있는 규정과 표준들도 다 그 세 가지 문제 안에서 마련되고 있거든요.”
이 중 ‘인공지능의 비윤리적 활용’이 사회에 미칠 수 있는 영향에 대해서는 충분히 논의가 되고 있지 않다고 굽타는 지적한다. “기술의 활용이라는 것이 개발사나 사용자의 고유 권리라는 관념들이 존재합니다. 그래서 신기술을 이렇게 써라, 저렇게 써라 하는 부분에까지 가이드라인이 나와 있지 않죠. 얘기도 잘 나오지 않고요. 하지만 신기술들이 미치는 파급력을 생각했을 때 이제는 윤리적인 활용과 비윤리적인 활용에 대한 규정을 마련해야 할 필요가 있음이 분명합니다.”
회사 내 임직원들끼리만 이런 윤리 및 사회 문제를 끙끙거리며 고민하지 않아도 된다. 규정이 분명히 정해져 있지 않다고 하지만, 이 분야를 오랜 시간 연구해 온 전문가들이 존재하기 때문이다. 쿠엔카고메자는 “윤리학자와 철학가들을 초빙해 같이 논의를 이끌어 가는 것도 좋은 방법”이라고 권한다. “과거 큰 업적을 남긴 철학자들이나 윤리학자들의 저서들을 다시 한 번 공부하는 것도 나쁘지 않고요. 결국 법이나 규정, 규칙이라는 것에도 중심이 되는 철학이 있기 마련이죠. 신기술이 마구 등장하는 때에 이런 부분을 다시 한 번 가다듬는 것은 가시적이지 않을지라도 큰 도움이 됩니다.”
실제로 학계도 법조계와 정치계의 움직임을 기다리며 여러 가지 연구를 진행 중에 있다. 기업들 입장에서 조언을 구하고 싶을 때 조언을 해 줄 만한 사람들이 찾아보면 꽤 있다는 것이다. IT 기업 액센추어(Accenture)의 인공지능 부문 책임자인 레이 에이텔포터(Ray Eitel-Porter)는 “책임감 있는 인공지능 개발을 추구하는 많은 조직들이 사회와 사람들에게 긍정적인 영향을 주기 위해 몇 가지 윤리적 가이드라인을 만들어 둔 상황”이라고 말한다.
“가이드라인들은 찾아보면 생각보다 많습니다. 문제는 그것을 각 조직이 상황에 맞게 해석해 적용하는 것이 어렵다는 것입니다. 기술적인 면에 대한 이해와 사회, 윤리적인 측면에서의 고민이 모두 있어야 하기 때문에 기술 전문가와 사업 운영 책임자, 필요하다면 외부의 윤리학 전문가들까지 함께 이야기를 해야 합니다. 한두 번의 대화로만 되는 것은 아니고, 일부 규정을 도입하고 시범적으로 운영하여 다시 수정하는 단계를 꾸준히 거쳐야 합니다.”
규정과 표준은 혁신의 무덤인가?
규정과 표준이 정해지면 혁신이 저해된다는 시각이 만연하다. 에이텔포터는 “옳은 시각이 아니”라는 입장이다. “그런 경우들이 과거에 존재했고, 그런 가능성이 낮지 않은 것도 사실입니다. 하지만 규정과 표준이 혁신을 반드시 막아서는 건 아닙니다. 오히려 위험한 낭떠러지에 떨어지지 말라는 안전 펜스와 같은 역할을 할 때가 더 많죠. 생각보다 혁신을 꿈꾸는 회사들 중에서 ‘하지만 우리는 어느 선까지 개발을 이뤄갈 수 있나’를 고민하는 경우가 많습니다. 혁신의 결과가 부정적으로 작용할까봐 두려운 마음이 큰 것이죠. 규정과 표준이라는 것이 있다면 이런 고민을 하지 않아도 되겠죠. 오히려 자유로워지는 겁니다.”
IEEE의 비즈니스개발총괄인 라비 서브라마니암(Ravi Subramaniam)도 여기에 동의한다. “규정과 표준이라는 건 원래부터 ‘보호’라는 개념의 바탕 위에 만들어집니다. 물론 사람이 하는 일이다 보니 그 보호라는 게 잘 안 될 때도 있지요. 부작용이 나타날 때도 있고요. 그렇다고 해서 규정을 하나도 마련하지 않고 자유롭게 개발이 되고 자연스럽게 잘못이 고쳐지도록 놔둔다는 건, 어린 아이를 보호 장비 하나 없이 자유롭게 놀라고 광활한 수영장에 방치하는 것과 같습니다. 우리 대부분은 무주공산인 공간에서 두려움을 느끼지, 충분히 넓은 테두리 안에서 더 자유롭습니다.”
글 : 팸 베이커(Pam Baker), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>