변화의 방향성을 인간 중심적 가치로 정렬하는 것이 우리의 핵심 과제
[보안뉴스=박성심 기술사] 이제는 챗GPT를 모르는 사람을 찾기 어려운 시대가 됐다. 불과 몇 년 전만 해도 상상하기 어려웠던 일이 현실이 된 것이다.
최근 주변 사람들의 카카오톡 프로필이 온통 일본 유명 애니메이션 제작사인 지브리 화풍으로 채워지는 흥미로운 현상이 나타나고 있다. GPT-4o의 차원이 다른 이미지 생성 기능을 활용한 것인데, 저작권 및 위조 가능성 등 창작과 모방의 경계에 대한 논란이 가속되고 있다.

▲생성형 AI의 혁신과 위험성 [자료: 박성심 기술사]
안타까운 점은 현재 사용자 대부분이 생성형 인공지능(AI)의 놀라운 기능에 매료돼 기술이 내포한 위험성을 충분히 인식하지 못하고 있다는 것이다. 새로운 기술이 등장할 때마다 우리는 신기함 혹은 황홀감에 빠지게 된다. 스마트폰이 처음 등장했을 때, 그 편리함에 집중한 나머지 디지털 중독 같은 부작용을 간과했던 것과 비슷하다.
생성형 AI도 유사한 패턴을 보인다. 정교한 텍스트 생성과 이미지 창작, 자연스러운 대화 능력에 감탄하면서 정보 보안의 위험과 저작권 침해, 디지털 신뢰성 붕괴 같은 잠재적 위협은 부차적인 문제로 치부하고 있다.
기술은 양날의 검과 같다. 생산성 향상과 창의성 증폭이라는 기회를 제공하면서도 정보 보안이나 개인정보 위협, 편향성 증폭, 허위정보 확산, 일자리 대체 등의 도전을 동시에 던진다.
생성형 AI 기술은 크게 세 가지 축으로 발전
첫째, 대규모 언어 모델(LLM·Large Language Model)의 발전으로 인간의 언어 이해와 생성 능력이 비약적으로 향상됐다. 수천억개의 매개변수를 가진 신경망 모델은 방대한 텍스트 데이터 학습을 통해 인간의 언어를 이해하고 생성하는 능력을 비약적으로 발전시켰다.
둘째, 확산 모델(Diffusion Model) 기반 이미지 생성 기술의 혁신으로 전문가 수준의 시각적 콘텐츠 생성이 가능해졌다. 노이즈를 제거하며 이미지를 생성하는 방식인데, 텍스트 설명만으로 놀라울 수준의 이미지 생성이 가능하다. 생성된 이미지는 굉장히 사실적이고 창의적이다.
셋째, 멀티모달 AI의 등장으로 다양한 형태의 입력을 통합해 처리하는 시스템이 개발됐다. 텍스트와 이미지, 오디오, 비디오 등 다양한 형태의 데이터를 동시에 이해하고 처리할 수 있는 통합 AI 시스템이 발전하고 있다.
이런 기술적 혁신은 인간-기계 상호작용 방식을 근본적으로 변화시켰고, 기술 민주화의 새로운 물결을 일으키고 있다.
기술적 혁신은 기업의 비즈니스 동력으로 활용되며 그 가치를 인정받아
첫째, 기업 관점에서 생성형 AI가 가져온 즉각적인 변화는 기업의 업무 프로세스 효율화와 생산성의 혁신이다. 단순 비용 절감을 넘어, 업무의 질적 변화를 가져왔다. 보고서 작성이나 회의 요약, 초안 작성, 데이터 분석 등 일상적인 문서 작업에서 생성형 AI의 활용이 두드러진다. 이는 업무 시간의 단축부터 내용의 일관성, 완성도 향상으로 이어지고 있다. 이를 통해 기업은 단순 비용 절감을 넘어 업무 프로세스 자체를 재설계하고, 새로운 가치 창출 방식을 모색하고 있다.
둘째, 개발 생산성 측면에서 소프트웨어 개발 분야는 ‘개발자의 역할’을 재정의하고 있다. 패러다임의 전환으로 볼 수 있는데, 코드 생성 및 자동 완성, 코드 리뷰, 테스트 자동화, 문서화, 레거시 시스템 전환에 이르기까지 개발 전 주기에 걸쳐 생산성을 높이고 품질을 향상하고 있다. GitHub와 Copoilot 등의 도구는 단순 코딩 보조를 넘어 개발자의 사고 방식 자체를 변화시키고 있다. 다만, 신입 개발자와 경력 개발자 간 생산성 격차를 줄여 빠른 학습과 역량 강화를 가져오면서도 표면적 지식만으로 깊은 이해 없이 코드를 생성하는 ‘얕은 전문성’의 위험도 내포하고 있다.
셋째, 영화나 음악, 동영상, 디자인 등 창의적 콘텐츠 산업의 변화와 새로운 부가가치 창출이다. 가장 눈에 띄는 변화는 콘텐츠 생성 비용이 공짜에 가까워진 현상이다. 예를 들어 Suno AI 같은 서비스를 이용하면 구독료로 수백수천개의 음악을 만들 수 있다. 음악 한 곡의 가치느 얼마인가? 같은 의문이 생긴다. 창작자의 역할도 바뀌고 있는데, 처음부터 끝까지 직접 만드는 ‘제작자’에서 AI가 만든 여러 결과물 중 좋은 것을 고르고 다듬는 ‘선별자’의 역할이 중요해졌다. 이는 단순히 도구가 바뀐 것이 아니라, 우리가 ‘창의성’을 어떻게 정의하고 가치를 매길 것인가에 대한 근본적 변화를 의미한다.
넷째, 교육 분야에서 개인화된 학습 경험 제공과 교육자 업무 효율화라는 두 축을 중심으로 사회적 가치를 창출하고 있다. 채점이나 피드백 등 교사의 업무 부담을 줄이고 본질적인 교육 활동에 집중할 수 있게 지원한다. 학생들의 글쓰기 스타일을 분석해 더 나은 표현을 추천하기도 하며, 강의 노트를 자동 변환해 자료 준비 시간을 획기적으로 줄여주기도 한다.
다섯째, 의료 분야에서 AI를 활용해 3만개 이상의 화합물 중 유망한 신약 후보를 발굴하거나 단백질 구조를 예측해 질병 치료제 개발에서 중요한 정보를 제공하기도 한다. 애완동물 스캔 영상이나 엑스레이 혈관 이미지를 분석해 발병 원인이나 심혈관 협창 정도를 자동으로 정량화한다. 의사와 환자의 대화를 실시간으로 분석해 의료 기록을 자동으로 생성하고, 환자 맞춤형 정보를 제공하기도 한다.
이러한 사례들은 생성형 AI가 단순 효율성 향상을 넘어 사회적 가치 창출 도구로 자리매김할 가능성을 보여준다.
생성형 AI의 이면, 부작용이 우려되거나 발생 가능성이 높은 위협 및 도전 과제
첫째, 정보 보안과 개인정보의 위협이다. 생성형 AI는 기존 정보 보안 패러다임에 근본적 도전을 가져온다. 챗GPT 정보 유출은 ‘의도치 않은 데이터 노출’이라는 새로운 보안 취약점을 보여줬다. 중국의 딥시크에서는 학습 데이터에 포함된 수많은 개인정보가 프롬프트 조작을 통해 유출되는 사건도 발생했다. 사이버 범죄 영역에서는 WormGPT나 FraudGPT 같은 악의적인 목적의 생성형 AI 모델이 개발돼 피싱 공격과 악성코드 작성에 활용되고 있다. 특히, 생성형 AI의 고도화된 정보 연결 능력은 개별적으로 민감하지 않은 정보들을 조합해 민감 정보를 유추하는 데 쓰이면서 기존 데이터 분류 체계와 보안 정책의 새로운 패러다임 전환 및 근본적 재검토가 필요함을 시사한다.
둘째, 편향성과 불공정성의 증폭이다. 생성형 AI의 편향된 결과는 단순 오류가 아니라, 사회의 편향성이 더 크게 확대되는 현상이다. 예를 들어 아마존이 개발한 AI 채용 시스템은 과거 남자가 더 많이 채용된 데이터를 학습해 여성 지원자의 지원서를 낮게 평가하는 문제가 발생한 적이 있다. 또, 사람들이 컴퓨터가 내린 결정이라는 이유로 AI의 판단을 객관적이고 공정하다고 신뢰한다는 점도 문제다. 잘못된 신뢰는 불공정한 결정을 정당화하는 결과를 가져올 수 있기 때문이다. 따라서 AI 시스템을 만들 때부터 다양한 배경의 사람들이 참여하고, 여러 관점에서 공정성을 검토하는 ‘모두를 위한 설계’ 접근법이 필요하다.
셋째, 딥페이크와 미디어 신뢰성의 붕괴다. 딥페이크는 ‘보이는 것이 믿을 수 있는 것’이라는 기존 인식을 근본적으로 흔들고 있다. 젤렌스키 우크라이나 대통령의 가짜 항복 연설이나 K팝 스타 대상 딥페이크 성범죄는 단순한 허위 정보 문제를 넘어 미디어 신뢰 체계 자체를 붕괴시킬 수 있다. 더 심각한 위협은 실제 진실도 딥페이크로 의심받는 상황이 발생할 수 있다는 점이다. 콘텐츠 인증 체계를 넘어선 사회적 신뢰 시스템 재구축이 필요함을 시사한다.
넷째, 저작권과 창작 본질에 대한 도전이다. 생성형 AI는 창작과 창작자의 대한 중요한 질문을 던졌다. 최근 스튜디오 지브리 스타일의 이미지가 거래되는 현상을 보면서 저작권 침해의 범위가 더 복잡해지고 있다. 스튜디오가 만든 캐릭터나 장면 그대로를 복제한 것은 아니지만, 고유한 미술 스타일을 AI가 모방하는 것이 공정한 것인지 의문이 든다. 또, AI가 수백만개의 작품을 학습해 새로운 결과물을 만들지만, 원본 작품의 창작자들에게는 어떠한 보상도 주어지지 않는다. 이런 상황이 계속되면 창작자들이 정당한 대가를 받지 못해 양질의 창작물이 줄어들 수 있다. AI시대에 맞는 새로운 저작권과 여러 사람의 작품이 모여 만들어진 AI 창작물에 대한 공정한 접근법을 고민해야 할 때다.
다섯째, 일자리 대체와 경제적 불평등을 야기하는 문제다. 생성형 AI는 일자리를 없애기보다는 일의 방식과 내용을 바꾸고 있다. IBM은 특정 부서 업무의 약 30%를 AI로 처리하면서, 남은 70%의 업무도 성격이 달라졌다. 과거 공장의 자동화는 주로 육체노동을 대체했지만, 생성형 AI는 보고서 작성과 데이터 분석, 법률 검토와 같은 ‘사고하는 업무’에도 영향을 미친다. 전문직 종사자들도 AI의 영향을 받는다는 것이다. 우려되는 점은 AI를 잘 활용하는 사람과 그렇지 못한 사람들 사이에 격차가 더 벌어질 수 있다는 것이다. 이 문제를 해결하려면 모든 사람이 AI 기술을 배우고 활용할 수 있도록 하는 것과 변화하는 일자리에 맞춰 새로운 기술을 가르칠 교육 시스템을 만드는 것이 중요하다.
생성형 AI는 전례없는 생산성과 창의성을 제공하지만, 정보 보안과 개인정보 위협, 딥페이크 등 다양한 위협을 내포하고 있다. 이러한 특성을 고려한 제도적 프레임워크 구축은 필수적이다. 혁신의 잠재력을 억제하지 않으면서도 사회적 안전장치를 마련하는 균형점은 기술의 신뢰 기반을 구축하기 위한 제도적 장치가 된다.
또, 명확한 규칙과 가이드라인은 기업이 법적 불확실성 없이 생성형 AI 기술을 개발하고 적용할 수 있는 환경을 조성하고, 나아가 국내 기업의 국제 경쟁력을 높여 해외 진출을 지원할 것이다.
AI 기본법 제정, 정적 규제보다 ‘적응형 거버넌스’ 체계 구축 필요해
첫째, AI 기본법은 고위험 AI에 대한 안전 관리 기준을 포괄적 규제로 제시하고 있지만, 더 세분화된 위험 평가와 대응 체계가 필요하다. 특히, 산업별·응용 영역별로 차별화된 규제 강도를 적용하는 ‘맞춤형 규제’의 형태로 발전해야 한다.
둘째, 생성형 AI 혁신 속도를 고려해 과도한 사전 규제는 기술 발전을 저해할 수 있다. 대안으로 ‘책임 있는 혁신’을 원칙으로 개발 자율성을 보장하고, 문제가 발생하면 강력한 책임을 요구하는 균형점이 필요하다.
셋째, AI 기본법의 2025 주요 업무 계획에서 생성형 AI로 만든 콘텐츠에 대한 의무적 워터마크 표시 제도가 포함됐다. 이는 딥페이크 문제 대응에 중요한 진전이며, 창작 활동을 지나치게 제한하지 않기 위한 예외 규정이다. 여기서 더 나아가 콘텐츠 출처 검증과 디지털서명 등 다층적 인증 체계와 국제 표준화를 위한 노력 등으로 글로벌 호환성을 확보해야 할 것이다.
넷째 현재 기술 표준은 생성형 AI의 급속한 발전 속도를 따라가지 못한다. 특히 모델 평가 지표나 데이터 셋 품질 기준, 모델 설명 가능성, 안정성 측정 등에 대한 표준이 시급히 필요하다. 국내 표준화 기관과 산업계가 협력해 생성형 AI 특화 표준을 개발하고 이를 인공지능 분야 국제 표준화 기구(ISO/IEC ITC 1/SC 42)와 같은 국제 표준화 활동에 적극 반영해야 한다. 이는 국내 AI 기업들의 국제 경쟁력 강화와 글로벌 AI 거버넌스에서 한국의 발언권 확보에 기여한다.
책임감 있는 AI 활용 전략 수립, 생성형 AI의 위한 기업들의 실용적 접근 방안
첫째 생성형 AI 특정 부서만의 문제가 아니라 회사 전체의 협력이 필요하다. IT팀만이 아니라 법무팀과 보안팀, 윤리팀, 마케팅팀 등 다양한 부서가 함께하는 AI 관리 위원회를 만들고 회사 전체의 AI 사용 지침과 교육 프로그램을 개발하는 것이 효과적이다.
둘째, AI 시스템을 만들 때 기술적 성능과 함께 사용자 필요와 가치를 최우선으로 고려해야한다. AI는 사람을 대체하기보다 사람의 능력을 높이는 도구로 설계되어야 하며, 직원과 고객들의 피드백을 지속적으로 수집해 시스템을 개선하는 과정이 중요하다.
셋째, 새로운 AI 기술을 도입할 때 먼저 시도하고 빠르게 배우는 과정과 신중한 감시 사이의 균형이 필요하다. 실용적인 방법으로는 위험이 낮은 영역에서 AI를 먼저 시험하고, 성공 사례를 바탕으로 점진적으로 확대하며, 모든 단계에서 발생할 수 있는 위험 요소를 미리 ㄹ파악하고 대응 방안을 마련하는 것이 중요하다.
넷째, 생성형 AI 도입의 성패는 이를 활용하는 직원의 이해도와 역량에 달렸다. 단순한 도구 사용법을 넘어 AI의 작동 원리와 한계, 윤리적 고려사항 등을 포함한 기업 가이드라인 및 교육 프로그램이 필요하다. 특히, 민감정보나 저작권, 편향성, 결과물 검증 등 실무에 직결된 내용을 중심으로 직급별, 부서별 맞춤형 교육을 정기적으로 실시하는 것이 중요하다. 이는 새로운 기술의 활용도를 높이는 동시에, 보안 사고와 윤리 문제를 사전에 방지하는 전략이다.
생성형 AI 시대의 개인, 수동적 기술 소비자가 아닌 능동적 디지털 시민
첫째, AI가 만든 정보를 비판적으로 평가해야 한다. 중요한 정보는 여러 출처에서 확인하고, 어떤 상황에서 만들어졌는지 생각해보며, 편향된 생각이 판단에 영향을 주지 않았는지 점검하는 습관이 중요하다.
둘째, AI 도구는 편리하지만 지나치게 의존하면 자신의 판단력과 창의력이 약해질 수 있다. 중요한 결정을 내릴 때는 AI의 제안을 참고만 하고 최종 판단은 스스로 내리는 연습이 필요하다.
셋째, AI 기술은 빠르게 변해 지속적으로 새로운 정보와 기술을 배우는 태도가 중요하다. 특정 지식보다 새로운 상황에 적응하는 능력, 필요한 정보를 찾아 활용하는 방법, 문제를 다양한 관점에서 바라보는 유연한 사고 방식을 키우는 것이 필요하다.
넷째, AI를 활용할 때 ‘나의 행동이 타인과 사회에 어떤 영향을 미치는지’ 생각해보자. 다른 사람의 창작물을 존중하고, 개인정보를 보호하며, 잘못된 정보를 퍼뜨리지 않도록 주의하는 것은 디지털 시민으로서의 기본 책임이다.
생성형 AI의 이중성은 우리 사회가 기술과 인간 가치의 조화를 어떻게 이룰 것인가에 대한 근본적인 질문을 던진다.
생성형 AI의 가능성, 보다 나은 사회를 위한 논의 필요해
지금까지 살펴본 바와 같이, 생성형 AI는 생산성 혁신과 사회적 가치 창출의 잠재력과 함게 새로운 형태의 위험과 도전을 제시하고 있다. 생산성과 효율성의 폭발적 증가라는 ‘기회’를 제공하는 동시에 신뢰성·공정성·창의성·고용 안정성 등의 가치에 깊은 균열을 초래할 ‘위협’을 내포하고 있다. 따라서 기술의 진화에 걸맞는 사회적 제도와 사용자 윤리가 병행되어야 한다.
성공적인 생성형 AI의 활용은 단순한 기술적 우수성이 아닌 ‘균형 있는 접근’에 있다. 혁신의 속도를 존중하면서도 충분한 안전장치를 마련하고, 경제적 가치와 사회적 형평성을 동시에 추구하며, 효율성과 인간 중심 가치의 조화를 이뤄야한다.
한국은 새계적인 수준의 디지털 인프라와 높은 기술 수용성, 강력한 ICT 산업 기반을 바탕으로 생성형 AI 시대의 선도적 모델을 제시할 수 있는 위치에 있다. 이를 위해 정부와 기업, 학계, 시민사회가 함께 참여할 포용적이고 개방적인 논의의 장이 필요하다.
생성형 AI는 단순한 도구를 넘어, 사회와 경제에 근본적 변화를 이끄는 동력이 되었다는 것을 부정할 수 없다. 이 변화의 방향성을 인간 중심적 가치로 정렬하는 것이 우리의 핵심 과제이며, 이를 위한 지속적인 대화와 협력이 필요하다. 모든 이해관계자의 지혜를 모을 수 있기를 희망한다.
[글_박성심 기술사]
필자 소개_
- 정보관리기술사, 정보시스템 수석감리원
- 한국정보공학기술사회 미래융합기술원 위원
- 국가직무능력표준(NCS) 학습 모듈 정보보호분야 집필진, 제안평가 위원
- KISIA 시큐리티 아카데미 전문강사, ITIL, SW약점진단원
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>