‘생성형 인공지능’은 ChatGPT, DALL-E, Stable Diffusion 등 주어진 콘텐츠를 학습해 새로운 콘텐츠를 만들어 내는 인공지능을 말한다.
가이드라인의 골자는 학습자의 생성형 AI 활용 권리 보장이다. 방대한 데이터에 접근해 자료를 선별하는 시간, 문장과 이미지 등 콘텐츠 생성을 위한 노력 등 기존 교육 방식에 요구되던 수고를 아낄 수 있는 기술적 수단이 있다면 이를 적극 활용하도록 독려하겠다는 의미다.
김동원 총장은 “ChatGPT는 사용자의 실력 이상의 결과물을 도출하지 못한다”며, “ChatGPT에 의존하는 인재가 아닌 이를 잘 활용할 수 있는 학생을 기르는 교육을 해야 한다”고 말했다.
고려대는 표절, 부정행위, AI 의존에 따른 비판적 사고 약화, 부정확하고 편향된 정보 습득 등 예상되는 부작용에 대해서는 AI 윤리교육 및 AI가 대체할 수 없는 경험적 데이터 수집(인터뷰, 설문조사)과 동료 및 교수자 피드백 반영 등을 통해 대처한다는 방침이다. 또 ChatGPT가 부정확한 정보를 생산하는 경우도 있는 만큼, ChatGPT의 오류를 지적하고 자체적으로 확보한 정보의 소스를 비교하는 등 학생의 비판적 사고 능력을 개발할 수 있도록 유도할 계획이다.
해당 가이드라인은 즉시 교수자들에게 배포되고, 개별 수업의 교수자는 AI 활용 허용 여부를 최종 결정하며, 강의계획서에 생성형 AI 활용 원칙을 명시하고 학생에게 명확하게 전달해야 한다.
[박미영 기자(mypark@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>