챗봇이나 딥페이크, 이런 생성형 인공지능 기술이 급격히 발전하면서, 이를 악용한 범죄 피해도 크게 늘고 있는데요.
방송통신위원회가 이용자 보호를 위해 사업자들이 따라야 할 지침을 마련했습니다.
어떤 내용인지, 최영은 기자가 보도합니다.
최영은 기자>
최근 한 프랑스 여성이 헐리우드 배우 브레드피트를 사칭한 일당에게 속아 우리 돈으로 12억 원을 송금하는 사건이 발생했습니다.
당시 일당은 생성형 AI 기술, 딥페이크를 이용해 브래드피트를 합성한 영상으로 피해자에게 접근했습니다.
딥페이크, 챗봇 등 생성형 AI 기술이 진화하면서, 이처럼 악용 사례도 늘고 있습니다.
방송통신위원회가 이용자 보호를 위해 관련 기업 등 사업자가 따라야 할 가이드라인을 마련했습니다.
가이드라인은 인간 중심으로, 설명이 가능하며, 안전하게 작동하고, 공정한 생성형AI 서비스라는 점을 기본 원칙으로 삼고 있습니다.
여기에 구체적으로 6가지 실행 방식도 담겼습니다.
딥페이크 성범죄물이나 차별, 편향적인 생성물을 거를 수 있는 장치를 마련하도록 하고, 이를 신고할 수 있는 기능도 만들어야 한다고 권고했습니다.
전화인터뷰> 김혜숙 / 방송통신위원회 과장
"필터링 장치, 신고절차 마련 등에 대한 사례가 파악이 됐고 이런 것들의 시행이 충분히 가능하면서도 효과적이라는 판단을(했습니다.)"
이밖에도 방통위는 이용자의 인격을 보호할 수 있도록 모니터 체계를 구축하거나 인공지능 산출물이 생성되는 결정 과정 정보를 제공하도록 하는 등 구체적인 방안을 가이드라인으로 제시했습니다.
방통위 관계자는 가이드라인이 생성형AI의 장기적 성장을 위한 방안이 되길 기대한다며 규제 관점이 아니라는 점을 강조했습니다.
(영상편집: 오희현 / 영상그래픽: 김민지)
이번 가이드라인은 다음달 (3월) 28일부터 시행됩니다.
KTV 최영은입니다.
( KTV 국민방송 케이블방송, 위성방송 ch164, www.ktv.go.kr )
< ⓒ 한국정책방송원 무단전재 및 재배포 금지 >