AI를 활용한 딥페이크 범죄가 빠르게 확산하고 있습니다.
기술이 정교해지면서 육안으로는 진위를 구분하기 어려운 수준인데요.
정부가 개발한 AI 딥페이크 분석모델이 이런 가짜 콘텐츠를 잡아내고 있습니다.
최다희 기자입니다.
최다희 기자>
합성임을 한눈에 알 수 있었던 초창기 딥페이크 영상.
2~3년 전만 해도 김현지 앵커의 얼굴이 커졌다 작아지는 등 부자연스러워 합성된 영상이라는 걸 알 수 있었습니다.
최근에 만들어진 딥페이크 영상은 어떨까?
녹취> 박남인 / 국립과학수사연구원 디지털과 연구관
"몇 번이 진짜 같으세요? 2번, 1번. 다 가짜입니다. 이거 지금 다 가짜입니다."
육안으로는 진짜와 가짜를 구분하기가 어렵습니다.
사진도 마찬가지입니다.
실제로 찍은 사진과 합성된 사진을 섞어놓으니 영상보다도 구분이 더 어렵습니다.
최근 이런 딥페이크 기술이 디지털 성범죄와 가짜 뉴스 생성 등 범죄에 악용되면서 사회적 문제가 되고 있습니다.
딥페이크 성범죄 영상물 시정요구 건수는 2022년 3천500여 건에서 지난해 2만3천여 건으로 크게 증가했습니다.
행정안전부는 이에 대응해 딥페이크 이미지와 영상, 음성의 진위를 판별할 수 있는 분석모델을 개발했습니다.
녹취> 배일권 / 행정안전부 공공지능데이터국장
"국내외 공개된 오픈 소스 데이터셋은 물론, 국립과학수사연구원이 AI 기반 생성 기술로 자체 제작한 데이터 등 총 231만 건의 방대한 데이터를 수집하고 정제했습니다."
이 모델은 눈, 코, 입 등 신체 부위별로 정밀하게 딥페이크 흔적을 탐지하고, 합성 확률까지 표시해 줍니다.
영상의 경우 94.98%의 정확도로 가짜 콘텐츠를 잡아냅니다.
실제로 이 기술은 지난 5~6월 두 달 동안 대통령 선거 범죄 13건의 딥페이크 감정에 활용됐습니다.
정부는 이 모델을 여성가족부와 방송통신위원회 등 다른 기관에도 단계적으로 제공해 딥페이크 대응 역량을 넓히겠다는 계획입니다.
(영상제공: 행정안전부 / 영상편집: 조현지 / 영상그래픽: 민혜정)
KTV 최다희입니다.
( KTV 국민방송 케이블방송, 위성방송 ch164, www.ktv.go.kr )
< ⓒ 한국정책방송원 무단전재 및 재배포 금지 >