한국: 딥페이크 성범죄에 전문가들 공급사 책임강화 및 관련 규제 촉구
““AI 안전은 어디에?”… 딥페이크 성범죄에 노출된 대학가” 2024년 8월 24일
처벌 기준·공급사 책임 강화 필요… 피해 방지 소통 창구 마련해야
딥페이크 기술을 악용한 성범죄가 또 발생했다. 인공지능(AI) 안전망이 올바르게 마련되지 않으면서 다시금 피해자가 생겼다…최근 대학가에서는 여학생들의 얼굴을 나체 사진에 합성한 성범죄물이 단체 텔레그램 대화방에 공유된 사실이 뒤늦게 확인됐다. AI로 가짜 영상과 이미지를 만드는 ‘딥페이크(딥러닝과 페이크의 합성어)’ 범죄가 다시 발생한 것이다. 이 텔레그램 대화방은 2020년부터 운영돼 참가자가 1200명에 달하는 것으로 알려졌다…AI로 특정인 목소리의 가짜 음성을 만드는 딥보이스 기술도 사용됐다.
…하지만 수사는 쉽지 않아 보인다. 주요 유통 경로인 텔레그램이 해외에 서버를 두고 있어 수사 기관의 추적이 어렵기 때문이다.
양 변호사는 AI 공급사의 책임을 강화하는 방안도 필요하다고 조언했다. “생성형 AI 공급사에 범죄에 이용될 수 있는 영상, 음원 제작에 대해 자체적인 기준을 설정해 회원에 대한 관리 감독을 강화해야 한다”고 말했다.
오정익 변호사도 의견을 같이했다. “해당 서비스를 제공하는 플랫폼의 책임을 강화하고, 딥페이크 동영상 제작자를 추적할 수 있는 시스템을 구축해야 한다”…