포르노에 연예인 얼굴이?⋯AI악용 딥페이크 도용 범죄 기승

단속 2년만에 2.5배 늘어 1408건 집계⋯“기술사용 중지 법적 근거 마련해야”

이한솔 기자 | 기사입력 2021/09/28 [13:27]

포르노에 연예인 얼굴이?⋯AI악용 딥페이크 도용 범죄 기승

단속 2년만에 2.5배 늘어 1408건 집계⋯“기술사용 중지 법적 근거 마련해야”

이한솔 기자 | 입력 : 2021/09/28 [13:27]

사진=pixabay


[
이코노믹포스트=이한솔 기자] 최근 AI기술이 불법적인 범죄에 악용되고 있다. 딥페이크 기술로 타인의 얼굴 사진을 도용해 음란물에 합성하는 불법 영상물 범죄가 기승을 부리고 있다.

 

28일 김상희 더불어민주당 의원이 방송통신심의위원회로부터 제출받은 자료에 따르면 단속이 시작된 20206~12월까지 답페이크 성적 허위영상차단 삭제 건수는 12월까지 548건으로 집계됐다. 이후 올해 1~9월까지 1408건으로 약 2.5배나 증가했다.

 

딥페이크(Deepfake)심층학습(Deep Learning)’가자(Fake)’의 합성어다. AI를 이용해 가짜 영상을 만들어 내는 기술이다. 이 기술로 연예인을 비롯한 일반인들의 얼굴 사진을 도용해 음란물 영상에 합성해 이를 유포하겠다고 협박하고 금전을 요구하는 범죄가 잇따라 보고되고 있다.

 

자괴감과 모멸감에 따른 개인피해와 함께 금전적 피해도 문제지만, 기업의 고위직 임원의 얼굴과 목소리를 모방해 거액을 송금토록 하거나 지인의 얼굴을 이용해 지인의 가족·친지 등에게 돈을 송금하게 하는 범죄도 발생하고 있어 각별한 주의가 필요한 상황이다. 이 딥페이크 기술이 워낙 정교하게 만들어진 탓에 쉽게 진위여부를 구별하기 어렵다는 한계가 있다.

 

이같은 딥페이크 성적 허위영상물의 제작·반포 행위를 금지하기 위해 국회는 지난해 3성폭력 범죄의 처벌 등에 관한 특례법을 통과시켰다. 동년 625일부터 시행됐지만 범죄는 근절되지 않고 수법이 진화하고 차단 삭제 건수도 증가하고 있는 실정이다.

 

AI를 포함한 지능정보기술을 악용한 범죄의 피해를 막기 위해서는 기술에 대한 규제가 필요하다는 지적이 나오고 있다. 현행 지능정보화 기본법31·60조에 따르면 지능정보기술이 사람의 생명과 신체의 안전을 저해할 경우 이를 제한하고 필요할 경우 국가가 그 기술을 비상 정지토록 하고 있다.

 

다만 현재까지 AI 등 지능정보 기술이 사람의 생명·신체에 대한 긴급한 위해를 야기하는 규정 위배 사례가 없어 적용된 적은 한 번도 없다는 것이 김상희 의원의 설명이다.

 

김상희 의원은 현행범에는 AI를 악용해 심각한 정신적·금전적 피해를 주는 것에 대한 규정이 없다“AI를 악용한 범죄를 예방하고 큰 피해를 막기 위해 심각하게 지능정보 기술을 악용한 경우는 기술의 사용을 제한하거나 중지할 수 있도록 해야 한다고 말했다.

 

이어 미래산업 사회 진입을 위해 AI발전은 꼭 필요하지만 인간에게 심각한 피해를 끼친다면 정부가 직접 나서야 한다“AI범죄를 신종 범죄로 규정하고 AI의 불법행위와 악용을 막을 방안을 마련해 더 이상 AI범죄로 고통 받는 국민이 없도록 노력하겠다고 말했다. EP

 

lhs@economicpost.co.kr

이코노믹포스트 이한솔 기자입니다.

"미래는 타협하지 않는 오늘이 만듭니다"
 
  • 도배방지 이미지

음란물, 국정감사, 딥페이크 관련기사목록