열린라디오 YTN
  • 방송시간 : [토] 20:20~21:00 / [일] 23:20~24:00 (재방)
  • 진행 : 최휘/ PD: 신동진 / 작가: 성지혜

인터뷰전문보기

[열린라디오 YTN] 훨씬 더 정교해진 딥페이크, 이번 총선 판도까지 바꿀 수 있다
작성자 : ytnradio
날짜 : 2024-03-11 00:43  | 조회 : 324 

[열린라디오 YTN]

방송 : YTN 라디오 FM 94.5 (20:20~21:00)

방송일 : 20240309(토요일)

진행 : 최휘 아나운서

대담 : 김덕진IT커뮤니케이션연구소장

 

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.

 

최휘 아나운서(이하 최휘)> 오늘 뉴미디어 트렌드는 IT 분야로 만나봅니다. 김덕진 IT 커뮤니케이션연구소장님 전화 연결돼 있습니다. 소장님 안녕하세요.

 

김덕진IT커뮤니케이션연구소장(이하 김덕진)> 네 안녕하세요. 반갑습니다. 김덕진입니다.

 

최휘> 지난 시간에도 다뤘던 주제죠. 오늘 이야기 나눌 주제는 딥페이크입니다. AI가 만든 진짜 같은 가짜 영상이죠. 우리나라 총선뿐 아니라 대선을 앞둔 미국에서도 이 딥페이크가 활개를 치면서 논란이 되고 있는데요. 우선 이 딥페이크라는 게 뭔지 자세히 쉽게 설명 부탁드릴게요.

 

김덕진> . ‘딥페이크말 자체에 다 들어있는데 이라는 게 AI 기술의 핵심인 딥러닝이라고 하는 우리가 알파고 때부터 들어본 그 기술이 있죠. 그리고 페이크라는 건 가짜를 의미하는 겁니다. 그러니까는 딥러닝을 이용해서 영상 속 원본 이미지를 다른 이미지로 교묘하게 바꾸거나 아니면 내가 얘기하지도 않았는데 내 영상이 나와서 말을 하는 이런 것들이라고 보시면 될 것 같아요. 그런데 이제 최근에는 이런 영상들이나 음성이 워낙 고화질로 만들어져서 합성 사실을 알아보기 어려울 정도로 정교해지고 있고요. 그다음에 최근에 또 생성형 AI ChatGPT부터 AI 기반 기술이 있지 않습니까? 그런 것들이 아주 빠르게 진화하다 보니까 예전에는 그래도 몇 시간 혹은 길게는 며칠 정도의 필요했던 데이터가 요즘에는 불과 몇 분 정도의 데이터만으로도 이런 생성형 AI로 이런 딥페이크 또 가짜 음성을 만들 수 있는 정도의 기술까지 왔다고 이렇게 말씀드릴 수 있을 것 같습니다.

 

최휘> . 얼마나 진짜 같고 구분하기 어렵길래 이렇게 연일 딥페이크에 대한 이야기가 나오나 싶은 분도 있을 것 같아요. 소장님, 지금 딥페이크 기술이 아주 많이 발전했다는 말씀해 주신 것 같은데. 구체적으로 어느 정도인 거예요?

 

김덕진> 그러니까 제가 예를 들어서 마음을 먹어서 우리 앵커님 목소리를 2분 정도 라디오에서 나오는 목소리나 아니면 유튜브에서 나온 뉴스 브리핑 같은 거 잘라서요. 그거를 AI 도구한테 넣어서 복잡한 기술 없이 제가 글자를 써서 만들어 달라고 하면 1분 안에 만들 수가 있습니다. 그렇게 치면 대부분의 사람들 특히나 방송하시는 분들이 그래도 유튜브나 온라인에 자기 목소리 같은 게 2~3분은 있을 거잖아요? 그런 것들을 가지고 도용을 해서 만드는 것들은 너무나도 쉬운 일이 됐고요. 그리고 한국어뿐만 아니라 그 목소리로 영어, 일본어, 중국어 이런 식으로 하는 것들도 만들 수 있는 시대입니다. 그뿐만 아니라 영상 같은 경우에도 두 가지 방식 정도가 나오고 있는데. 하나는, 정확하게 예를 들면 뉴스나 브리핑처럼 조금 깨끗한 화질이나 음질의 영상이 3~5분 정도가 있다면 입모양까지 만들 수 있는 기술도 가능하고요. 그다음에 최근에는 유명인들의 데이터를 좀 많이 학습시켰을 때는, 심지어 실시간으로 예를 들면 제가 이야기를 하면서 제스처를 마이크에 대고 해요. 그런데 그게 제가 아니라 아나운서님의 얼굴이 나올 수도 있고 그런 형태까지 쓸 수 있다는 것입니다. 그리고 실제로 이게 얼마나 큰 문제를 일으켰냐면, 최근에 하나의 사례를 보면 되는데요. 홍콩에서 최근에 340억 정도의 딥페이크 화상회의 사기가 있었습니다. 이게 뭐냐고 하실 수 있을 것 같은데. 홍콩에 있는 한 글로벌 기업이 있어요. 근데 그 글로벌 기업이 영국에 있는 본사 CFO로부터 갑자기 거액의 돈을 붙일 것을 요구하는 이메일을 받았다고 합니다. 처음에는 이거 그냥 피싱 메일인 것 같다고 무시를 했다고 해요. 그랬는데 그다음에 갑자기 화상회의를 했다고 합니다. 근데 그 화상회의에 동료 여러 명이 같이 있었고 말씀드렸던 금융기업의 본사의 CFO 영국 사람이겠죠. 그 사람의 얼굴과 목소리가 딥페이크로 나와서 정말로 회의 때 들어온 거예요. 그렇게 되니까 그 회의를 했을 때 이 사람은 정말로 그 외국에 있는 그분이 돈을 달라고 요구한 것 같다고 해서 실제 계좌에 돈을 부쳤는데요. 결론적으로 봤더니 그 화상회의에 참여했던 모든 사람들이 다 가짜 사람이었고 딥페이크 기술을 활용해서 정말인 것처럼 나온 것이죠. 그리고 그 사람들이 들어가는 화상 링크 자체에 일종의 스미싱 그러니까 다른 쪽으로 들어가는 사이트로 유도를 해서 그 안에서 진짜 화상회의 솔루션인 것처럼 착각해서 일어난 이런 사고였습니다. 그래서 이게 한두 번이 아니라 여러 번 누적돼서 340억 정도의 이런 사기에 당했다는 것이죠.

 

최휘> 악용된 사례까지 말씀해 주셨는데요. 일반인들도 이 딥페이크 영상을 쉽게 만들어낼 수 있는 건가요? 앞서 1분 안에 만들 수도 있다고 말씀해 주셨는데.

 

김덕진> 지금 제가 말씀드린 게, 뭔가 프로그래밍이나 코딩 없이 그냥 음성을 따서 올리면 만들어주는 웹 서비스가 이미 존재한다는 겁니다. 그리고 그뿐만 아니라 최근에 페이스 스와핑이라고 해서 제가 원하는 어떤 얼굴, 제가 될 수도 있고 다른 주변 사람이 될 수도 있겠죠. 그 사람의 셀카 사진 한 장하고 그리고 SNS 인플루언서들의 몸이나 춤을 추는 영상 있지 않습니까? 그거를 합성해서 바로 만들 수 있는 영상 솔루션도 지금 앱으로 다 나와 있고요. 그런 것들을 유료로 5천 원에서 1만 원 정도만 내면 내가 원하는 목소리 아니면 춤추지 않은 사람의 모습 이런 것들을 그럴 듯하게 만드는 솔루션이 너무나도 쉽게 볼 수 있는 상황이라고 이렇게 말씀드릴 수 있습니다.

 

최휘> 그래서 더 우려가 되는 상황인데. 올해가 또 지구촌 선거의 해라고 하잖아요? 세계 곳곳에서 딥페이크로 골머리를 앓고 있습니다. 딥페이크 이거 나쁜 기술 아니냐는 이런 우려의 목소리가 많이 나오고 있거든요. 어떻게 보고 계세요?

 

김덕진> 실제로 딥페이크 기술은 콘텐츠 비즈니스 쪽에서는 좋게 쓰면 또 아주 좋게 쓸 수 있어요. 예를 들면 어떤 배우의 어린 모습이나 아니면 다른 형태의 모습들 이런 것들을 동시에 만들어주는 거죠.

 

최휘> 배우의 아역 배우를 이 딥페이크로 만들어내는 거죠?

 

김덕진> 네 맞습니다. 그래서 실제로 최근에 넷플릭스에서 했던 살인자난감같은 경우에도 지금 나오는 배우의 아역 배우의 모습을 말씀하신 대로 딥페이크를 활용을 했거든요. 그러다 보니까 너무 비슷한 모습이 나오기도 했고. 과거에 또 카지노라고 하는 OTT 콘텐츠에서도 딥페이크 기술을 통해서 최민식 씨의 젊었을 때의 모습과 목소리를 만드는 등 콘텐츠 비즈니스에서는 쓸 수 있는 부분들이 분명히 존재합니다.

 

최휘> 저는 정말 닮은 아역 배우를 쓴 줄 알았는데. 이게 딥페이크였군요.

 

김덕진> 네 맞습니다. 실제 아역 배우가 출연을 해서 연기는 한 건데. 얼굴은 말씀하신 대로 지금 있는 배우의 얼굴을 딥페이크로 활용을 한 것이죠. 그런데 이런 식으로 콘텐츠에서 쓰면 또 무궁무진하지만 반대로 이게 안 좋은 쪽으로 쓰기 시작하면 끝도 없이 또 안 좋은 쪽으로 쓸 수 있다는 거예요. 그래서 말씀하신 대로 선거에서의 우려가 나오는 건. 이미 미국 공화당 대선 후보 경선이 있었던 올 123일에 비슷한 문제가 생겼습니다. 그때 실제로 도널드 트럼프 전 대통령이 출마 선언을 하고 계속 후보 활동을 하고 있는데 그 뉴햄프셔 주 지역에 민주당 소속인 조 바이든 대통령을 사칭하는 목소리가 전화로 실제로 간 거예요. 그래서 해당 경선에 불참할 것을 권하는 겁니다. 그러니까, 갑자기 전화를 받았더니 내가 대통령 조 바이든이다. 지금 도널드 트럼프가 선거에 들어오는 걸 막아야 된다.’ 그러면서 투표하지 마라는 목소리가 이미 ARS로 가고 있는 시대라는 겁니다. 그러니까 이게 어떻게 보면 선거에서의 부작용들이 있을 수 있는 것이 아니냐는 우려들이 당연하게 나올 수밖에 없는 상황이라고 말씀드릴 수 있습니다.

 

최휘> 맞아요. 실제로 이런 딥페이크 영상이 허위 사실을 유포하고 선거 결과에도 직간접적으로 영향을 미칠 수 있기 때문에 이게 더 우려가 되는 거거든요. 최근에는 윤석열 대통령이 등장하는 딥페이크 영상이 온라인에 빠르게 퍼지면서 논란이 됐죠. 저도 봤는데 진짜 같더라고요. 구분하기가 어렵던데. 그런데 경찰이 이 영상이 딥페이크에 해당하지 않는다는 조사 결과를 내놨더라고요. 어떻게 된 건가요?

 

김덕진> 그러니까 이제 조금 기술적으로 구분을 드리면, 냉정하게 말하면 이거는 짜집기 영상입니다. 그러니까 이미 윤석열 대통령이 다른 데서 발언을 했었던 내용 중에 악의적으로 어떤 부분들을 잘라서 마치 윤석열 대통령이 얘기한 것처럼. 이건 인간의 노력으로 한 땀 한 땀 만든 콘텐츠라고 이렇게 말씀드릴 수 있는데요. 충분히 지금 있는 영상들에서도 어떤 사람이 진짜 이야기한 것처럼 일부를 잘라내기 시작을 하면 만들 수 있잖아요. 그런데 최근에 이제 우리가 딥페이크에 대해서 우려하는 건, 이거는 정말로 한 사람이 오랜 시간 동안 노력해서 만든 콘텐츠인데 우리가 걱정하는 것은 이런 방식처럼 정말로 이 AI 콘텐츠를 활용하거나 그 사람을 학습한 게 있으면 글자만 넣어도 정말 그럴 듯하게 이야기하는 것들도 이 기술로 되다 보니까 이 우려의 움직임이 결국 짜집기 콘텐츠도 딥페이크가 아니냐는 여러 가지의 사회적인 현상의 확산으로 나오고 있다고 이렇게 말씀드릴 수 있겠습니다.

 

최휘> 정말 섬뜩한데 경찰은 이 딥페이크 탐지 소프트웨어라는 걸 만들어서 10분 내에 가짜 영상을 분석하고 판별할 수 있다고 하더라고요. 이게 단시간에 진위 여부에 대한 판별이 가능한 건가요?

 

김덕진> 결국에는 이 AI가 어떤 식으로 학습되는지에 대해서 간단하게 설명을 드리면 이해하기 제일 쉬울 거예요. 결국 이 딥페이크는 2개의 AI 알고리즘이 있습니다. 하나는 위조지폐를 만드는 알고리즘이고요. 두 번째는 위조지폐인지 아닌지를 검사하는 알고리즘이라고 보시면 될 것 같아요. 그래가지고 계속 한쪽에서는 위조지폐 같은 콘텐츠를 만드는 겁니다. 한쪽에서는 저건 위조지폐야라는 것을 검사하는 AI가 있는 것이죠. 그래서 그 두 개의 AI가 계속적으로 똑똑해지다 보니까 자연스럽게 이런 딥페이크도 그럴 듯하게 만들어지는 거거든요. 그럼 그 얘기를 여기다 적용을 하면, 결국에는 가짜 영상을 분석하고 판단하는 그 솔루션이 기존에 있었던 가짜 영상들을 학습하는 서비스라고 보시면 될 것 같아요. 그러니까 사람들이 이거는 딥페이크 영상이야. 가짜 영상이야.’ 이런 걸 AI에게 계속 주는 거죠. 그럼 AI가 그거를 갖고 특징들을 구분하지 않겠습니까? 그럼 그 특징을 비교를 해서 어떠한 게 진짜 진짜인지 가짜인지를 확인하는 프로세스라고 말씀드리면 될 것 같습니다. 기존에 있었던 수많은 딥페이크 영상을 학습한 AI가 새롭게 나온 AI 딥페이크 영상의 패턴을 가지고 이것은 딥페이크다. 아니다.’ 진위 여부를 판별할 이런 솔루션이라고 말씀을 드리겠습니다.

 

최휘> 우리가 손 놓고 있을 수 없잖아요. 선관위에서는 딥페이크 전담팀을 꾸려서 대응한다고 하는데 어떻게 실효성 있는 대책이 나올 수 있을 거라고 보세요? 지금 어떤 대책이 있나요?

 

김덕진> 실제로 이 부분 같은 경우에 지금 말씀하신 대로 선관위에서 팀을 만들고 그 팀들이 계속적으로 솔루션과 모니터링을 하고 또 그 모니터링에서 제대로 보이지 않는 것들은 전문가들에게 넘기는 형태의 구조를 가지고 있어요. 그런데 이제 이것에 대해서 여러 가지 얘기가 있습니다. 이게 실효성이 있느냐, 없느냐. 그런데 제 개인적인 생각은 어쨌든 안 하는 것보다는 낫다는 건 확실한 것 같습니다. 왜냐하면 어쨌든 지금 이 법이 나오고 실제로 딥페이크를 활용한 선거운동을 했을 때 이미 징역이나 벌금을 주는 이런 법률들이 만들어지지 않았습니까? 그러다 보면 뭔가 사람들이 장난으로라도 이런 것들을 하는 것에 대해서 기본적으로 한 번 정도 생각을 하게끔 하고, 거를 수 있다는 부분에서 분명히 하나의 의미 있는 행동이라고 볼 수는 있고요. 그런데 이러한 콘텐츠가 말씀드린 대로 5, 10분이면 막 빠르게 만들 수 있잖아요. 그러니까 가짜 영상을 분석하는 솔루션의 속도나 사람들이 확인하는 것보다 실제로 이 콘텐츠가 만들어지는 속도가 훨씬 빠르다는 것이죠. 그렇기 때문에 선거 전에 이 모든 영상을 확인할 수 있느냐고 할 때는 조금 거기서는 기술적으로 어려운 부분이 분명히 존재한다고 말씀드릴 수 있을 것 같습니다. 그러니까 검사하는 사람들이 100개를 검사하는 동안에 1천 개 1만 개가 나올 수 있다는 것이죠. 그렇지만 이게 의미 있는 것은, 선거 후라도 만약에 문제가 되는 것들이 있다면 그 부분을 가지고 선거에 대한 결과에 대한 재심을 할 수 있기 때문에 분명히 안 하는 것보다는 낫습니다. 하지만 중요한 것은 선거 직전에 이러한 영상이 나와서 선거 결과가 바뀔 수 있는 확률은 분명히 존재한다고도 말씀드릴 수 있을 것 같습니다.

 

최휘> 안 하는 것보다 하는 게 낫다고 해주셨고. 법적인 규제도 규제지만 사실 제대로 규제하려면 IT 기업들과 손발이 맞아야 하잖아요. 딥페이크 영상이 인스타그램이나 페이스북 같은 SNS를 통해서 순식간에 퍼지면서 피해가 가중되니까요. 플랫폼 기업들은 어떤 대책도 내놓고 있습니까? 짧게 부탁드릴게요.

 

김덕진> . 실제로 전 세계 플랫폼 기업들이 같이 이러한 결과들을 좀 공유하는 것들을 하나를 만들고 있고요. 두 번째로 워터마크라고 해서, 모든 콘텐츠에서 이것은 생성형 AI가 만든 콘텐츠이다라는 걸 기록하는 워터마크에 대한 제안을 하고 있습니다. 근데 중요한 것은 이 모든 것들이 자칫 잘못하면 오히려 더 복잡한 혼란을 일으킬 수 있다는 이야기들이 나오고 있거든요. 그럼에도 불구하고 이러한 플랫폼들의 움직임은 분명히 의미가 있다고 보고요. 아직은 이건 강제화는 아니기 때문에 어느 정도의 법제화도 필요하지 않냐는 생각도 같이 해볼 수 있을 것 같습니다.

 

최휘> 법제화돼야 한다고 해 주셨습니다. 오늘 말씀 여기까지 듣겠습니다. 감사합니다.

 

김덕진> 네 감사합니다.

 

최휘> 지금까지 김덕진 IT커뮤니케이션연구소장이었습니다. 열린라디오 YTN 오늘 순서 여기서 마무리합니다. 저희 프로그램은 YTN 라디오 홈페이지와 YTN 라디오 앱, 또 유튜브와 팟빵을 통해서도 다시 들으실 수 있습니다. 많이 찾아주시고요. 오늘 끝 곡 JourneyWheel in the sky 준비했습니다. 저는 다음 주 이 시간에 다시 인사드리겠습니다. 아나운서 최휘였습니다. 고맙습니다.
 



[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]
목록
  • 이시간 편성정보
  • 편성표보기
말벗서비스

YTN

앱소개