어르신 노리는 ‘딥페이크 범죄’ 주의하세요!
분명 우리 아들 목소리였는데 다른 사람이라고?
“어머니, 제가 교통사고를 당해서 응급실에 왔는데 지갑이 없어서요. 급하게 돈이 필요한데 보내주실 수 있으세요?” 사고를 당했다는 아들의 연락을 받은 박 어르신은 서둘러 돈을 보내기 위해 은행 ATM기로 향했다가 장을 보고 온 며느리와 마주쳤다. 이러한 상황을 들은 며느리는 잠시 기다려보라고 하면서 남편에게 확인 전화를 했고, 어르신은 ‘다친 적이 없으니 걱정하지 말라’는 아들의 전화를 받고 난 뒤에야 아까 걸려온 전화가 사기임을 알게 됐다. 최근 박 어르신처럼 자식과 똑같은 목소리와 얼굴로 어르신께 돈이나 금품을 요청하는 ‘딥페이크 범죄’가 늘어나고 있어 주의해야 한다. 아들, 딸의 목소리와 똑같은데 범죄 여부를 어떻게 구분해야 할지 궁금하다면 아래 내용을 참고해보자.
신종 사이버 사기 기술, ‘딥페이크 범죄’ 주의하세요!
최근 들어 어르신을 대상으로 한 신종 사이버 범죄가 기승을 부리고 있다. ‘딥페이크’는 인공지능의 심층학습을 뜻하는 ‘딥러닝(Deep learning)’과 가짜라는 뜻의 ‘페이크(Fake)’가 합쳐진 용어로, 인공지능이 특정 인물의 사진이나 목소리를 학습해 진짜처럼 합성하는 기술을 말한다.
예전에는 특정 인물의 사진이나 영상을 어색하게 합성해 비교적 쉽게 가짜를 구분할 수 있었지만, 요즘에는 그래픽 기술과 인공지능의 발전으로 매우 정교하게 합성해 실제와 구별하기 힘든 가짜가 나타나게 됐다. 이러한 딥페이크 기술은 실제 촬영을 하지 않아도 생동감 있는 영상을 만들거나 오래된 사진을 복원해 많은 사람들에게 감동을 선사하지만, 가짜뉴스나 디지털 범죄, 금융사기 등에 이용되는 경우도 많아지고 있다.
진짜 같은 ‘가짜’가 나타났다?
돈이나 개인정보를 요구한다면, 한 번 더 확인하세요!
그렇다면 실제 상황인지, 딥페이크 범죄에 연루된 것인지 구분하기 위해서는 어떻게 해야 할까? 먼저, 아무리 가까운 가족이나 지인이라도 금품이나 개인정보를 요구한다면 고향, 출신학교 등 당사자와 본인만이 알 수 있는 정보를 추가로 물어본 뒤 정확하게 대답하는지 확인해야 한다. 또한, 낯선 사람들도 나의 정보를 쉽게 확인할 수 있는 SNS에 전화번호 등의 개인정보를 올릴 때는 최소한으로 공개하는 것이 좋다.
딥페이크 기술은 실제와 가짜 상황을 구분하기 매우 어렵기 때문에 무엇보다 지금 상황이 실제로 일어나고 있는 상황인지 정확하게 알아보는 안목을 기르는 것이 중요하다. 젊을 때부터 살뜰하게 모아온 노후자금을 지키기 위해 남의 말을 무조건 믿기보다 자신의 선택과 판단을 존중하는 게 더욱 필요한 시점이다.
<노인장기요양보험 웹진 2021년 8월호>