ChatGPT는 사이버 공격 및 잘못된 정보에 대한 '위협 벡터'를 증가시킬 수 있다고 전문가들은 경고합니다. 'Deepfake 생성기'전문가들은 범죄자들이 AI를 사용하여 더 적은 시간과 복잡성으로 새로운 코드, 맬웨어 및 공격을 개발할 수 있다고 말합니다.
https://www.foxbusiness.com/technology/chatgpt-increase-threat-vector-cyberattacks-misinformation-experts-warn-deepfake-generator
Fox News Digital과의 사이버 보안 및 인공 지능(AI) 전문가는 ChatGPT와 같은 도구가 범죄자가 사이버 공격 및 잘못된 정보 캠페인에 참여하는 데 필요한 시간과 리소스를 줄일 수 있다고 경고했습니다.
Kaseya 최고 정보 보안 책임자인 Jason Manar는 AI가 딥페이크로 알려진 실제 사람의 완전히 가짜 비디오와 이미지를 육성하는 능력 때문에 특히 골칫거리라고 말했습니다.
2022년 국토안보부(DHS)는 오바마 전 대통령, 메타의 마크 주커버그, 팟캐스터 조 로건, 배우 톰 크루즈 등이 등장하는 허위 동영상의 예를 포함하여 국가 안보에 대한 "증가하는 딥페이크 신원의 위협"을 강조하는 문서를 발표했습니다. . 이러한 비디오 중 다수는 각각 수백만 번 조회되었습니다.
Manar는 올바른 배경을 가진 후보자와 특정 이벤트에 적합한 사람까지 딥 페이크하는 정치 캠페인을 상상해 보라고 말했습니다. 이제 이 정치인이 색이 다르거나 분열을 일으키는 말, 캠페인에 해를 끼칠 말을 한다고 상상해 보십시오. 이제 그것이 선거 전 주에 일어난다고 상상해 보십시오.
AI 대 고용 시장: 전문가들은 기술 역할이 자동화에 '면역적'이라고 생각하여 혼란에 직면할 수 있다고 말합니다.
이 사진 일러스트에서는 2023년 2월 3일 영국 런던에서 노트북 화면에 OpenAI "ChatGPT" 앱의 시작 화면이 표시됩니다. (레온 닐/게티 이미지/게티 이미지)
"당신은 당신이 보는 모든 것을 믿거나 거짓말쟁이의 배당금이라고 부르는 것을 갖게 되는 지점에 도달합니다. 거짓말쟁이의 배당금이라고 부르는 것이 실제로 사실일 수도 있지만 이러한 딥 페이크 때문에 그 사람은 '절대 딥 페이크가 아닙니다'라고 말합니다. 그런 다음 거짓말쟁이는 의심의 이점을 얻습니다."라고 Manar는 말했습니다. "눈으로 본 것과 녹음으로 본 것조차 증명하기가 정말 어려워진다."
NASA JPL 최고 기술 및 혁신 책임자이자 인공 지능 부서장인 Chris Mattmann 박사는 최근 트럼프 전 대통령이 체포되고 교황이 발렌시아가 코트를 입은 모습이 유포된 이미지를 인공 지능이 어떻게 인터넷을 속이는 딥페이크를 만들 수 있는지를 예로 들었 습니다 . 사용자.
이전에 DHS와 DARPA(Defense Advanced Research Projects Agency)에서 자금을 지원받은 Mattmann은 이러한 딥페이크의 영향은 사람마다 다르며 이전 세대 또는 바쁜 생활을 하는 사람들은 사실과 허구를 구별할 가능성이 적을 수 있다고 말했습니다. 성공적으로.
그는 또한 이러한 유형의 딥페이크 빈도가 증가하고 Mattmann이 "널리 사용 가능하고 사용하기 쉬운 딥페이크 생성기"라고 설명한 ChatGPT와 같은 도구의 도움으로 보다 사실적인 프레젠테이션으로 제공될 것이라고 언급했습니다.
UBS 연구에 따르면 ChatGPT는 1월에 1억 명의 월 활성 사용자를 달성하여 가장 빠르게 성장하는 소비자 애플리케이션이 되었습니다. 이를 염두에 두고 Mattmann은 이 도구의 대중적 매력이 "위협 벡터 공간"을 증가시킨다고 말합니다.
"이제는 누구나 한 달에 20달러면 이것을 할 수 있습니다."라고 Mattmann은 말했습니다.
"그들 중 누구라도 실제로 존재하지 않는 방대한 양의 콘텐츠를 퍼뜨릴 수 있는 미디어 회사와 같은 능력을 가진 사람이 됩니다. 그것은 국가 안보 관점에서 볼 때 터무니없는 일입니다."라고 그는 덧붙였습니다.
프란치스코 교황, AI 학습이 '윤리적이고 책임감 있게' 사용될 경우 '인류의 미래'에 '긍정적'이라고 선언
2017년 5월 13일에 찍은 이 그림 사진에서 한 남자가 사이버 코드가 투사되는 노트북 컴퓨터를 들고 있습니다. (REUTERS/Kacper Pempel/Illustration / Reuters Photos)
최초의 엔드-투-엔드 소프트웨어 공급망 보안 솔루션인 OX Security의 공동 설립자이자 CEO인 Neatsun Ziv는 ChatGPT의 데이터 및 기능에 대한 수백만 명의 액세스 권한을 제공하는 주류 추세가 문제를 일으킬 수 있다는 데 동의했습니다.
그는 "트위터와 페이스북의 가짜 뉴스 시대가 정말 나쁘다고 생각했다면 지금 우리는 다른 수준으로 향하고 있다고 생각한다"고 말했다.
예를 들어 ChatGPT의 데이터 세트는 이미 시장에 존재하는 지식으로 구성됩니다. 회사가 이러한 기계가 소유한 지식을 예리하게 인식하지 못하고 이를 식별하는 시스템을 구축할 수 없다면 공격에 취약해질 수 있다고 Neatsun은 말했습니다.
"그들이 해킹당하는 것은 시간 문제일 뿐입니다. 이것은 우리가 지금 매주 보고 있는 것입니다."라고 그는 덧붙였습니다.
Neatsun은 또한 이러한 도구가 사이버 갱단에 의해 완전히 이해되고 획득되면 이를 악용할 수 있고 중요한 정부 인프라뿐만 아니라 보험 및 사기 사건을 다루는 회사를 표적으로 삼을 수 있다고 언급했습니다.
"당신이 하고 싶은 것을 설명하는 것만으로 코드를 작성할 수 있다"고 그는 말했다. "따라서 새로운 것, 새로운 코드, 새로운 맬웨어, 새로운 공격을 생성하려는 노력이 줄어들고 있으며 시간이 단축될 뿐만 아니라 복잡성도 감소합니다."
최근 ChatGPT는 새로운 다형성 악성코드를 생성했습니다.
사이버아크(CyberArk) 보안 연구원의 기술 보고서에 따르면 이 악성코드는 "적의 노력이나 투자가 거의 없이 보안 제품을 쉽게 회피하고 완화를 번거롭게 만들 수 있습니다."
이 맬웨어를 만들기 위해 팀은 보다 권위 있는 방식으로 동일한 질문을 반복적으로 제기하거나 프로그램의 API 버전을 사용하여 챗봇이 위험한 도구를 만드는 것을 방지하는 콘텐츠 필터를 우회했습니다.
인공 지능에 대해 알아야 할 모든 것: 인공 지능은 어디에 사용됩니까?
동영상
전문가들은 ChatGPT의 편향된 데이터가 AI를 '더 위험하게' 만들고 저널리즘에 영향을 미칠 수 있다고 말합니다.
DataGrade 설립자 Joe Toscano와 MRC Free Speech America VP Dan Schneider는 ChatGPT가 일자리와 정보에 다양한 위험을 초래한다고 말했습니다.
CyberSheath의 CEO인 Eric Noonan은 "인공 지능을 통해 훨씬 더 좋은 일을 대규모로 할 수 있습니다."라고 말했습니다. "동전의 이면에는 나쁜 행위자가 더 효율적이고 대규모로 나쁜 일을 할 수 있습니다."
"많은 경우, 공격이 어디에서 왔는지, 그것이 국민 국가인지, 인공 지능인지 전통적인 수단인지는 중요하지 않습니다. 정말 중요한 것은 수비, 회복, 탄력성”이라고 덧붙였다.
사이버 보안 위원회 전문가 패널에서 활동한 Noonan은 AI가 성숙함에 따라 더 중요한 문제가 될 것이라고 말했습니다. 그러나 바로 지금 Noonan은 중요 부문을 적절하게 보호하고 적절한 완화 전략을 마련하는 것이 중요하다고 강조했습니다.
"Personnel Management Office, Solar Winds, Colonial Pipeline 등 우리가 본 침해 사례를 살펴보면 이러한 중요 인프라 부문이 취약하고 오늘날 침해될 수 있으므로 AI가 잠재적으로 적이 사용할 수 있는 또 다른 도구라는 것을 알고 있습니다. 규모 면에서 더 효과적일 것”이라고 말했다.
Manar는 대부분의 공격이 직원이 피싱 또는 웨일링 시도를 클릭할 때와 같은 관리 또는 구성 변경 및 인적 오류로 인한 것이라고 지적했습니다 . 피싱 및 웨일링 공격은 일반적으로 고위 경영진을 대상으로 하며 합법적인 이메일로 가장합니다.
미국 회사인 OpenAI의 Welcome to ChatGPT 글자가 컴퓨터 화면에 표시됩니다. ((사진: Silas Stein/Getty Images를 통한 사진 제휴) / Getty Images)
이전에 샌디에이고 사무소의 모든 사이버, 방첩, 정보 및 언어 서비스 프로그램을 감독하는 특별 FBI 요원 보좌관을 역임한 Manar는 사람의 글이나 이메일 샘플에 액세스할 수 있다면 AI가 그러나 대상이 통신하거나 정보를 받는 데 사용되는 공격입니다.
AI 일시 중지는 '나쁜 녀석들'이 따라잡을 시간을 줍니다. BILL ACKMAN의 말: '선택의 여지가 없다고 생각합니다'
그는 "AI는 지능적이고 정확하며 표적화된 대응을 만들어 이를 엄청나게 도울 것"이라고 말했다.
예를 들어, Manar는 FBI를 위해 의료 사기를 담당하는 동안 범인이 일반적이지 않고 매우 비싸며 자주 사용되지 않는 CMS 청구 코드를 사용했기 때문에 정부의 레이더에 자주 등장한다고 언급했습니다.
그는 오늘 누군가가 ChatGPT에 CMS에 가장 자주 사용되는 가정 의료 청구 코드를 물어볼 수 있으며 상위 5개를 제공할 것이라고 말했습니다.
"난독화를 통해 보호 상태를 유지하는 데 도움이 될 것입니다. 그렇지 않습니까? 군중 속으로 섞이게 될 것입니다."라고 Manar는 말했습니다. "그것은 범죄 요소를 조금 더 똑똑하게 만들고 그렇지 않으면 그들이 가지고 있지 않거나 일반적으로 넣지 않는 많은 양의 조사를 수행하도록 요구하는 정보를 허용합니다."
Noonan은 또한 급여 시스템에 대한 공격이 비즈니스의 제조 측면을 종료할 수 있는 것과 같은 방식으로 나쁜 행위자가 회사 내 자비로운 AI 시스템의 "데이터 중독"도 비즈니스를 종료할 수 있다고 언급했습니다.
사이버 보안 IT 엔지니어는 인터넷에서 해커의 사이버 공격으로부터 네트워크를 보호하는 작업을 합니다. 온라인 개인 정보 보호 및 개인 데이터 보호를 위한 보안 액세스. 키보드와 PCB에 타이핑하는 손 (iStock / iStock)
FOX 비즈니스에 대한 자세한 내용을 보려면 여기를 클릭하십시오.
"만약 그들이 AI를 사용하여 비즈니스와 중요한 인프라 부문에서 의사 결정을 내린다면 그 AI는 또 다른 취약점입니다."라고 그는 말했습니다. "그래서 그들은 인접한 비즈니스 목적을 위해 그것을 사용할 수 있습니다. 그러나 적이 악의적인 결정을 내리기 위해 자비로운 AI를 손상시키고 손상시킬 수 있다면 그것은 내가 많이 생각하지 못한 또 다른 위험입니다."
이러한 유형의 공격을 방지하기 위해 Noonan은 필수 최소 사이버 보안 요구 사항을 시행하고 구현하는 것이 가장 중요하다고 말했습니다.
Noonan은 또한 2021년 5월 12일 Biden 대통령의 사이버 보안에 대한 행정 명령으로 "제로 트러스트" 아키텍처 구현을 추진하고 정부 기관에 대한 사이버 위협 보고서를 개선하는 데 도움이 되는 좋은 첫 단계를 지적했습니다.