AI가 암시장을 강타할 것이라는 두려움이 정부 규제를 회피하는 범죄자들의 우려를 불러일으킨다: 전문가인공지능 연사 하비 카스트로 박사, AI가 범죄자 손아귀에 들어갈까 우려
https://www.foxnews.com/us/fears-ai-hitting-black-market-stir-concerns-criminals-evading-government-regulations-expert
인공 지능 , 특히 ChatGPT와 같은 대규모 언어 모델은 이론적으로 범죄자에게 범죄 전후의 흔적을 숨기는 데 필요한 정보를 제공한 다음 해당 증거를 지울 수 있다고 전문가가 경고합니다.
대규모 언어 모델(LLM)은 대규모 데이터 세트에서 얻은 지식을 기반으로 텍스트 및 기타 콘텐츠를 인식, 요약, 번역, 예측 및 생성할 수 있는 알고리즘을 사용하는 AI 기술의 한 부분을 구성합니다.
ChatGPT는 가장 잘 알려진 LLM 이며 성공적이고 빠른 개발은 일부 전문가들 사이에서 불안을 불러일으켰고 감독을 추진한 ChatGPT 제조업체 OpenAI의 CEO인 Sam Altman의 의견을 듣기 위해 상원 청문회를 촉발했습니다.
Google 및 Microsoft와 같은 기업은 빠른 속도로 AI를 개발하고 있습니다. 그러나 범죄에 관해서는 위원회 인증 응급 의학 의사이자 "Sherlock"이라는 자체 LLM을 만든 인공 지능에 대한 국가 연설자인 Harvey Castro 박사를 두려워하는 것이 아닙니다.
세계 최초의 AI 대학 총장은 기술이 교육 교리를 파괴하고 '르네상스 학자'를 만들 것이라고 말합니다.
OpenAI의 CEO인 Samuel Altman은 2023년 5월 16일 워싱턴 DC에서 열린 프라이버시, 기술 및 법률에 관한 상원 사법부 소위원회에서 증언하고 있습니다. ((Win McNamee/Getty Images의 사진))
가드레일과 보호 장치 없이 자신의 LLM을 만들어 잠재적 범죄자에게 판매할 수 있는 것은 "파렴치한 18세"라고 그는 말했습니다.
"가장 큰 걱정거리 중 하나는 실제로 Microsoft나 Google 또는 OpenAI ChatGPT와 같은 거물이 아닙니다."라고 Castro는 말했습니다. "실제로 그들에 대해 별로 걱정하지 않습니다. 왜냐하면 그들이 자율 규제하고 있고 정부가 지켜보고 있고 세계가 지켜보고 있고 모두가 그들을 규제할 것이라고 생각하기 때문입니다.
"저는 사실 규제를 따르지 않는 그들만의 대규모 언어 모델을 스스로 만들 수 있고 암시장에서 그것을 팔 수도 있는 10대나 밖에 있는 누군가가 더 걱정됩니다. 저는 앞으로 그럴 가능성이 있어 정말 걱정된다"고 말했다.
인공 지능이란 무엇입니까?
4월 25일 OpenAI.com은 최신 ChatGPT 모델이 채팅 기록을 끌 수 있는 기능을 갖게 될 것이라고 말했습니다.
OpenAI.com은 발표문에서 "채팅 기록이 비활성화되면 새 대화를 30일 동안 보관하고 남용을 모니터링하기 위해 필요할 때만 검토한 후 영구적으로 삭제합니다."라고 밝혔습니다.
시계 박사. HARVEY CASTRO가 그의 LLM "SHERLOCK"을 설명하고 시연합니다.
동영상
카스트로는 채팅 기록이 비활성화된 상태에서 이러한 유형의 기술을 사용하는 능력은 범죄자에게는 유익하고 수사관에게는 문제가 될 수 있다고 경고했습니다. 개념을 실제 시나리오에 적용하기 위해 아이다호와 매사추세츠에서 진행 중인 두 건의 형사 사건을 예로 들어 보겠습니다.
OPENAI 최고 책임자인 ALTMAN은 '무서운' AI가 그에게 의미하는 바를 설명했지만 CHATGPT에는 고유한 예가 있습니다.
Bryan Kohberger는 박사 과정을 밟고 있었습니다. 2022년 11월에 아이다호 대학교 학부생 4명을 살해한 혐의로 범죄학을 전공했습니다. Fox News Digital과의 이전 인터뷰에서 친구와 지인들은 그를 "천재"이자 "정말 지능적"이라고 묘사했습니다.
매사추세츠에는 지난 1월 아내 아나 월시를 살해하고 시신을 처분한 브라이언 월시 사건이 있다. 그에 대한 살인 사건은 시체 처리 방법과 같은 Google 검색의 세탁 목록을 포함하여 정황 증거를 기반으로합니다 .
BRYAN KOHBERGER, 아이다호 학생 살인 혐의로 기소
Castro의 두려움은 Kohberger보다 더 전문적인 사람이 AI 채팅을 만들고 Walshe에 대한 사건과 같은 사건에서 중요한 증거를 포함할 수 있는 검색 기록을 지울 수 있다는 것입니다.
카스트로는 "일반적으로 사람들은 그들의 역사에서 구글을 사용하다가 잡힐 수 있다"고 말했다. "하지만 누군가가 자신의 LLM을 만들고 사용자가 이 기록을 보관하지 말라고 하면서 질문할 수 있도록 허용한다면 사람을 죽이는 방법과 시신을 처리하는 방법에 대한 정보를 얻을 수 있습니다."
현재 ChatGPT는 이러한 유형의 질문에 대한 답변을 거부합니다. OpenAI에 따르면 "특정 유형의 안전하지 않은 콘텐츠"를 차단하고 "부적절한 요청"에 응답하지 않습니다.
AI의 역사는 무엇입니까?
"Sherlock"이라는 자체 LLM을 만든 위원회 인증 응급 의학 의사이자 인공 지능에 대한 국가 연사인 Harvey Castro 박사가 Fox News Digital과 AI의 잠재적인 범죄 사용에 대해 이야기합니다. (크리스 에버하트)
지난 주 상원 증언 에서 Altman은 의원들에게 최신 모델인 GPT-4가 폭력적인 콘텐츠, 자해에 관한 콘텐츠, 성인용 콘텐츠와 같은 유해한 요청을 거부할 것이라고 말했습니다.
"성인용 콘텐츠가 본질적으로 해롭다고 생각하는 것이 아니라 충분히 확실하게 구별할 수 없는 것과 연관될 수 있는 것들이 있습니다. 그래서 우리는 모든 것을 거부합니다."라고 연령 제한과 같은 다른 보호 조치도 논의한 Altman은 말했습니다.
Altman은 어떤 규칙을 구현해야 하는지에 대한 상원의원의 질문에 대해 "위험한 기능 평가로 세 번째 가설에서 말한 것에 초점을 맞춘 일련의 안전 표준을 만들 것"이라고 말했습니다.
'이러한 기술이 어떻게 작동하는지 이해하지 못하는' 경찰이 사용하는 AI 도구: 연구
"과거에 우리가 사용한 한 가지 예는 모델이 자기 복제가 가능하고 유출물을 야생으로 판매할 수 있는지 확인하는 것입니다. 우리는 사무실에서 중요하다고 생각하는 다른 긴 목록을 제공할 수 있지만 모델이 세상에 배포되기 전에 통과해야 하는 특정 테스트.
"그리고 세 번째로 나는 독립적인 감사를 요구할 것입니다. 따라서 회사나 기관뿐만 아니라 모델이 이러한 안전 임계값과 질문 X 또는 Y에 대한 성능 비율을 준수하는지 여부를 말할 수 있는 전문가입니다. "
개념과 이론을 한 눈에 볼 수 있도록 Castro는 "미국인의 95%가 LLM이나 ChatGPT가 무엇인지 모르는 것 같습니다."라고 말했습니다.
인공 지능: AI에 대해 자주 묻는 질문
인공 지능은 가까운 미래에 데이터를 해킹합니다. (iStock)
그러나 카스트로의 이론이 그리 멀지 않은 미래에 현실이 될 가능성은 있다.
그는 "알파카"라는 별명을 가진 스탠포드 대학의 현재 종료된 AI 연구 프로젝트를 언급했습니다.
대학의 초기 발표에 따르면 컴퓨터 과학자 그룹이 OpenAI의 GPT-3.5 모델과 "매우 유사한 성능"을 갖고 Raspberry Pi 컴퓨터와 Pixel 6 스마트폰에서 실행되는 600달러 미만의 제품을 만들었습니다.
AI의 위험은 무엇입니까? 사람들이 인공 지능을 두려워하는 이유 알아보기
성공에도 불구하고 연구원들은 라이선스 및 안전 문제를 이유로 프로젝트를 종료했습니다. 연구원들은 보도 자료에서 제품이 "적절한 안전 조치로 설계되지 않았다"고 말했습니다.
연구원들은 "우리는 Alpaca가 학술 연구만을 위한 것이며 어떠한 상업적 사용도 금지되어 있음을 강조합니다."라고 말했습니다. "이 결정에는 세 가지 요소가 있습니다. 첫째, Alpaca는 비상업적 라이선스가 있는 LLaMA를 기반으로 하므로 필연적으로 이 결정을 물려받습니다."
FOX 뉴스 앱을 다운로드하려면 여기를 클릭하세요.
연구원들은 지침 데이터가 OpenAI의 text-davinci-003을 기반으로 한다고 말했습니다. "그 사용 조건은 OpenAI와 경쟁하는 모델 개발을 금지합니다. 마지막으로 우리는 적절한 안전 조치를 설계하지 않았기 때문에 Alpaca는 배포할 준비가 되지 않았습니다. 일반적인 용도로."
그러나 Stanford의 성공적인 창조는 OpenAI와 LLM이 잠재적으로 인류를 어떻게 변화시킬 수 있는지에 대한 Castro의 유리 반 전체 견해에 두려움을 불러일으킵니다.
카스트로는 "나는 긍정적인 사고를 하는 경향이 있다"며 "이 모든 것이 좋은 결과를 낳을 것이라고 생각한다. 그리고 대기업이 자체 가드레일을 설치하고 스스로 규제하기를 희망한다"고 말했다. "