개인정보 유출에 … 이탈리아, 챗GPT 접속 차단
中·홍콩 이어 서방국 최초
"데이터 수집·저장 근거 없고
연령 확인하지 않고 답변"
이탈리아가 개인정보 유출을 이유로 인공지능(AI) 챗봇인 '챗GPT'의 자국 내 접속을 일시적으로 차단했다. 서방 국가 중 챗GPT를 차단한 첫 사례다. 챗GPT의 세계적인 열풍이 계속되는 가운데 이번 조치가 생성형 AI 규제에 대한 새로운 논의를 촉발할지 주목된다. 지난달 31일(현지시간) 영국 파이낸셜타임스(FT)에 따르면 이탈리아 데이터보호청은 개인정보 유출 우려가 있다며 자국 내 챗GPT 사용을 잠정적으로 금지했다. 또 데이터보호청은 오픈AI에 대해 20일 이내에 개선 방안을 제시하지 않으면 최대 2000만유로(약 284억원) 또는 오픈AI 연간 글로벌 매출액의 4%에 해당하는 벌금을 부과할 계획이다.
현재 이탈리아 외에 중국과 홍콩, 이란, 러시아, 아프리카 일부 지역에서도 챗GPT를 사용할 수 없다.
이탈리아 당국 발표에 따르면 지난달 20일 발생한 챗GPT 개인정보 유출 사고가 이번 조치에 단초를 제공했다. 약 9시간 동안 오픈AI 측이 '가입 확인 이메일'을 잘못된 사용자에게 발송하는 사고가 발생했다. 해당 메일에는 다른 사용자 이름, 이메일 주소, 결제 주소, 신용카드 번호의 마지막 네 자리, 신용카드 만료일 정보까지 고스란히 담겼다. '내 계정' 항목에 들어가 '내 구독 관리'를 클릭해도 타인의 개인정보를 확인할 수 있었다.
이탈리아 당국은 개인정보법 위반과 관련해 챗GPT 조사에 착수했고, 10일이 경과한 이날 챗GPT에 대해 잠정 차단 조치를 결정했다. 이탈리아 당국은 "챗GPT 알고리즘을 훈련시키기 위한 개인 데이터의 방대한 수집과 처리를 뒷받침하는 법적 근거가 없는 것으로 보인다"고 밝혔다. 오픈AI는 유럽연합(EU)의 일반 데이터 보호 규정(GDPR)과 다른 개인정보 보호법을 위반하지 않았다고 밝혔다.
이탈리아 당국은 챗GPT를 금지한 또 다른 이유로 미성년자 보호를 꼽았다. 챗GPT는 이용자 연령 제한을 13세 이상으로 정했지만, 사이트에 접속할 때 연령을 확인하는 절차가 없다. 이 때문에 미성년자가 부절적한 정보에 무분별하게 노출될 수 있다는 것이다.
출처 = 매일경제
원본링크 = https://n.news.naver.com/mnews/article/009/0005110505?sid=101
(서울=연합뉴스) 장하나 권희원 기자 = 미국과 일본 등 해외 일부 기업이 기밀 유출을 우려해 사내 챗GPT 사용 제한에 나선 가운데 삼성전자[005930]를 비롯한 일부 국내 기업에서도 챗GPT 오남용 우려나 핵심 정보 유출 가능성에 대한 고민이 커지고 있다.
2일 재계에 따르면 삼성전자 디바이스경험(DX) 부문은 현재 임직원을 대상으로 챗GPT 사용과 관련해 설문조사를 진행 중이다.
설문에는 챗GPT 사용 경험 여부를 묻는 것은 물론, 사내에서 챗GPT를 사용하는 것에 대해 어떻게 생각하는지를 묻는 내용 등이 포함됐다.
삼성전자는 향후 설문조사 결과를 토대로 업로드 용량 제한이나 업무 PC 사용 제한 등의 내부 지침을 만들어 임직원에게 공유할 계획이다.
지난달부터 사내에서 챗GPT를 사용할 수 있게 됨에 따라 향후 회사 주요 기밀과 개인 정보 등의 유출을 막기 위한 조치다.
삼성전자 디바이스솔루션(DS) 부문은 아예 최근 게시판에 챗GPT 오남용에 대해 주의를 환기하는 메시지를 공지했다. 각 팀장이 팀원들을 대상으로 챗GPT 사용 가능 범위 등에 대한 교육을 진행하기도 했다.
반도체 업무 대부분이 국가 기밀에 해당하는 만큼 자칫 보고서 등의 내부 정보를 올려 기밀을 유출하는 실수를 막기 위한 것이다.
포스코는 챗GPT를 통한 정보 유출 가능성을 차단하기 위해 오픈AI가 아닌 내부 인트라넷을 통해 챗GPT를 활용할 수 있는 경로를 마련해 임직원에게 안내하고 있다.
포스코의 사내 협업 플랫폼 '팀즈'에 챗GPT 기능을 도입해 내부 시스템 안에서만 챗GPT를 사용하도록 함으로써 보안과 업무 효율을 동시에 강화한다는 것이다.
SK하이닉스[000660]는 기본적으로 사내망으로는 챗GPT를 사용할 수 없도록 막아놨다. 챗GPT 사용이 꼭 필요할 경우 보안성 검토를 별도로 받는 식으로 일부 허용하기는 하지만 원칙적으로는 제한하는 셈이다.
LG디스플레이[034220]는 사내 게시물과 교육, 캠페인 등을 통해 수시로 사내 정보 보호와 유출 방지 등의 정보 보안 인식을 강조하고 있다.
이미 해외에서는 기밀 정보 유출을 우려해 챗GPT 사용을 제한하는 기업이 잇따르고 있다. 챗GPT에 정보를 입력하면 AI가 이를 학습해 외부에 유출할 수 있다는 우려 때문이다.
블룸버그통신에 따르면 시장조사업체 가트너가 기업 인사 담당자 62명을 설문 조사한 결과 이 중 48%가 챗GPT 등 AI 챗봇 업무 활용 지침을 수립 중이라고 답했다.
최근 JP모건체이스, 뱅크오브아메리카, 씨티그룹, 골드만삭스, 도이체방크 등 주요 월가 은행들은 챗GPT 등 AI 챗봇 사용을 제한했다.
니혼게이자이신문(닛케이) 등에 따르면 소프트뱅크는 최근 전 직원에게 챗GPT에 기밀 정보 입력 금지 등의 주의 사항을 통보했다. 어떤 업무나 용도에서 대화형 AI 사용이 가능한지 규정하는 규칙도 만들 방침이다.
미즈호파이낸셜그룹과 미쓰비시UFJ은행, 미쓰이스미토모은행은 챗GPT 등 대화형 AI를 업무에 이용하는 것을 금지하고 있다.
이밖에 파나소닉홀딩스 산하 파나소닉커넥트는 정보 유출 대책을 마련한 뒤에야 대화형 AI 활용을 허용했고, 후지쓰는 'AI 윤리 거버넌스실'을 설치해 대화형 AI 이용시 주의점을 환기하고 있다.
재계 관계자는 "워낙 챗GPT가 화제이다 보니 아직은 다들 한 번씩 사용해보고 배우는데 신경을 쓰는 분위기"라며 "정보 유출 우려 등에 대해서는 국내 기업도 더 경각심을 가질 필요가 있다"고 말했다.
출처 = 연합뉴스
원본링크 = https://www.yna.co.kr/view/AKR20230401033500003?input=1195m
의견 : 빠르게 변화해 가는 현대사회, 즉 4차 산업혁명의 시대에 등장한 'Chat GPT'라는 프로그램은 초지능, 초연결, 초융합을 바탕으로 한 대화형 AI(인공지능)서비스로 매우 혁신적인 프로그램임에는 틀림이 없는 것 같습니다.
하지만 조금더 생각해보면 지금부터 시작되는 4차 산업혁명 시대의 선두주자로 등장한 프로그램이 챗GPT이고 시작일뿐, 이후에는 더욱 발전된 AI프로그램들이 등장할 것이라고 생각합니다.
그러나 위 기사들을 보면 알 수 있듯이 정보보호 문제 등의 발생으로 인해 이탈리아, 중국, 홍콩 등의 국가에서는 '챗GPT 차단'이라는 임시방편 뿐인 해결책으로 대응하고 있습니다.
4차 산업혁명은 이미 도래하였고 AI기술은 나날이 발전하여 우리의 일상생활에 깊숙이 들어올 것입니다. 이를 대비해 관련 정책과 정보보호나 기밀유출과 관련된 해결방안이 정말 하루 빨리 마련되어야 할 것 같습니다.
더불어 이용하는 사용자들 또한 단지 이와 같은 프로그램을 편리하다고만 생각하지 말고 이러한 기술들의 발달로 발생하게 될 개인정보 유출문제, 일자리의 변화 문제 등에 조금 더 관심을 가져야 할 것 같습니다.
첫댓글 나 역시 최근 가장 관심이 가는 영역이며 추가적으로 우려되는 점 역시 동감한단다.
잘 읽었습니다. 정보화 시대에 살고 있지만, 그렇기 때문에 오히려 개인 정보 유출에 대해 무감각해 지는 것 같습니다.
우리나라의 경우 국민 대다수가 카카오톡이라는 하나의 메신저만을 이용하고, 각종 인증서와 금융 서비스까지 카카오에서 관리하기 때문에 더욱 각별한 주의가 필요하다고 생각합니다.
올려주신 글 잘 읽었습니다. 최근 자료수집 및 새로운 사실을 공부할 때 챗 GPT를 자주 사용하곤 하는데 해당 글을 읽으면서 경각심을 가지게 되었습니다. 빠르게 변해가는 과학기술이 분명 인류에게 득이 되는건 부정할 순 없으나, 그것과 별개로 반드시 조심히 다루어져야 한다는 생각엔 동감합니다. 쉽게 얻는 것은 잃기도 쉬운 것 같습니다. 좋은 글 감사합니다.
덕분에 글 잘 읽었습니다. 챗GPT를 이렇게 다르게 생각할 수있다는 것을 새로 알고갑니다. 조금은 위험을 느껴야할 것같다는 생각이 듭니다. 새로운 규제가 생겨야할 것같습니다.
편리성에 익숙해져서 개인정보유출에 대한 우려를 전혀생각하지 못했습니다. 주의의 필요성을 느낍니다.