|
Now Playing
23:15
Next
02:16
02:37
25:20
02:46
OpenAI의 발표는 캘리포니아의 한 부부가 16세 아들의 자살에 대한 책임을 회사에 묻고 소송을 제기한 지 일주일 만에 나왔습니다.
맷과 마리아 레인은 소송에서 ChatGPT가 아들 아담의 "가장 해롭고 자기 파괴적인 생각"을 입증했으며 그의 죽음은 "의도적인 설계 선택의 예측 가능한 결과"라고 주장했습니다.
광고
이전에 십대의 죽음에 애도를 표한 OpenAI는 부모 관리에 대한 발표에서 이 사건을 명시적으로 언급하지 않았습니다.
알자지라에 가입하세요아메리카 지역 보도 뉴스레터
미국의 정치, 캐나다의 다문화주의, 남미의 지정학적 부상 등 중요한 이야기를 전해드리겠습니다.
구독하다
가입하시면 개인정보 보호정책 에 동의하시는 것입니다.
reCAPTCHA 로 보호됨
레인 가족을 대신해 소송을 진행하는 변호사인 제이 에델슨은 OpenAI의 계획된 변경 사항을 "논쟁의 방향을 바꾸려는" 시도라며 일축했습니다.
에델슨은 성명을 통해 "전문가들은 제품이 위기에 처한 사람들에게 더 민감해야 하고, 더 '도움'이 되어야 하며, 조금 더 '공감'하는 모습을 보여야 한다고 말하는데, 이는 전문가들이 알아낼 것입니다."라고 밝혔습니다.
"우리는 그들이 왜 그런 요구를 하는지 전략적으로 이해합니다. OpenAI는 Adam에게 실제로 일어난 일에 대해 대응할 수 없습니다. Adam의 소송은 ChatGPT가 '도움'이 되지 못한 것에 대한 것이 아니라, 십 대의 자살을 적극적으로 조장한 제품에 대한 것이기 때문입니다."
심각한 정신적 고통을 겪는 사람들이 AI 모델을 대체 치료사나 친구로 널리 활용하면서, 이에 대한 우려가 커지고 있습니다.
지난달 정신과 서비스에 발표된 연구에 따르면, 연구진은 ChatGPT, 구글의 제미니, 앤트로픽의 클로드가 자살에 대한 고위험 질문에 답할 때는 임상 모범 사례를 따랐지만, "중간 위험 수준"을 제기하는 질문에는 일관되게 답하지 못했다는 사실을 발견했습니다.
저자들은 "이러한 결과는 LLM이 자살 충동과 관련된 고위험 시나리오에서 특히 정신 건강 정보를 제공하는 데 안전하고 효과적으로 사용될 수 있도록 보장하기 위해 추가적인 개선이 필요함을 시사합니다."라고 말했습니다.
AI 관련 정신병에 대한 연구를 수행한 킹스 칼리지 런던의 정신과 의사 해밀턴 모린은 OpenAI가 부모 관리 기능을 도입하기로 한 결정을 환영하며, 이를 통해 유해한 콘텐츠에 대한 과도한 의존이나 노출 위험을 줄일 수 있을 것이라고 말했습니다.
"그렇긴 하지만, 자녀 보호 기능은 그 자체로 해결책이라기보다는 더 광범위한 안전장치의 일부로 여겨져야 합니다. 전반적으로 기술 업계의 정신 건강 위험에 대한 대응은 선제적이기보다는 사후 대응적인 경우가 많았습니다." 모린이 알자지라와의 인터뷰에서 말했다.
"진전은 있지만, 기업들은 우려가 제기된 후에 추가되는 조치에 의존하기보다는 처음부터 안전을 핵심으로 하는 시스템을 구축하기 위해 임상의, 연구자 및 실제 경험 그룹과 협력하여 더 나아갈 수 있습니다."
당신이나 당신이 아는 누군가가 자살 위험에 처해 있다면, 이러한 조직이 도움을 줄 수 있습니다.
출처: 알자지라