|
ChatGPT가 치료를 제공하고 있습니다. 다음은 정신 건강 혁명일 수 있습니다.
ChatGPT가 치료를 제공하고 있습니다. 다음은 정신 건강 혁명일 수 있습니다.
AI가 정신 질환을 치료할 것이라는 전망은 무수히 많은 윤리적 및 실질적인 문제를 제기하고 있습니다.
AI의 급속한 발전은 정신 질환 치료에 AI의 가능한 사용에 대한 논의를 불러일으키고 있습니다. [File: Getty Images]
에린 헤일
2023년 4월 27일에 게시됨2023년 4월 27일
대만, 타이페이 – OpenAI의 획기적인 인공 지능 기반 챗봇인 ChatGPT에 "불안이 있습니다"라고 입력하면 거의 즉시 작동합니다.
"불안을 겪고 계시다니 유감입니다."라는 문구가 화면에 휘갈겨져 있습니다. "어려운 경험이 될 수 있지만 증상을 관리하는 데 도움이 되는 전략이 있습니다."
계속 읽으세요4개 항목 목록목록 1/4History Illustrated: AI가 우리 자신의 게임에서 우리를 이기는 방법목록 2/4AI가 핵 수준의 재난을 일으킬 수 있다고 전문가의 3분의 1이 여론 조사에서 말합니다.4개 중 3개 목록캐시 앱 창업자 밥 리 살해 혐의로 기소된 기술 임원목록 4/4뇌 임플란트 기술의 미래는 어떻게 될까요?목록의 끝
그런 다음 번호가 매겨진 권장 사항 목록이 나옵니다. 이완에 노력하고, 수면에 집중하고, 카페인과 알코올을 끊고, 부정적인 생각에 도전하고, 친구와 가족의 지원을 구하십시오.
가장 독창적인 조언은 아니지만 치료사 사무실에서 듣거나 불안에 대한 WebMD 기사에서 온라인으로 읽을 수 있는 것과 유사합니다. 특히 ChatGPT가 광범위한 인터넷에서 답변을 긁어내기 때문입니다.
ChatGPT 자체는 심리학자나 상담사를 대신할 수 없다고 경고합니다. 그러나 그것은 일부 사람들이 플랫폼을 개인 치료사로 사용하는 것을 막지 못했습니다. Reddit과 같은 온라인 포럼의 게시물에서 사용자는 개인적인 문제 및 이별과 같은 어려운 생활 사건에 대한 조언을 ChatGPT에 요청한 경험을 설명했습니다.
일부는 챗봇에 대한 경험이 기존 치료법과 같거나 더 낫다고 보고했습니다.
인간의 대화를 모방하는 ChatGPT의 놀라운 능력은 특히 정신 건강 서비스가 얇고 낙인에 싸인 아시아와 같은 세계 지역에서 생성 AI 또는 정신 건강 상태 치료의 잠재력에 대한 의문을 제기했습니다.
일부 AI 애호가들은 챗봇이 불안 및 우울증과 같은 보다 온화하고 흔한 상태를 치료하는 데 가장 큰 잠재력을 가지고 있다고 보고 있습니다. 표준 치료에는 치료사가 환자의 말을 듣고 확인하고 환자의 문제를 해결하기 위한 실용적인 단계를 제공하는 것이 포함됩니다. .
이론적으로 AI 치료는 직원 부족, 긴 대기자 명단, 높은 비용으로 고통받는 전통적인 정신 건강 서비스보다 지원에 더 빠르고 저렴하게 접근할 수 있으며 특히 세계 일부 지역에서 환자가 판단과 수치심을 피할 수 있게 합니다. 정신 질환이 금기시되는 곳.
ChatGPT는 11월 출시 이후 전 세계를 강타했습니다. [파일: Florence Lo/Reuters]
조지타운 대학에서 정신의학을 전공하는 의대생 애슐리 안드레우(Ashley Andreou)는 알자지라와의 인터뷰에서 "심리치료는 매우 비싸고 내가 태어난 캐나다나 다른 나라에서도 매우 비싸다. .
알자지라 가입하기아메리카 커버리지 뉴스레터
미국 정치, 캐나다의 다문화주의, 남미의 지정학적 부상 등 중요한 이야기를 들려드립니다.
가입하기
가입하면 개인 정보 보호 정책 에 동의하게 됩니다.
“사람들은 약물을 보강하고 정신 건강 문제에 대한 증거 기반 치료에 접근할 수 없기 때문에 접근성을 높여야 한다고 생각하며 인증된 의료 전문가가 있는 생성 AI가 효율성을 높일 것이라고 생각합니다. ”
AI가 정신 건강 치료를 강화하거나 선도할 것이라는 전망은 무수히 많은 윤리적 및 실질적인 문제를 제기합니다. 여기에는 개인 정보 및 의료 기록을 보호하는 방법부터 컴퓨터 프로그램이 진정으로 환자와 공감할 수 있는지 또는 자해 위험과 같은 경고 신호를 인식할 수 있는지에 대한 질문에 이르기까지 다양합니다.
ChatGPT의 기술은 아직 초기 단계에 있지만 플랫폼과 경쟁 챗봇은 반복되는 질문을 인식하는 것과 같은 특정 영역에서 인간을 따라잡기 위해 고군분투하며 특정 프롬프트에 대한 응답으로 예측할 수 없거나 부정확하거나 불안한 답변을 생성할 수 있습니다.
지금까지 전용 정신 건강 애플리케이션에서 AI의 사용은 Wysa, Heyy 및 Woebot과 같은 웰빙 앱의 "규칙 기반" 시스템으로 제한되었습니다.
이러한 앱은 치료 과정의 측면을 모방하지만 ChatGPT 및 생성 AI를 기반으로 하는 다른 플랫폼과 달리 인간이 선택한 정해진 수의 질문 및 답변 조합을 사용하여 실제적으로 인간과 구별할 수 없는 독창적인 응답을 생성합니다. 연설.
일부 AI 애호가들은 이 기술이 정신 건강 상태의 치료를 개선할 수 있다고 믿습니다 [파일: Getty Images]
인도에 기반을 둔 Wysa의 설립자인 Ramakant Vempati는 Generative AI는 여전히 너무 복잡한 "블랙 박스"로 간주됩니다. 즉, 의사 결정 프로세스가 인간이 완전히 이해하지 못할 정도로 복잡하다고 생각합니다.
"ChatGPT 등의 출시와 함께 AI 채팅이 어떻게 호황을 누리고 있는지에 대한 많은 문헌이 분명히 있지만 Wysa는 매우 도메인에 특화되어 있으며 임상 안전 가드레일을 염두에 두고 매우 신중하게 구축되었다는 점을 강조하는 것이 중요하다고 생각합니다." Vempati는 Al Jazeera에 말했습니다.
“그리고 우리는 생성 텍스트를 사용하지 않고 생성 모델을 사용하지 않습니다. 이것은 구성된 대화이므로 스크립트는 미리 작성되고 사용자 응답에 대해 테스트한 중요한 안전 데이터 세트를 통해 검증됩니다.”
Wysa의 트레이드마크 기능은 ChatGPT의 자유 형식 대화와 달리 정해진 수의 서면 응답으로 제한되지만 사용자가 채팅할 수 있는 펭귄입니다.
Wysa의 유료 구독자도 질문이 확대되면 인간 치료사에게 라우팅됩니다. 싱가포르에서 개발된 Heyy와 미국에 기반을 둔 Woebot은 유사한 규칙 기반 모델을 따르고 라이브 치료사와 로봇 아바타 챗봇에 의존하여 저널링, 마음챙김 기술 및 집중 운동과 같은 리소스를 제공하는 것 이상으로 사용자와 소통합니다. 수면 및 관계 문제와 같은 일반적인 문제.
세 가지 앱 모두 환자가 생각하고 행동하는 방식을 바꾸는 데 중점을 둔 불안 및 우울증 치료의 표준 형태인 인지 행동 치료에서 비롯되었습니다.
Woebot 창립자 Alison Darcy는 앱의 모델을 "매우 복잡한 결정 트리"라고 설명했습니다.
Darcy는 Al Jazeera와의 인터뷰에서 "이 대화의 기본 '형태'는 임상의가 문제에 접근하는 방식을 모델로 하여 임상의가 상호 작용 과정에서 결정을 내리는 방식을 복제하도록 특별히 설계된 '전문가 시스템'입니다."라고 말했습니다.
Heyy는 정신 건강 정보와 운동을 제공할 뿐만 아니라 영어와 힌디어를 포함한 다양한 언어로 제공되는 인앱 채팅 기능을 통해 사용자가 인간 치료사와 교류할 수 있도록 합니다.
Wysa, Heyy 및 Woebot의 창립자는 모두 인간 기반 치료를 대체하려는 것이 아니라 기존 서비스를 보완하고 정신 건강 치료의 초기 단계 도구를 제공한다고 강조합니다.
예를 들어 영국의 National Health Service는 Wysa를 치료사를 만나기 위해 기다리는 환자를 위한 임시 방편으로 추천합니다. 이러한 규칙 기반 앱은 기능이 제한되어 있지만 AI 산업은 빠르게 발전하는 분야가 인간의 복지에 심각한 위험을 초래할 수 있다는 우려에도 불구하고 대체로 규제가 없습니다.
Tesla CEO Elon Musk는 AI의 롤아웃이 너무 빨리 일어나고 있다고 주장했습니다. [파일: Brendan Smialowski/AFP]
엄청난 AI 개발 속도로 인해 지난 달 Tesla CEO Elon Musk와 Apple 공동 창업자 Steve Wozniak은 GPT-보다 강력한 AI 시스템 교육을 6개월간 중단할 것을 요구하는 수천 명의 공개 서한에 서명 했습니다 . ChatGPT의 후속 조치인 4는 연구원들이 기술을 더 잘 이해할 수 있는 시간을 제공합니다.
"강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발해야 합니다."
올해 초 한 벨기에 남성은 AI 챗봇 차이의 부추김을 받고 자살한 것으로 알려졌으며, 뉴욕 타임즈의 한 칼럼니스트는 마이크로소프트의 챗봇 빙이 아내를 떠나도록 부추겼다고 설명했습니다.
AI 규제는 중국과 유럽 연합이 가드레일 도입을 향한 가장 구체적인 조치를 취하면서 기술 발전 속도에 맞춰 느리게 진행되었습니다.
이달 초 중국의 사이버 공간 관리국은 AI가 베이징의 권위를 훼손할 수 있는 콘텐츠를 생산하지 않도록 하기 위한 규정 초안을 발표했으며, EU는 AI를 고위험 및 금지, 규제 또는 비규제 대상으로 분류하는 법안을 마련하기 위해 노력하고 있습니다. 미국은 아직 AI를 규제하기 위한 연방 법안을 제안하지 않았지만, 올해 말에 제안이 있을 것으로 예상됩니다.
현재 ChatGPT나 일반적으로 "웰빙" 서비스로 간주되는 Wysa 및 Heyy와 같은 전용 정신 건강 앱은 미국 식품의약국(FDA) 또는 유럽 의약품청(European Medicines Agency)과 같은 건강 감시 기관의 규제를 받지 않습니다.
AI가 현재 시장에 나와 있는 규칙 기반 앱을 넘어 전통적인 치료와 동등한 정신 건강 치료를 자율적으로 제공할 수 있는지에 대한 독립적인 연구는 제한적입니다.
AI가 인간 치료사와 일치하려면 환자가 치료사에게 감정을 투사하고 환자와 치료사 간의 유대감을 모방하는 전이 현상을 재현할 수 있어야 합니다.
"우리는 심리학 문헌에서 효능의 일부와 치료가 효과를 발휘하게 하는 요인이 약 40~50%의 효과가 치료사와의 교감에서 나온다는 것을 알고 있습니다."라고 James의 임상 심리학자이자 부교수인 Maria Hennessy는 말합니다. 쿡 대학교는 알자지라에 말했습니다. "그것은 심리 치료가 얼마나 효과적인지의 큰 부분을 차지합니다."
현재의 챗봇은 이러한 종류의 상호 작용이 불가능하며 ChatGPT의 자연어 처리 기능은 인상적이지만 한계가 있다고 Hennessy는 말했습니다.
“결국, 그것은 환상적인 컴퓨터 프로그램입니다.”라고 그녀는 말했습니다. "그게 다야."
이달 초 중국 사이버 공간 관리국은 AI 개발 및 사용에 대한 규정 초안을 발표했습니다. [파일: Thomas Peter/Reuters]
Amelia Fiske 뮌헨공과대학 의학사윤리연구소 선임 연구원은 미래 정신건강 치료에서 AI의 위치는 양자택일 상황이 아닐 수 있다고 말했다. 인간 치료사와 함께.
Fiske는 "명심해야 할 중요한 점은 사람들이 치료에서 AI 사용에 대해 이야기할 때 모든 것이 Wysa처럼 보이거나 Woebot처럼 보인다는 가정이 있다는 것입니다. 그럴 필요가 없습니다."라고 말했습니다. 알 자지라.
일부 전문가들은 AI가 연구를 수행하거나 인간 치료사가 환자의 진행 상황을 평가하도록 돕는 것과 같이 무대 뒤에서 가장 가치 있는 용도를 찾을 수 있다고 생각합니다.
“이러한 기계 학습 알고리즘은 데이터의 패턴을 식별할 때 전문가 규칙 시스템보다 낫습니다. 취리히 대학의 생물 의학 윤리 및 의학사 연구소의 윤리학자이자 질적 연구원인 Tania Manríquez Roa는 Al Jazeera에 말했습니다.
"정신 건강에 대한 연구를 수행하는 데 매우 도움이 될 수 있으며 예를 들어 우울증이나 불안과 같은 재발의 초기 징후를 식별하는 데에도 매우 도움이 될 수 있습니다."
Manríquez Roa는 AI가 임상 치료를 위한 대체 수단으로 사용될 수 있을지 회의적이라고 말했습니다.
Manríquez Roa는 "이러한 알고리즘과 인공 지능은 어떤 면에서는 매우 유망하지만 매우 해로울 수도 있다고 생각합니다."라고 말했습니다.
"정신 건강 관리에 대해 이야기할 때 우리는 치료 및 적절한 치료 기준에 대해 이야기하기 때문에 정신 건강 치료에 관해서는 알고리즘과 기계 학습에 대해 양가적인 태도를 취하는 것이 옳다고 생각합니다."
"우리가 앱이나 알고리즘에 대해 생각할 때 … 때때로 AI는 우리의 문제를 해결하지 못하고 더 큰 문제를 일으킬 수 있습니다."라고 그녀는 덧붙였습니다. “'알고리즘이 꼭 필요한가?' 필요하다면 어떤 종류의 알고리즘을 사용할 것인가?”
출처 : 알 자지라