기술 격차 문제와 기술 소외 문제
“커피 주문 어떻게 하나요?” “키오스크로 해주세요.”
“시간이 안 되겠는데요. 주문 취소 어떻게 하지요?” “키오스크로 해주세요.”
“여기요, 궁금한 게 있는데요.” “키오스크로 해주세요.”
많은 사회사업가가 보았던 영화 <나, 다니엘 블레이크 I, Daniel Blake>.
블레이크는 목수로 열심히 살아왔지만 심장병에 걸려 일을 그만 둡니다.
국가 복지 제도에 도움을 요청하지만, 질병 수당에서 탈락합니다.
문제는 이를 바로 잡을 수 있는 방법 대부분이 전화나 온라인 같은 비대면 방식으로 이루어지기 때문에
블레이크와 같은 사람에게는 무용지물입니다.
겨우 만난 담당 사회복지사도 매뉴얼대로만 응대하니, 기계와 다를 바가 없습니다.
결국 제도의 도움을 받지 못하고 생을 마감합니다.
“나 다니엘 블레이크. 개가 아니라 인간입니다.
이에 나는 내 권리를 요구합니다. 인간적 존중을 원합니다.”
사회사업 현장에서 인공지능과 같은 첨단 기술 도입으로 준비할 게 두 가지 있습니다.
기술 격차 현상과 기술 소외 현상.
기술 격차 현상.
기술 진보 사회에서 그런 기술을 사용하지 못하거나 소유할 수 없는 사람이 존재합니다.
기술 격차로 만들어지는 기술 약자에 대한 지원, 즉 인공지능이 만들어낼 ‘디지털 소외’에 대응하는 일입니다.
이는 다시 당사자 지원과 환경 지원, 둘로 나눠 생각합니다.
당사자 지원은 디지털 장벽을 경험하는 어르신이나 지적 약자와 같은 느린 학습자의 디지털 역량을 높이게 지원하는 일입니다.
기술 장비가 없는 사회적 약자에게는 그런 도구를 지원합니다.
달리진 환경에 당사자가 적응할 수 있게 정보를 제공하고 교육과 훈련 프로그램을 실시하며 적절한 도구를 보급하는 일입니다.
당사자 쪽 디지털 역량을 높여 변화한 환경에 적응하게 돕습니다.
환경 지원은 디지털이 일상화 된 사회 환경이 디지털 약자를 배려하는 다양성을 갖추게 하는 일입니다.
개인 역량이 다양한 사용자를 생각하여 당사자 친화적인 디자인을 개발하거나*,
디지털이 일상인 사회 안에서도 여전히 아날로그 방식을 병행하게 합니다.
또한, 디지털 약자를 배려하고 이해하는 사회 문화를 만드는 일에도 마음 씁니다.**
*키오스크 비유 참고. 구슬꿰는실 온라인 카페 (coolwelfare.org) > 지역복지 게시판 > 213번 글 ‘환경 속 인간_높이 조절 키오스크’
**키오스크 앞에서 주저하는 어르신을 재촉하지 않거나, 기꺼이 거드는 문화 따위를 만듭니다.
이런 기술 격차 현상과 함께 조금 더 생각해야 하는 건 기술 소외입니다.
기술 소외 현상.
약자를 돕겠다고 등장한 인공지능이 오히려 약자를 자기 삶에서 소외하는 현상입니다.
사회사업 현장에서 사용하는 인공지능과 같은 첨단 기술이 약자를 더욱 관리 대상으로 만들어버리는,
자기 삶에서 멀어지는 ‘주체’에서 소외.
인공지능이 발전하고 이것이 다양한 정보를 축적한 빅데이터와 결합하는 사회 속에서 복지 서비스 당사자는
더욱 손쉽게 관리할 수 있는 대상으로 다듬어집니다.
당사자의 ‘자기결정권’과 ‘권익 옹호’라는 한국사회복지사 윤리강령의 핵심 주제를 생각한다면,
정보 수집과 축척과 유통과 활용 과정에서 되도록 작은 정보도 당사자의 동의와 허락 아래에서 이뤄져야 합니다.
빅데이터 접근에 관한 권한과 인공지능을 통한 정보 활용 권한을 사회복지사에게만 주어지는 건 위험합니다.
‘개인정보보호에 관한 윤리’는 매우 중요한 문제입니다.
인공지능이란 도구로 당사자의 빅테이터를 쉽게 들여다보고 정보를 조합하여 욕구를 예측합니다.
이런 과정 일부를 당사자가 살필 수 있는 권한을 주는 정도로 ‘사람 중심’이나 ‘당사자 중심’이란 말을 사용하는 건 아쉽습니다.
사회복지사가 당사자에게 권한을 부여함으로써 ‘참여’가 이뤄지는 게 아니라,
처음부터 우리에게는 어떤 권한도 없었습니다. 시작부터 당사자의 삶이었습니다.
자기 삶에 ‘참여’하는 이는 없습니다.
누구에게도 참여를 허락 받으며 지내온 게 아니라 처음부터 내가 가꿔온 내 인생이었습니다.
지금 내가 빅데이터와 인공지능에 기반을 둔 도구의 대상이 된다고 생각했을 때 불편한 마음이 있다면,
사회적 약자에게 적용하는 일 또한 보다 세심하게 살펴봅니다.
게다가 정보 축적과 유통·활용 과정에서 안전장치 없이 유출되는 정보로 우리가 겪는 어려움은 크지 않지만,
사회적 약자에게는 때로는 생존이 달린 문제일 수도 있습니다.
이미 지금도 우리 정보 거의 대부분은 새어 나가고 있을 거란 합리적 의심이 들고 있습니다.
보완에 완벽한 정보시스템은 존재하지 않습니다.
당사자를 생각한다면 처음부터 불필요한 자료를 수집하지 않는 편이 나을 겁니다.
과도하게 수집한 개인 정보가 당사자는 물론,
정보를 수집한 사람조차 언제 어디서 어떻게 쓰이는지 모르는 사회가 될까 두렵습니다.
‘빅데이터’는 정보통신기술이 진보한 사회에서 언제든 조지 오웰 「1984」 속 ‘빅브라더’로 변할 위험이 있습니다.
그런 위험을 막는 안전장치는 당사자의 정보 접근과 통제와 조정을 합리적으로 이뤄가는 데 있습니다.*
*제도적 장치를 어떻게 해야 하는지에 관해서는 당장 지혜가 없습니다. 그러나 해볼 만한 일이 있습니다.
상담 일지, 활동 일지 따위를 작성한 뒤 당사자와 공유합니다.
특히, 전산 입력하는 일지라면 더욱 당사자와 논의하며 작성하거나, 입력 뒤 공유합니다.
소외 집단은 공적 혜택에 접근하거나, 치안 유지가 잘되는 지역을 통행하거나, 의료보험 제도 안으로 들어가거나,
국경을 넘을 때, 더 높은 수준의 데이터 수집 요구에 맞닥뜨린다.
수집된 데이터는 이들을 의심과 추가 조사의 표적으로 삼는 데 이용되면서,
소외 집단의 주변성을 강화하는 작용을 한다.
이들 집단은 부적격하다고 여겨져 처벌적 공공 정책과 집중 감시 대상으로 지목되고,
이런 순환이 다시 시작된다. 이는 일종의 집단적 적신호이자, 되먹임 되는 불평등의 순환 고리이다.
「자동화된 불평등 : 첨단 기술은 어떻게 가난한 사람들을 분석하고, 감시하고, 처벌하는가」
(버지니아 유뱅크스, 북트리거, 2018)
영국 공리주의 사상가 제레미 벤담이 생각한 ‘파놉티콘Panopticon’은
감시탑이 중앙에 있고 그 둘레에 감방이 놓인 원형 감옥입니다.
간수가 위치한 중앙탑에서는 각 감방을 둘러볼 수 있습니다.
죄수들은 누가 언제 자신을 보는지 모르는 불안 속에 놓입니다.
늘 누군가 지켜보고 있다는 위협이 사람들로 하여금 순종과 복종을 만들어 냅니다.
빅토어 마이어 쇤베르거는 <잊혀질 권리*>에서 개인 정보를 쌓아두는 빅데이터와 이를 꺼내 사용하는 인공지능을 빗대어
디지털 시대의 ‘공간적 시간적 원형 감옥’이라고 했습니다.
* <잊혀질 권리> (‘디지털 시대의 원형감옥 당신은 자유로운가’, 빅토어 마이어 쇤베르거, 지식의날개, 2011)
망각이야말로 인류를 성장하게 한 바탕이었습니다.
‘행복’이란 감정이 지속하지 않았기에 또 다른 행복을 쫓아 활동한 결과, 관계를 기반으로 한 ‘사회’를 만들어 냈습니다.
빅토어 마이어 쇤베르거는
‘망각할 수 있기 때문에 우리는 일반화하고, 개념화한다.
덕분에 무엇보다 중요한, 행동할 수 있는 자유를 다시 얻는다’고 했지만,
첨단기술은 이제 모든 기억을 붙잡아두었습니다.*
잊고 싶은 경험조차 영원히 박제되어 완벽히 보관됩니다.
과거 복지 서비스의 대상자였다면, 그 기록은 평생 꼬리표처럼 따라다닙니다.
어느 사회복지사의 부정적 평가서와 문제로만 보는 수식어는 언제까지고 내 이름 앞에 항상 붙어 있을 겁니다.**
‘알코올의존증 김 아무개 케이스’…. 그리고 이런 기록이 앞으로 나를 어떻게 규정하고 어느 쪽으로 몰아갈지 알 수 없습니다.
* 과잉기억증후군. 망각하지 못하는 건 질병입니다. 인간의 망각은 신이 주신 축복이라고 합니다.
** 우리 사회사업 현장에서 온라인 개인 정보에 관한 삭제 연한이나 규정은 아직 없습니다.
개인이 적극 요청하고 요구하지 않는 한, 복지관 같은 곳에서 만들어낸 사회복지 서비스 관련 개인 정보는
기본적으로 축적되고 언제든 검색되는 구조입니다.
첨단 기술을 탑재한 반려로봇과 사물인터넷, 온갖 복지 서비스를 이용하며 동의한 정보들을 통해
차곡차곡 쌓인 나의 빅데이터와 이를 언제나 신속하고 정확하게 호출하여 조합할 수 있는 인공지능.
나보다 나를 더 잘 아는 최신 복지 시스템이 누가 언제 어떻게 나의 욕구를 사정assesment하는지 알지 못합니다.
파놉티콘이 감시자에 대한 복종과 순응을 위해 만들어졌듯,
우리 사회사업 현장에서는 이런 기술의 결과가 사람을 효율적이고 효과적으로 ‘관리’하는 도구로 바뀔 수 있는 위험이 있습니다.
당사자를 옹호하고 응원하는 사회사업가로서 이 과정을 진지하게 지켜보지 않을 수 없습니다.