현재 대한민국의 정치 양극화는 매우 심각한 상태이다. 이에 대해 알고리즘에 의한 편향적 정보 제공과 습득으로 인해 개인의 생각이 고착화되어 다른 의견을 가진 개인과의 대화 가능성이 차단되었다는 분석이 있다.
전문가들은 알고리즘이 우리를 어떤 세계관 안에 가둬 버리고 극단화시키는 힘을 갖고 있으며, “알고리즘은 사악하다”, “사회 분열을 조장하고 민주주의를 위협한다”고 까지 말한다. 이렇듯 알고리즘으로 인해 특정 생각에 갇히는 현상을 ‘에코체임버(Echo Chamber)’라고 하는데, 자신이 만든 에코가 다시 자신에게 돌아오고, 잠깐 검색했던 정보 등이 무한 증폭해 반복적으로 보여지는 현상이다.
이러한 확증편향 문제를 완화하기 위해 크게 두 가지의 개선 방향이 제기된다. 첫째는 알고리즘 자체보다는 현실에서 문제를 찾고 해결하는 쪽이다. 정치 정당의 변화가 필요하며, 유튜브 자체가 중요하다기보다는 한쪽 이야기를 편중해 듣는 ‘그 상황’이 문제임을 주장한다. 두 번째는 확증편향성을 줄이는 방향의 새로운 알고리즘을 도입하자는 쪽이다. 정파적인 적대감을 완화할 수 있도록 민주주의적 가치를 추천 알고리즘 보상 요소에 투영토록 플랫폼 기업들을 압박한다거나, 가교 기반 알고리즘(Bridging Based Algorithm) 등 분열을 해소하는 행동에 보상을 제공하는 알고리즘을 제시하기도 하고, 알고리즘에 ‘망각’을 도입하여 맞춤 콘텐츠들을 ‘리셋’하자는 의견도 있다. 즉 추천 알고리즘이 민주주의 근간을 흔드는 강력한 영향력을 가진 AI 시스템이 될 수 있다는 관점에서 법·제도에 기반한 추천 알고리즘 관리 필요성을 주장하는 것이다.
그런데 최근 가디언에서 발표한 AI 신문을 통한 저널리즘 실험의 경우는 알고리즘에 의존한 사실 정보 전달을 공식화했다. 또한 행정 처분에서 AI 기술을 활용하는 사례가 점차 늘고 있다. 공공 언론과 기관에서 정보를 제공하고 선별하는 방식으로 AI 알고리즘을 채택한 것이다. 이는 유튜브나 각종 sns 등 사적 영역에서의 알고리즘 활용이 공적 영역으로 확대된 현상으로 해석될 수 있다.
이러한 사실들에 기반하여,
1. 알고리즘에 의한 확증편향은 현실의 문제를 해결하는 방향과 새로운 기술을 제도적으로 도입하는 방향 중 어느 방향에 더욱 초점을 맞추어야 하는가? 기사에서 제시한 방향들이 실현 가능성이 있는 방안들이라고 생각하는가?
2. 민주주의의 기반이자 정보를 제공하는 역할을 하는 언론과 정부 행정을 처리하는 공공 기관에 AI 기술을 도입하는 것에 대해 어떻게 생각하는가?
+ 위 질문에 대한 답변 외에도 AI알고리즘과 정보편향성, 민주주의, 정치 양극화 등의 주제에 대한 자유로운 생각도 듣고 싶습니다 :)
첫댓글1. 알고리즘에 의한 확증편향을 해결하는 데 있어서, 현실의 문제를 해결하는 방향이 가장 근본적인 해결책이지만 실현 가능성은 낮다고 생각한다. 왜냐하면, 사람들은 정보를 접하고 나서 생각이 변하기보다는 기존의 생각을 강화하는 방식으로 정보를 선택적으로 소비하는 경향이 있다고 생각하기 때문이다. 그렇기 때문에, 단순히 현실에서 다양한 정보를 제공한다고 해서 확증편향이 쉽게 해결되지는 않을 것으로 생각한다. 또한, 현실의 문제를 해결하는 방향은 개인의 인식과 태도를 변화시키는 과정을 포함한다고 생각하는데, 이는 상당한 시간과 노력이 필요할 뿐만 아니라, 사람들의 자발적인 노력이 없으면 효과를 거두기 어렵다. 더군다나 이미 확증편향이 심화된 상황에서 이러한 노력이 가능할 지에 대해서는 더더욱 실현 가능성이 낮다고 생각된다. 반면, 새로운 기술을 제도적으로 도입하는 방식은 앞서 말한 현실의 문제를 해결하는 방식보다, 기사에서 제시한 알고리즘 리셋과 같은 방안이 확증편향을 줄이는 데 효과적일 것으로 생각한다. 사람들의 생각을 조정하는 것보다 알고리즘을 조정하여 편향성을 줄이는 것이 더 실현 가능성이 있다고 생각하기 때문이다.
2. AI 기술을 도입하는 것에 대해 전적으로 찬성하는 입장은 아니지만, 감정과 주관이 개입될 수 있는 인간보다 오히려 더 객관적이고 일관된 판단을 내릴 가능성이 있다는 점은 인정할 만하다. 특히, 현재와 같이 알고리즘이 확증편향을 심화시키고, 언론과 정부 행정이 객관적인 정보 제공자 역할을 제대로 수행하지 못하는 상황에서는, 오히려 AI가 보다 중립적인 정보를 제공할 수 있는 대안이 될 수도 있다고 생각한다. 그러나 AI 활용에는 분명한 한계가 존재한다. 기사에서도 언급되었듯이, AI가 생성한 기사들은 체계적이고 문법적으로 정확했지만, 인간(취재원)의 직접적인 인용이 없었다는 점이 지적되었다. 이는 AI가 사회적 맥락을 파악하거나 사람들의 의도를 해석하는 데 한계를 가진다는 점을 보여준다. 객관적인 정보 제공만을 고려한다면 AI가 효율적일 수 있으나, 인간 사회에서 중요한 요소인 ‘의도’와 ‘맥락’을 고려하는 것은 여전히 인간이 더 적합하다고 본다.
@하연 그래도 우려되는 문제는, 인간이 의도를 해석하는 과정에서도 편향이 개입될 수 있다는 점이다. 결국, 인간의 주관성과 AI의 비인간적인 기계적 판단 중 어느 것이 더 나은지 단정하기 어렵다. 따라서, 단순히 AI 혹은 인간 중 하나를 선택하는 것이 아니라, AI의 객관성과 인간의 맥락 이해 능력을 결합하는 방식이 보다 현실적인 해결책이 될 수 있을 것이라는 생각이 든다.
1. 현실의 문제를 해결하는 것을 우선시해야 한다. 인공지능 기술의 제도화는 필수적이지만, 현재 이미 양극화가 심한 현재, 이 문제를 해결하지 않고 기술의 제도화를 시도한다면 시민들의 반응이 온건하지만은 아닐 것이다. 기사에서 제시한 방안 중, ‘가교 기반 알고리즘’은 실행해 봄 직한 방안이다. 콘텐츠를 생성하는 사람들은 경제적인 이득을 추구하여 극단적인 주장을 하는 경우가 있는데 그것을 방지할 수 있으며, 시청자의 에코 체임버를 깨뜨려 극단성이 완화될 것을 기대할 수 있다.
2. 사회 전반적인 곳에 인공지능 기술의 도입은 더 이상 찬반의 문제가 아닌, 대비의 문제다. 법은 늘 기술에 뒤처지기에 공백이 생길 수밖에 없다. 하지만 그 공백을 최대한 메꾸기 위하여 준비할 수 있다. 인공지능의 기술을 어느정도 사용할 것이며 그로 인한 문제가 발생했을 때 누가 책임을 질 것인 것 논의해 보아야 한다.
1. 현실의 문제를 해결하는 것이 근본의 뿌리를 뽑는 것과도 같다고 생각한다. 새로운 기술만 도입해봤자 안에서 곪아가는 상처에 겉에 밴드만 계속 갈아주는 격이 될 것 같기 때문이다. 그러나 새로운 기술을 도입하는 것에 있어서 근원도 함께 해결되고 변화될 수 있는 것이 있다면ㄱ 그런 기술은 좋은영향을 미칠 것 같다. 다만 기술은 부수적인 수단이 되어야 한다고 생각한다. 2. AI가 인간보다 더 똑똑하다는 생각을 하고 이용하는 것은 위험하다. 인간이 할 수 있는 일들 중 반복적이고 계산적인일들을 효율적으로 처리하는 것에 이용하는 것이 안전하다고는 생각한다
1. 제도적으로 도입하되 가교-기반 인공지능 같이 시민들의 중립성을 유도할 수 있는 방향으로 도입되어야한다고 생각한다. 제도적 도입과 동시에 현실정치의 양극화에 대한 해결책으로서도 기능할 수 있는 것이다. 다른 대안을 제시하자면, Ground News 혹은 AllSides와 같이 메타적으로 언론들의 정치편향성을 나타내는 앱들을 통해서만 뉴스/신문기사를 접할 수 있게 함으로서 시민 개개인이 접하고 있는 정보의 원천이 어떤 편향성의 맥락안에 있는지 정도는 알 수 있게 하는 방법도 있다. 이런 방법으로 시민들은 자신들이 어떤 편향적이고 선동적인 정보원천에 휩쓸일 가능성이 존재한다는 사실을 깨닫게 될 것이다. 나는 이러한 깨달음만으로도 정치적 양극화는 많은 부분 해소될 것이라고 생각한다.
2. 우리는 데이터가 곧 권력으로 직결되는 시대에서 살고 있다. 데이터의 처리시간이 더 빨라진다면 더 큰 행정의 효율과 비용절감을 노려볼 수 있을 것이다. 물론 보안상의 문제도 존재한다. 한 국가의 시민들의 정보가 그 국가가 사용하는 인공지능의 보안 오류로 인해 노출될 시 선거개입, 사적 권리 침해 등 여러 문제점들을 맞닥뜨릴 수도 있다.
새로운 기술을 제도적으로 도입하는 것이 우선시 되어야 한다고 생각한다. 우리 사회는 이미 도입된 ai기술만으로도 그동안 없었던 새로운 갈등과 문제를 맞이했다. 그래서 현실의 문제를 해결하지 않은 채 새로운 기술을 제도적으로 도입하여 현재 발생하는 알고리즘에 의한 확증 편향 문제를 해결하는 것이 모순된다고 생각할 여지도 있다. 그러나 나는 새로운 기술을 도입하는 것도 현실의 문제를 해결하기 위한 한 방안이며 끊임없이 과학기술의 발전이 이뤄지는 현대에서는 필연적으로 등장하게되는 문제의 해결 방법이라고 생각한다. 예를 들어 알고리즘에 의한 확증편향과 양극화를 해결하기 위해 새로운 제도적 기술인 가교 알고리즘을 도입한다고 했을 때 역시, 현실에서 일어나는 문제인 알고리즘으로 인한 양극화 문제를 새로운 기술인 가교 알고리즘으로 해결하는 것이다. 즉 새로운 기술을 도입함으로써 현실의 문제를 해결하는 것이다. 여지껏 인간사회는 불편과 문제를 겪고 그 불편을 해결하기위한 기술을 만듦으로써 발전해왔다. Ai역시 같은 맥락으로 이해하자면 문제해결을 위해 새로운 기술을 도입하는 것이 기술발전과 ai로 인한 문제 해결 측면에서 두 마리 토끼를 다 잡을 수 있는 일이라고 생각한다.
나는 언젠가는 ai기술이 언론이나 공공기관에 도입될 것이라고 생각한다. 그러나 아직 언론과 공공기관에 ai를 도입하는 것은 시기상조라고 생각한다. 언론과 공공기관의 공통적인 특징이자 가장 중요한 가치는 중립성이라고 생각한다. 그러나 과연 ai가 중립적일까? 위 기사에도 나와있듯 재범 예측 프로그램 ‘콤파스’는 백인보다 흑인의 재범 위험률을 높게 예측했다. 또 현재 알고리즘은 사용자의 영향에서 완전히 자유로울 수 없다. 알고리즘을 기반으로 사용자의 입맛에 맞춘 영상들이 뜨는 유튜브도 그 예시이다. 무엇보다 ai는 현재까지 쌓여있는 모든 데이터들을 수집하고 분석하며 의사결정을 한다. 인류가 지금까지 쌓아온 데이터가 중립적이지 않은 경우가 많은데 ai는 이를 그대로 학습하고 결론을 내리게 되는 것이다. 따라서 ai의 판단이 중립적인것처럼 보일지라도 사실은 중립에서 멀어진 판단일 수 있다. 그래서 현재 중립성을 철저히 보장할 수 없는 ai를 언론과 공공기관에 도입하는 것은 불가능하다고 생각한다.
첫댓글 1. 알고리즘에 의한 확증편향을 해결하는 데 있어서, 현실의 문제를 해결하는 방향이 가장 근본적인 해결책이지만 실현 가능성은 낮다고 생각한다.
왜냐하면, 사람들은 정보를 접하고 나서 생각이 변하기보다는 기존의 생각을 강화하는 방식으로 정보를 선택적으로 소비하는 경향이 있다고 생각하기 때문이다. 그렇기 때문에, 단순히 현실에서 다양한 정보를 제공한다고 해서 확증편향이 쉽게 해결되지는 않을 것으로 생각한다.
또한, 현실의 문제를 해결하는 방향은 개인의 인식과 태도를 변화시키는 과정을 포함한다고 생각하는데, 이는 상당한 시간과 노력이 필요할 뿐만 아니라, 사람들의 자발적인 노력이 없으면 효과를 거두기 어렵다. 더군다나 이미 확증편향이 심화된 상황에서 이러한 노력이 가능할 지에 대해서는 더더욱 실현 가능성이 낮다고 생각된다.
반면, 새로운 기술을 제도적으로 도입하는 방식은 앞서 말한 현실의 문제를 해결하는 방식보다, 기사에서 제시한 알고리즘 리셋과 같은 방안이 확증편향을 줄이는 데 효과적일 것으로 생각한다. 사람들의 생각을 조정하는 것보다 알고리즘을 조정하여 편향성을 줄이는 것이 더 실현 가능성이 있다고 생각하기 때문이다.
2. AI 기술을 도입하는 것에 대해 전적으로 찬성하는 입장은 아니지만, 감정과 주관이 개입될 수 있는 인간보다 오히려 더 객관적이고 일관된 판단을 내릴 가능성이 있다는 점은 인정할 만하다. 특히, 현재와 같이 알고리즘이 확증편향을 심화시키고, 언론과 정부 행정이 객관적인 정보 제공자 역할을 제대로 수행하지 못하는 상황에서는, 오히려 AI가 보다 중립적인 정보를 제공할 수 있는 대안이 될 수도 있다고 생각한다.
그러나 AI 활용에는 분명한 한계가 존재한다. 기사에서도 언급되었듯이, AI가 생성한 기사들은 체계적이고 문법적으로 정확했지만, 인간(취재원)의 직접적인 인용이 없었다는 점이 지적되었다. 이는 AI가 사회적 맥락을 파악하거나 사람들의 의도를 해석하는 데 한계를 가진다는 점을 보여준다. 객관적인 정보 제공만을 고려한다면 AI가 효율적일 수 있으나, 인간 사회에서 중요한 요소인 ‘의도’와 ‘맥락’을 고려하는 것은 여전히 인간이 더 적합하다고 본다.
@하연 그래도 우려되는 문제는, 인간이 의도를 해석하는 과정에서도 편향이 개입될 수 있다는 점이다. 결국, 인간의 주관성과 AI의 비인간적인 기계적 판단 중 어느 것이 더 나은지 단정하기 어렵다. 따라서, 단순히 AI 혹은 인간 중 하나를 선택하는 것이 아니라, AI의 객관성과 인간의 맥락 이해 능력을 결합하는 방식이 보다 현실적인 해결책이 될 수 있을 것이라는 생각이 든다.
1. 현실의 문제를 해결하는 것을 우선시해야 한다. 인공지능 기술의 제도화는 필수적이지만, 현재 이미 양극화가 심한 현재, 이 문제를 해결하지 않고 기술의 제도화를 시도한다면 시민들의 반응이 온건하지만은 아닐 것이다.
기사에서 제시한 방안 중, ‘가교 기반 알고리즘’은 실행해 봄 직한 방안이다. 콘텐츠를 생성하는 사람들은 경제적인 이득을 추구하여 극단적인 주장을 하는 경우가 있는데 그것을 방지할 수 있으며, 시청자의 에코 체임버를 깨뜨려 극단성이 완화될 것을 기대할 수 있다.
2. 사회 전반적인 곳에 인공지능 기술의 도입은 더 이상 찬반의 문제가 아닌, 대비의 문제다. 법은 늘 기술에 뒤처지기에 공백이 생길 수밖에 없다. 하지만 그 공백을 최대한 메꾸기 위하여 준비할 수 있다. 인공지능의 기술을 어느정도 사용할 것이며 그로 인한 문제가 발생했을 때 누가 책임을 질 것인 것 논의해 보아야 한다.
1. 현실의 문제를 해결하는 것이 근본의 뿌리를 뽑는 것과도 같다고 생각한다. 새로운 기술만 도입해봤자 안에서 곪아가는 상처에 겉에 밴드만 계속 갈아주는 격이 될 것 같기 때문이다. 그러나 새로운 기술을 도입하는 것에 있어서 근원도 함께 해결되고 변화될 수 있는 것이 있다면ㄱ 그런 기술은 좋은영향을 미칠 것 같다. 다만 기술은 부수적인 수단이 되어야 한다고 생각한다.
2. AI가 인간보다 더 똑똑하다는 생각을 하고 이용하는 것은 위험하다. 인간이 할 수 있는 일들 중 반복적이고 계산적인일들을 효율적으로 처리하는 것에 이용하는 것이 안전하다고는 생각한다
1. 제도적으로 도입하되 가교-기반 인공지능 같이 시민들의 중립성을 유도할 수 있는 방향으로 도입되어야한다고 생각한다. 제도적 도입과 동시에 현실정치의 양극화에 대한 해결책으로서도 기능할 수 있는 것이다. 다른 대안을 제시하자면, Ground News 혹은 AllSides와 같이 메타적으로 언론들의 정치편향성을 나타내는 앱들을 통해서만 뉴스/신문기사를 접할 수 있게 함으로서 시민 개개인이 접하고 있는 정보의 원천이 어떤 편향성의 맥락안에 있는지 정도는 알 수 있게 하는 방법도 있다. 이런 방법으로 시민들은 자신들이 어떤 편향적이고 선동적인 정보원천에 휩쓸일 가능성이 존재한다는 사실을 깨닫게 될 것이다. 나는 이러한 깨달음만으로도 정치적 양극화는 많은 부분 해소될 것이라고 생각한다.
2. 우리는 데이터가 곧 권력으로 직결되는 시대에서 살고 있다. 데이터의 처리시간이 더 빨라진다면 더 큰 행정의 효율과 비용절감을 노려볼 수 있을 것이다. 물론 보안상의 문제도 존재한다. 한 국가의 시민들의 정보가 그 국가가 사용하는 인공지능의 보안 오류로 인해 노출될 시 선거개입, 사적 권리 침해 등 여러 문제점들을 맞닥뜨릴 수도 있다.
새로운 기술을 제도적으로 도입하는 것이 우선시 되어야 한다고 생각한다. 우리 사회는 이미 도입된 ai기술만으로도 그동안 없었던 새로운 갈등과 문제를 맞이했다. 그래서 현실의 문제를 해결하지 않은 채 새로운 기술을 제도적으로 도입하여 현재 발생하는 알고리즘에 의한 확증 편향 문제를 해결하는 것이 모순된다고 생각할 여지도 있다. 그러나 나는 새로운 기술을 도입하는 것도 현실의 문제를 해결하기 위한 한 방안이며 끊임없이 과학기술의 발전이 이뤄지는 현대에서는 필연적으로 등장하게되는 문제의 해결 방법이라고 생각한다. 예를 들어 알고리즘에 의한 확증편향과 양극화를 해결하기 위해 새로운 제도적 기술인 가교 알고리즘을 도입한다고 했을 때 역시, 현실에서 일어나는 문제인 알고리즘으로 인한 양극화 문제를 새로운 기술인 가교 알고리즘으로 해결하는 것이다. 즉 새로운 기술을 도입함으로써 현실의 문제를 해결하는 것이다. 여지껏 인간사회는 불편과 문제를 겪고 그 불편을 해결하기위한 기술을 만듦으로써 발전해왔다. Ai역시 같은 맥락으로 이해하자면 문제해결을 위해 새로운 기술을 도입하는 것이 기술발전과 ai로 인한 문제 해결 측면에서 두 마리 토끼를 다 잡을 수 있는 일이라고 생각한다.
나는 언젠가는 ai기술이 언론이나 공공기관에 도입될 것이라고 생각한다. 그러나 아직 언론과 공공기관에 ai를 도입하는 것은 시기상조라고 생각한다. 언론과 공공기관의 공통적인 특징이자 가장 중요한 가치는 중립성이라고 생각한다. 그러나 과연 ai가 중립적일까? 위 기사에도 나와있듯 재범 예측 프로그램 ‘콤파스’는 백인보다 흑인의 재범 위험률을 높게 예측했다. 또 현재 알고리즘은 사용자의 영향에서 완전히 자유로울 수 없다. 알고리즘을 기반으로 사용자의 입맛에 맞춘 영상들이 뜨는 유튜브도 그 예시이다. 무엇보다 ai는 현재까지 쌓여있는 모든 데이터들을 수집하고 분석하며 의사결정을 한다. 인류가 지금까지 쌓아온 데이터가 중립적이지 않은 경우가 많은데 ai는 이를 그대로 학습하고 결론을 내리게 되는 것이다. 따라서 ai의 판단이 중립적인것처럼 보일지라도 사실은 중립에서 멀어진 판단일 수 있다. 그래서 현재 중립성을 철저히 보장할 수 없는 ai를 언론과 공공기관에 도입하는 것은 불가능하다고 생각한다.