콘텐츠를 평가할 수 있도록 소셜 미디어 사용자에게 권한을 부여하면 잘못된 정보를 방지하는 데 도움이 됩니다.
사용자의 손에 중재를 제공하는 실험적 플랫폼은 사람들이 게시물을 효과적으로 평가하고 평가를 다른 사람들과 공유한다는 것을 보여줍니다.
날짜:
2022년 11월 16일
원천:
매사추세츠 공과대학
요약:
연구자들은 소셜 미디어 플랫폼 프로토타입을 구축하여 사용자가 콘텐츠의 정확성을 평가하고 다른 사람의 정확성 평가를 기반으로 게시물을 제어할 수 있는 권한을 더 많이 부여하는 효과를 연구했습니다. 사용자는 사전 교육을 받지 않았음에도 불구하고 정확한 평가를 할 수 있었고, 자신이 설계한 평가 및 필터링 도구를 소중히 여기고 활용했습니다.
잘못된 정보의 확산과 싸울 때 소셜 미디어 플랫폼은 일반적으로 대부분의 사용자를 조수석에 배치합니다. 플랫폼은 종종 머신 러닝 알고리즘이나 인간 팩트 체커를 사용하여 사용자에게 허위 또는 잘못된 정보를 제공하는 콘텐츠에 플래그를 지정합니다.
MIT CSAIL(Computer Science and Artificial Intelligence Laboratory)의 대학원생인 Farnaz Jahanbakhsh는 "이것이 현 상태라고 해서 이것이 올바른 방법이거나 유일한 방법이라는 의미는 아닙니다."라고 말합니다.
그녀와 그녀의 협력자들은 대신 소셜 미디어 사용자의 손에 그 힘을 부여하는 연구를 수행했습니다.
그들은 먼저 소셜 미디어에서 잘못된 정보를 피하거나 필터링하는 방법을 알아보기 위해 사람들을 설문 조사했습니다. 연구원들은 연구 결과를 사용하여 사용자가 콘텐츠의 정확성을 평가하고, 정확성을 평가하기 위해 신뢰하는 사용자를 표시하고, 이러한 평가를 기반으로 피드에 표시되는 게시물을 필터링할 수 있는 프로토타입 플랫폼을 개발했습니다.
현장 조사를 통해 사용자가 사전 교육을 받지 않고도 잘못된 정보를 제공하는 게시물을 효과적으로 평가할 수 있음을 발견했습니다. 또한 사용자는 구조화된 방식으로 게시물을 평가하고 평가를 볼 수 있는 기능을 높이 평가했습니다. 연구자들은 또한 참가자들이 콘텐츠 필터를 다르게 사용하는 것을 발견했습니다. 예를 들어 일부는 모든 잘못된 콘텐츠를 차단하고 다른 일부는 필터를 사용하여 그러한 기사를 찾았습니다.
이 작업은 조정에 대한 분산된 접근 방식이 소셜 미디어에서 더 높은 콘텐츠 신뢰성으로 이어질 수 있음을 보여줍니다.라고 Jahanbakhsh는 말합니다. 이 접근 방식은 또한 중앙 집중식 조정 체계보다 더 효율적이고 확장 가능하며 플랫폼을 불신하는 사용자에게 어필할 수 있다고 그녀는 덧붙입니다.
"잘못된 정보에 대한 많은 연구는 사용자가 무엇이 진실이고 무엇이 거짓인지 결정할 수 없다고 가정하므로 우리는 그들을 도와야 합니다. 우리는 그것을 전혀 보지 못했습니다. 우리는 사람들이 실제로 콘텐츠를 면밀히 조사하고 그들은 또한 서로를 도우려고 노력합니다. 그러나 이러한 노력은 현재 플랫폼에서 지원되지 않습니다."라고 그녀는 말합니다.
Jahanbakhsh는 University of Washington Allen School of Computer Science and Engineering의 조교수인 Amy Zhang과 함께 논문을 작성했습니다. 수석 저자인 CSAIL의 컴퓨터 과학 교수인 David Karger가 있습니다. 이 연구는 컴퓨터 지원 협동 작업 및 소셜 컴퓨팅에 관한 ACM 컨퍼런스에서 발표될 예정입니다.
잘못된 정보와의 싸움
잘못된 온라인 정보의 확산은 광범위한 문제입니다. 그러나 현재 소셜 미디어 플랫폼에서 잘못된 콘텐츠를 표시하거나 제거하는 데 사용하는 방법에는 단점이 있습니다. 예를 들어, 플랫폼이 게시물을 평가하기 위해 알고리즘이나 팩트 체커를 사용하는 경우 이러한 노력을 언론의 자유를 침해하는 것으로 해석하는 사용자들 사이에 긴장이 조성될 수 있습니다.
Jahanbakhsh는 "때때로 사용자는 자신의 친구나 가족이 무엇에 노출되어 있는지 알고 싶어 피드에 잘못된 정보가 표시되기를 원하므로 언제 어떻게 그들에게 이야기해야 하는지 알고 싶어합니다."라고 덧붙입니다.
사용자는 종종 스스로 잘못된 정보를 평가하고 표시하려고 하며 친구와 전문가에게 읽고 있는 내용을 이해하도록 도와달라고 요청하여 서로를 돕습니다. 그러나 이러한 노력은 플랫폼에서 지원하지 않기 때문에 역효과를 낼 수 있습니다. 사용자는 오해의 소지가 있는 게시물에 댓글을 남기거나 화난 이모티콘으로 반응할 수 있지만 대부분의 플랫폼은 이러한 행동을 참여의 신호로 간주합니다. 예를 들어 Facebook에서 이는 사용자의 친구와 팔로워를 포함하여 더 많은 사람들에게 잘못된 정보를 제공하는 콘텐츠가 표시될 수 있음을 의미할 수 있습니다. 이는 이 사용자가 원하는 것과 정반대입니다.
이러한 문제와 함정을 극복하기 위해 연구자들은 사용자가 게시물에 대한 구조화된 정확성 평가를 제공하고 볼 수 있는 기능을 제공하고, 게시물을 평가하기 위해 신뢰하는 다른 사람을 지정하고, 필터를 사용하여 피드에 표시되는 콘텐츠를 제어할 수 있는 플랫폼을 만들려고 했습니다. 궁극적으로 연구원의 목표는 사용자가 소셜 미디어에서 잘못된 정보를 평가하도록 서로 쉽게 도와 모든 사람의 작업 부하를 줄이는 것입니다.
연구자들은 페이스북과 메일링 리스트를 통해 모집한 192명을 대상으로 설문조사를 시작하여 사용자들이 이러한 기능을 가치 있게 여기는지 알아보았습니다. 설문 조사에 따르면 사용자는 잘못된 정보를 매우 잘 알고 있으며 이를 추적하고 보고하려고 하지만 자신의 평가가 잘못 해석될 수 있다는 두려움이 있습니다. 그들은 콘텐츠를 평가하려는 플랫폼의 노력에 회의적입니다. 그리고 신뢰할 수 없는 콘텐츠를 차단하는 필터는 원하지만 플랫폼에서 운영하는 필터는 신뢰하지 않습니다.
연구원들은 이러한 통찰력을 사용하여 Trustnet이라는 Facebook과 유사한 프로토타입 플랫폼을 구축했습니다. Trustnet에서 사용자는 실제 전체 뉴스 기사를 게시 및 공유하고 서로 팔로우하여 다른 사람이 게시한 콘텐츠를 볼 수 있습니다. 그러나 사용자가 Trustnet에 콘텐츠를 게시하기 전에 해당 콘텐츠를 정확하거나 부정확한 것으로 평가하거나 다른 사람이 볼 수 있는 진실성에 대해 문의해야 합니다.
"사람들이 잘못된 정보를 공유하는 이유는 일반적으로 무엇이 진실이고 무엇이 거짓인지 모르기 때문이 아닙니다. 오히려 공유하는 순간 다른 것에 관심이 잘못 향합니다. 공유하기 전에 내용을 평가하도록 요청하면 , 그것은 그들이 더 분별력이 있도록 도와줍니다."라고 그녀는 말합니다.
사용자는 콘텐츠 평가를 볼 수 있는 신뢰할 수 있는 개인을 선택할 수도 있습니다. 그들은 사회적으로 연결되어 있지만 콘텐츠 평가를 신뢰하지 않는 사람(예: 친구 또는 가족)을 팔로우하는 경우 사적인 방식으로 이 작업을 수행합니다. 이 플랫폼은 또한 사용자가 게시물을 평가한 방식과 대상에 따라 피드를 구성할 수 있는 필터를 제공합니다.
트러스트넷 테스트
프로토타입이 완성되면 14명이 1주일 동안 플랫폼을 사용하는 연구를 수행했습니다. 연구자들은 사용자가 교육을 받지 않았음에도 불구하고 종종 전문 지식, 콘텐츠 소스를 기반으로 하거나 기사의 논리를 평가하여 콘텐츠를 효과적으로 평가할 수 있음을 발견했습니다. 또한 필터를 다르게 활용했지만 필터를 사용하여 피드를 관리할 수 있었습니다.
"이렇게 작은 샘플에서도 모든 사람이 자신의 뉴스를 같은 방식으로 읽고 싶어하지 않는다는 사실이 흥미로웠습니다. 때로는 사람들이 자신의 피드에 잘못된 정보를 제공하는 게시물을 포함하기를 원했습니다. 이제 소셜 미디어 플랫폼에서 사라졌으며 사용자에게 다시 제공되어야 합니다."라고 그녀는 말합니다.
일부는 참이고 일부는 거짓인 여러 주장이 포함되어 있거나 헤드라인과 기사가 분리된 경우 사용자는 때때로 콘텐츠를 평가하는 데 어려움을 겪었습니다. 이것은 사용자에게 더 많은 평가 옵션을 제공해야 할 필요성을 보여줍니다. 아마도 기사가 사실이지만 오해의 소지가 있거나 정치적 성향이 포함되어 있다고 진술하는 것일 수 있다고 그녀는 말합니다.
Trustnet 사용자는 때때로 콘텐츠가 헤드라인과 일치하지 않는 기사를 평가하는 데 어려움을 겪었기 때문에 Jahanbakhsh는 사용자가 뉴스 헤드라인을 기사 콘텐츠와 더 일치하도록 수정할 수 있는 브라우저 확장을 만들기 위한 또 다른 연구 프로젝트를 시작했습니다.
이러한 결과는 사용자가 잘못된 정보와의 싸움에서 보다 적극적인 역할을 할 수 있음을 보여주지만 Jahanbakhsh는 사용자에게 이러한 권한을 부여하는 것이 만병통치약이 아니라고 경고합니다. 우선 이 접근 방식은 사용자가 같은 생각을 가진 출처의 정보만 보는 상황을 만들 수 있습니다. 그러나 필터와 구조화된 평가를 재구성하여 해당 문제를 완화할 수 있다고 그녀는 말합니다.
Trustnet 개선 사항을 탐색하는 것 외에도 Jahanbakhsh는 아마도 게임화를 통해 사람들이 다른 관점을 가진 사람들의 콘텐츠 평가를 읽도록 장려할 수 있는 방법을 연구하기를 원합니다. 그리고 소셜 미디어 플랫폼은 변경을 꺼릴 수 있기 때문에 그녀는 사용자가 플랫폼이 아닌 일반 웹 브라우징을 통해 콘텐츠 평가를 게시하고 볼 수 있는 기술도 개발하고 있습니다.
출처 : https://www.sciencedaily.com/