|
📚 책소개
데이터로서의 ‘우리’의 의미를 누가 해석하는가
오늘날 우리가 디지털 방식으로 네트워크화된 세계에 참여하는 것은 곧 굉장한 양의 데이터를 만들어내는 것이다. 페이스북에 개인 신상 명세를 게시하는 사람부터 출퇴근하면서 휴대폰을 가지고 다니는 사람에 이르기까지, 우리는 결코 예상하지 못할 방식으로 우리 삶의 자국을 남긴다. 그리고 이러한 데이터가 의미하는 바를 해석하는 사람은 분명 우리가 아니다. 즉 디지털 시대에서 우리가 누구인지는, ‘해석된’ 데이터가 우리에 대해 말하는 것으로 결정된다.
이 책은 알고리즘 시대에 정체성이 무엇을 의미하는지, 즉 그것이 어떻게 작동하는지, 우리의 삶이 어떻게 통제되는지, 어떻게 우리의 삶이 통제되는지, 그리고 우리가 그것을 어떻게 저항할 수 있는지를 살펴봄으로써, 알고리즘을 사용해 우리의 디지털 자기를 만들어내는 데 대한 흥미로운 통찰력을 제공할 것이다.
🏫 저자 소개
존 체니-리폴드
미시건 대학교University of Michigan 미국문화학과Department of American Culture와 디지털 연구소Digital Studies Institute 소속 조교수로 디지털 미디어, 정체성, 그리고 프라이버시의 개념 간의 관계를 중심으로 교육과 저술 활동을 하고 있다.
📜 목차
도입
1. 데이터의 규칙에 따라 2. 데이터 전쟁과 데이터감시 3. 우리의 알고리즘적 정체성 4. 방법론 5. 이 책에 대한 개관
1장_ 범주화: 데이터 유용하게 만들기
1. ‘건초 더미’ 속의 ‘바늘’ 2. 측정가능형 정의하기 3. 알고리즘적으로 측정가능형 정의하기 4. 재즈를 학습하는 기계 5. 데이터가 무언가를 의미하도록 만들기 6. 소결론
2장_ 통제: 알고리즘이 당신을 쥐락펴락할 거야
1. 알고리즘적 조절과 통제 2. 커피와 데이터감시 3. 측정가능형의 삶정치 4. 알고리즘적 조절로서의 인공두뇌학 5. 부드러운 삶정치 6. 측정가능형의 중심 찾기 7. 소결론
3장_ 주체성: 그들은 당신이 누구라고 생각하는가?
1. 알고리즘적 ‘시민권’ 2. 알고리즘적 보간補間에 관하여 3. “너와 함께, 검둥이들과 부모님들” 4. ‘우리’는 데이터다 5. 사회적인 것의 중요성 6. 엘스 7. 소결론
4장_ 프라이버시: 죽은 프라이버시든 산 프라이버시든 원해
1. 프라이버시, 여기 편히 잠들다 2. 프라이버시의 법적 유산 3. 알레고리즘 4. 절차적 분인 적법 절차 5. 지버리시와 난독화 6. 분인 프라이버시를 향해 7. 분인 프라이버시는 어떤 모습인가? 8. 불가능성 9. 소결론
결론_ 기계 속의 유령
1. 프라이버시와 사유화 2. 기계 속의 유령 3. 알고리즘 논리의 미래 4. 우리는 데이터다
📖 책 속으로
“실제 삶real life”에서 그 친구는 28세의 여성이었다. 그러나 “구글 삶Google life”에서 그녀는 ‘45세에서 65세’ 사이의 ‘남성’이었다. (중략) 그녀는 (대부분) 나이가 든 남자들이 쓴 논문을 살펴보고 있었고, 나이 든 남자들이 장악하고 있는 분야에 속해 있었으며, 나이 든 남자들의 감독하에서 일을 하고 있었다. 만약 당신이 모든 시간을 온라인에서 세포 생물학에 관한 과학 학술 논문을 읽는 데 보낸다면, 당신이 나이 든 남자가 아닌 누구라고 구글이 생각하지 못할 이유가 어디에 있겠는가?
---「98쪽/ 1장_ 범주화: 데이터 유용하게 만들기」중에서
아이오와주, 디 모인Des Moines에 있는 주 관리들이 독감과 유사한 증상으로 병원에 오는 환자들의 수가 비정상적이라고 생각한다면, 그러한 환자들의 데이터가 수집되고 분석되어 중부 아이오와주에 독감 발생을 공식 선언할 증거로 사용될 것이다. 주 당국은 학교 휴업 결정을 내리고, 손 씻기에 대한 공익광고를 내보내며, 아픈 것으로 의심되는 사람들을 격리할 수 있을 것이다. 그러나 이 방법에는 감추어진 결함이 있는데, 그것은 작동이 지체된다는 점이다. 독감에 걸린 사람은 의사의 진단이 있고서야 비로소 아픈 사람으로 분류될 것인데, 그러한 진단이 내려지기까지는 독감 증세가 나타나고 난 뒤로부터 수 주週가 걸릴 수 있다. 이러한 내재된 잠복성의 부담을 안고 있는 삶정치적 행위주체는 그러한 데이터가 도착할 때까지 결정을 내리는 것을 기다려야 한다.
---「184쪽/ 2장_ 통제: 알고리즘이 당신을 쥐락펴락할 거야」중에서
구글은 강력하게 거의 모든 것을 ‘영어’로 번역한다. 이러한 “모든 길은 ‘영어’로 통한다”는 식의 제국주의적 방법론은 언어에서 언어로의 병렬 비교(‘포르투갈어’에서 ‘러시아어’로)를 생략하며 그 대신 ‘영어’를 언어 연락자(‘포르투갈어’에서 ‘영어’로, ‘영어’에서 ‘러시아어’로)로 사용한다. 구글은 우리 몰래 ‘영어’를 국제 공통어로 사용한다. 그러나 ‘포르투갈어’와 ‘러시아어’ 간에 번역된 문장은 특정 영어 단어와 그것 특유의 역사적 의미에 초점을 맞추지 않는다. 오히려 그것은 수십억 개의 서로 다른 언어 사례들 간의 연관성에 대한 특별할 것 없는 목록을 따른다.
---「256~257쪽 / 3장_ 주체성: 그들은 당신이 누구라고 생각하는가?」중에서
데이터화된 주체 관계 속에서 우리의 역할은 “건초 더미 속의 바늘”이라는 자유주의의 재목적화된 거짓말에 기대지 않고 데이터감시자들 의 “데이터의 바다” 밑을 흐르는 잠류潛流; undercurrent 속에서의 우리의 위치를 적극적으로 이해하는 것이다. 진정한 자기authentic self가 존재하지 않는 것과 매우 흡사하게 바늘 역시 존재하지 않는다. 우리의 데이터는 특별하지 않다. 그것은 특별한 어떤 것을 의미하지 않는다. 구글, 페이스북, 오케이큐피드, 그리고 NSA가 알고리즘적으로 유용하게 만드는 비축된 데이터만이 존재할 뿐이다.
---「261~282쪽 / 3장_ 주체성: 그들은 당신이 누구라고 생각하는가?」중에서
우리 자신에 대한 정보는 권력 체계들이 우리의 포스트휴매너티posthumanity를 이해하는 방식의 토대가 된다. 우리의 성이나 이름을 데이터에서 제거한다고 하더라도 그러한 정보의 통제 능력은 거의 줄어들지 않는다. 인간이 필요로 하는 것으로서 프라이버시에 대해 우리가 가지고 있는 원래의 기대가 이해될 수 있기는 하지만, 마찬가지로 포스트휴먼이 필요로 하는 것으로서 그것의 필요성을 우리가 분명하게 표현하는 방식은 필연적으로 변한다. 분인 세계에서 분인 프라이버시가 개인 프라이버시가 가지고 있는 것과 같은 취약성을 보호하지 않는 것과 마찬가지로, 우리는 이제 프라이버시를 전통적인 자유주의적 개인성에 더는 초점을 맞출 수 없다.
---「337쪽 / 4장_ 프라이버시: 죽은 프라이버시든 산 프라이버시든 원해」중에서
죽지 않은 프라이버시는 프라이버시의 기원, 즉 있어야 할 숨 쉴 공간의 부름에 답하는 프라이버시이다. 그러나 이러한 프라이버시의 존재는 페이스북에게도 매우 중요한데, 왜냐하면 페이스북이 프라이버시를 보호하기를 원하기 때문이 아니라 페이스북은 프라이버시를 이용하기를 원하기 때문이다. 죽은 프라이버시가 여전히 살아 숨 쉬고 있는 그것의 친척으로부터 멀리 떨어져 있어야 하는 것은 중요한데, 왜냐하면 작가 데이비드 셴크David Shenk가 우리의 온라인 활동의 모터를 통해 배출되는 “데이터 스모그data smog”라 부르는 것을 보호하는 프라이버시는 그러한 스모그의 상품화로 이윤을 얻을 수 없는 페이스북을 의미할 것이기 때문이다. 페이스북과 나머지 인터넷 전반의 현재의 사업 논리는 이러한 종류의 프라이버시를 가지지 / 실천하지 않는 우리에게 의지한다.
---「349~350쪽 / 4장_ 프라이버시: 죽은 프라이버시든 산 프라이버시든 원해」중에서
그래서 우리는 우리의 실재가 오로지 데이터뿐인 세계에 살고 있는 것이 아니라, 우리의 실재가 데이터에 의해 증강되는 세계에 살고 있다. 즉, 우리는 이미 데이터로 구성되어 있었다; 우리는 그저 그것을 알지 못했을 뿐이다. 우리는 우리를 데이터로 만들어줄 어떤 불가사의한 기술 발전을 기다릴 필요가 없다. 실제로 데이터는 거의 언제나 우리를 구성해 왔는데, 역사적으로 그것이 지금처럼 알고리즘적이고 편재적이지 않았을 뿐이다.
---「374~375쪽 / 결론_ 기계 속의 유령」중에서
🖋 출판사 서평
네트워크에 접속한 당신은 엄청난 양의 데이터를 삶의 자국으로 남긴다
데이터로서의 우리의 의미를 '누가' 해석하는가?
네트워크화된 사회에 사는 우리는 “데이터로 가득 채워져” 있다. 스마트폰에서 간단한 웹 검색만 하더라도 새로운 긴 데이터 기록이 만들어진다. 여기에는 당신이 처음 검색한 용어, 당신 폰의 위치, 당신이 검색한 시각과 날짜, 당신이 이전 / 이후에 검색한 용어, 당신 폰의 운영체계, 당신 폰의 IP 주소, 심지어 당신 폰에 어떤 앱이 설치되어 있는가 하는 것도 포함된다. 이렇게 집계되는 우리 생활의 데이터는 우리의 디지털 환경에 대한 담론의 지형을 만든다. 이러한 범주적인 결과물이 온라인상에서 당신의 정체성이 된다. 우리가 남긴 데이터의 자취 그리고 그것에 대한 구글이나 페이스북 등의 분석에 따라 우리는 온라인상에서 유명인이 될 수도, 범죄자가 될 수도 있다. 우리의 알고리즘적 정체성이 분分마다 바이트마다 입력하는 것에 따라 달라지기 때문에 우리는 온라인상의 우리 정체성을 실제로 알 수도 없다. 즉, 온라인상의 당신은 당신이 생각하는 당신이 아니다.
당신도 모르게 알고리즘이 당신 세계의 윤곽을 결정한다
우리의 정체성은 우리에게 유용한 것이 아니라 다른 누군가에게 유용하다.
우리의 웹 서핑surfing 데이터, 우리의 얼굴 데이터, 심지어 우리의 친구관계 데이터에 대한 알고리즘의 해석이 온라인상의 정체성에 대한 새로운 독특한 규칙을 설정한다. 그리고 우리의 알고리즘적 정체성은 바로 이러한 규칙을 통해서 만들어진다. 여러 방식의 알고리즘적 처리를 통해 우리의 데이터는 우리가 직접 참여하지 않거나, 우리가 알지 못하거나, 혹은 흔히 우리의 동의 없이 범주적 의미를 할당받는다. 그리고 이러한 식별은 우리의 삶에 다시 영향을 미친다.
이 모든 것이 말하고자 하는 바는 구글과 같은 회사들이 그들의 알고리즘과 우리의 데이터를 사용해 우리의 현재와 미래에 엄청난 힘을 행사하고 또 앞으로도 계속 행사할 역동적인 지식의 세계를 만들어낸다는 것이다. 그리고 우리 역시 계속해서 데이터로 가득 차 있을 것이기 때문에, 이러한 알고리즘의 논리는 이 세계뿐만 아니라 우리도 만들어낸다._ 51쪽
데이터 오류조차 당신을 나타내며, 그 오류가 다시 당신을 규제한다
“만약 그것이 원칙적으로 측정할 수 없거나 측정되어 있지 않다면, 그것은 존재하지 않는다.”
데이터는 당신의 미소를 유형화하면서, 당신의 눈을 형성하는 화소들을 해석하여 판단한다. 인간의 정서가 데이터화하는 것이다. 우리의 정서는 ‘원자를 비트로 바꾸는’ 것만으로는 설명할 수 없는 것들을 가지고 있지만, 데이터에 의해 나타내지고 규제되기까지 한다. 데이터가 백인의 얼굴을 기준으로 할 경우 흑인의 존재는 오류를 일으키며, 데이터가 당신의 몸상태를 해석함에 따라서 당신은 지금 아픈데도 아프지 않은 사람으로 분류된다.
당신은 이전에는 HP의 얼굴 인식 알고리즘에 따라 인식되지 않을 수도 있었지만, 사무실 전등을 새로 구입하자 이제 HP는 당신의 ‘얼굴’을 알아본다. 그리고 어떤 이용자가 한 웹사이트에서 다른 웹사이트로 옮겨 다님에 따라, 그 이용자는 92% ‘남성’에서 몇 초 안에 88% ‘남성’으로 바뀔 수도 있을 것이다. 오늘 당신에게 보이는 이 세계의 모습과 오늘 오후 당신이 누구인가로 보이는 것은 당신이 어젯밤에 한 것에 대한 데이터화된 스크랩으로부터 구성된다. _ 54쪽
당신은 감시당하고 있지만, 감시의 성질은 재구성된다
데이터화된 세계에서 프라이버시의 규칙은 우리의 데이터가 유용해지는 방식에 대한 규칙이다
구글, 마이크로소프트, 야후!는 모든 이용 가능한 데이터로 그들이 동시에 전유專有하고 있는 디지털 왕국을 건설했고 그러한 왕국에 자금을 제공할 수 있었다. 구글은 우리를 “지켜보고” 있지만, 우리 역시 프라이버시에 대한 공식적인 권리를 포기시키는 서비스 계약 조건을 제멋대로 서둘러 받아들이면서 구글 서버에 자발적으로 로그인하고 있다. 이것은 분명 일종의 감시지만 무언가 다른 점도 있다. 이것은 감시와 감시 대상의 성질을 재구성한다. 우리는 구글과 마이크로소프트 그리고 NSA 등에게 감시당하고 있지만, 감시당하는 것은 우리의 자기self가 아니라 우리의 데이터이다. 데이터는 그 자체만으로는 아무런 중요한 의미를 지니지 않는다. 중요한 의미를 지니려면, 데이터는 반드시 유용하게 만들어져야 한다. 따라서 우리는 우리의 데이터에 따라 만들어지는 것이 아니라 그러한 데이터의 해석에 따라 만들어진다.
디지털 시대의 데이터, 새로운 알고리즘적 정체성 톺아보기
1장 ‘범주화: 데이터 유용하게 만들기’
1장에서는 알고리즘 사용 방법, 즉 컴퓨터가 데이터의 패턴을 통해 범주를 만드는 방법에 중점을 둔다. 이 범주들은 저자가 측정가능형으로 부르는 이 세계에 대한 알고리즘적으로 코드 변환되는 아이디어들을 구성한다. 알고리즘은 마법적이지도 않고 신비롭지도 않다. 그 대신, 알고리즘은 매우 복잡하지만, 매우 흥미롭기도 한 서로 다른 기술의 무리를 통해 데이터를 유용하게 만들고, 그런 다음 서로 다른 알고리즘적 정체성을 만들어낸다.
2장 ‘통제: 알고리즘이 당신을 쥐락펴락할 거야’
2장에서는 “시간이 지나면서 빠르게 계속 변하는 자기-변형self-deforming 주형鑄型; mold처럼, 혹은 시시각각 체 눈의 모양이 변하는 체처럼”으로 정의된 질 들뢰즈의 변조 개념을 중심으로 진행된다. 변조 개념의 도움을 받아 필자는, 우리가 온라인에서 만들어내는 넘쳐흐르는 데이터가 통제의 한 유형이 실행되게 하는 데 도움을 주는 방식을 이론화한다. 이러한 유형의 통제는, 전통적인 권력 행사 방식을 일부 학자들이 “통제 없는 통제”라고 불렀고, 저자는 부드러운 삶정치soft biopolitics로 부르는 것으로 대체한다. 이러한 부드러운 삶정치는 우리의 직접적인 참여나 인식 없이 우리의 알고리즘적 정체성이 삶을 규제할 수 있는 방식을 기술한다.
3장 ‘주체성: 그들은 당신이 누구라고 생각하는가?’
3장에서는 알고리즘이 알고리즘적 온라인 생활에 고유한 방식으로 사람들을 주체로 만드는 방법을 탐구한다. 우리의 데이터화된 주체 관계는 오직 데이터를 통해서 수행되며, 데이터는 이러한 급진적 비고정성이 고정되는 곳이다. 우리는 분명 데이터 외부의 권력 관계에 저항할 수 있지만, 만약 그러한 저항이 우리의 알고리즘적 정체성 식별을 거부하고자 하는 것이라면 그것은 반드시 데이터의 규칙 위에서 이루어져야 한다. 물론 이것은 우리가 문자 그대로 데이터로 만들어져 있기 때문이 아니라, 데이터가 이러한 권력의 알고리즘 체계가 알아볼 수 있는 유일한 것이기 때문이다.
4장 ‘프라이버시: 죽은 프라이버시든 산 프라이버시든 원해’
4장에서는 감시 시대에 프라이버시가 가능한지에 대한 질문을 던진다. 저자는 프라이버시가 프라이버시는 그저 당신이 자신의 이메일에 비밀번호를 설정해 놓았는지 혹은 욕실 내 화장실에 문이 있는지에 대한 것이 될 수 없다고 주장한다. 프라이버시는 편재적 감시에 내재해 있는 체험된 제약과 통제에 대한 실질적인 대응이어야 한다. 저자는 ‘혼자 있을’ 자유가 데이터화된 알고리즘 세계로 어떻게 변환될 수 있는지에 특히 초점을 맞춘 ‘분인 프라이버시’ 개념을 이론화한다.
결론: '기계 속의 유령'
결론에서 저자는 “기술적 미래주의의 특이점은 결코 도래하지 않을 것이다. … 왜냐하면 그것은 이미 어느 정도 여기에 있기 때문이다”라고 주장한다. 온라인에서 우리는 데이터에 따라 만들어지고, 읽히고, 해석되며, 이해될 수 있다. 우리의 세계와 우리 세계에 의미를 가져다주는 지식이 점차 데이터화되어 감에 따라 우리는 역동적이고, 소프트-코딩soft-coding되며, 변조되는 측정가능형들의 데이터화된 규칙 속에서 이해된다. 우리가 편재적 감시로 인해 현재 만나게 되는 것들은 저자가 부드러운 삶정치라고 부르는 권력과의 새로운 관계를 시사한다. 그리고 그로 인한 편재성遍在性과 새롭게 나타나는 이러한 서로 다른 유형의 지식 구성으로 인해 우리는 주체성이 어떻게 기능하고 프라이버시가 실질적으로 방어할 수 있는 것이 무엇인지 다시 생각해 보지 않을 수 없다.