|
That will make life hard for the tech giants
Nov 7th 2019
In 2016 the World Health Organisation (who) declared Britain to be officially free from measles, a highly infectious illness that killed about 110,000 people around the world in 2017. The success was short-lived. After 991 infections were recorded in England and Wales in 2018, the who revoked Britain’s disease-free label.
전방위적 인터넷 금지
국가들이 점차 온라인에서 의견 표현을 검열하려고 한다.
그렇게 되면 기술 대기업들의 운영이 어려워질 것이다.
2016년 세계보건기구(who)는 2017년 전 세계 11만여 명의 목숨을 앗아간 전염병인 홍역으로부터 영국을 공식 해제시키겠다고 선언했다. 성공은 오래가지 못했다. 2018년 영국과 웨일즈에서 991건의 감염이 기록된 후, WHO는 영국의 질병 청정지역 인정을 철회했다.
Cases of measles are rising in many countries, fuelled in part by conspiracy theories claiming that vaccines given to children cause autism (they do not). “Anti-vaxxers” have long used internet forums and social media to spread their nonsense. Matt Hancock, Britain’s health minister, would like to see that stopped. In March he said that internet giants such as Facebook and Google should have a “duty of care” to their users, putting them in the same legal position as schools or doctors. If firms would not stop the spread of anti-vaccination messages voluntarily, said Mr Hancock, he would consider changing the law to force them to do so.
홍역 발병 사례가 많은 나라에서, 음모론은 백신이 아이들에게 자폐증(백신은 자폐를 일으키지 않는다)을 일으킨다고 주장함으로써 기름을 끼얹고 있다. “백신을 거부하는 부모들(Anti-vaxxers)”은 자신들의 허튼 소리 전파하기 위해 인터넷 포럼과 소셜 미디어 사용해 왔다. 매트 핸콕 영국 보건 복지부 장관은 이런 허튼 소리가 나오는 사이트를 보고 싶어하지 않는다. 3월, 그는 페이스북과 구글 같은 인터넷 거인을 교사, 의사와 같은 법적인 위치에 넣으며 사용자에게 “주의를 주어야 할 의무”가 있어야 한다고 말했다. 만약 기업이 자발적으로 백신 반대 메시지의 확산을 막지 않는다면, 헨콕은 기업이 그렇게 하도록 강요할 법을 개정하겠다는 입장을 밝혔다.
An election is due in December, so Mr Hancock may not get his way—though the opposition Labour Party is also keen. But Britain is far from alone. In recent months attention has focused on the threat to big internet companies from trustbusting politicians in America. Now they face a second regulatory assault elsewhere. Citing reasons ranging from combating terrorism to safeguarding elections to discouraging self-harm, politicians around the world are increasingly eager to censor the material that appears on the tech giants’ platforms.
비록 야당인 노동당도 열심이지만, 선거가 12월에 치러질 예정이기 때문에 핸콕 씨는 뜻대로 되지 않을 수도 있다. 그러나 영국은 혼자와는 거리가 멀다.(☞ 다른 나라들도 기업 규제에 열을 올리고 있다.) 최근 몇 달 동안 관심은 미국의 반(anti)기업담합 정치인들이 큰 인터넷 회사를 위협하는 것에 집중되어 왔다. 이제 인터넷 기업은 다른 곳에서 두 번째 규제 폭행을 당하게 되었다. 테러와의 싸움에서부터 선거의 보호, 자해까지 다양한 이유를 들며 전세계 정치인이 거대 기술 기업의 플랫폼에 등장하는 자료를 검열하는데 점점 더 열심이다.
Many authoritarian governments already restrict what their citizens see online. China has heavily censored the internet since its early days; Twitter and Facebook are banned outright. Iran also outlaws Facebook. Saudi Arabia restricts access to information on everything from gay rights and evolution to Shia Islam. Attitudes are hardening in democracies, too. Rather than simply being blocked, big tech firms face a raft of new laws controlling what they can host on their platforms.
다수의 권위적인 정부는 이미 각국 시민들이 온라인에서 보는 것을 제한하고 있다. 중국은 초기부터 인터넷을 심하게 검열해왔다. 트위터와 페이스북은 전면적으로 금지되어 있다. 또한 이란은 페이스북을 불법화한다. 사우디 아라비아는 동성애자의 권리와 진화에서 시아 이슬람에 이르는 모든 것에 대한 정보에 대한 접근을 제한한다. 민주주의 국가에서도 태도가 강경해지고 있다. IT 대기업들은 단순히 그들의 게시물이 차단당한다기보다, 기업들이 할 수 있는 것을 통제하는 많은 새로운 법에 직면하고 있다.
This marks a big change for a global industry that has, until now, been run on techno-libertarian assumptions. “Most of the big internet companies come from an American speech tradition,” says Owen Bennett of the Mozilla Foundation, which campaigns for an open internet. There was, he says, an assumption that the liberal attitude to speech embodied in the First Amendment to America’s constitution would spread as the internet did. When the internet was young and unimportant, the frictions that it caused in countries with other ideas about free speech could mostly be ignored. Now that it is enormous and vital, they are pushing back.
이것은 지금까지 기술자유주의적인 가정으로 운영되어 온 세계 산업에 큰 변화를 의미한다. "대부분의 대형 인터넷 회사는 미국의 언론 전통에서 유래한다"고 오픈 인터넷 캠페인을 벌이고 있는 모질라 재단의 오웬 베넷은 말한다. 그는 미국의 수정 헌법 제1조에 구체화된 연설에 대한 자유주의적 태도가 인터넷처럼 확산될 것이라는 가정이 있었다고 말한다. 인터넷이 성숙하지 않고 중요하지 않을 때, 언론의 자유에 대한 다른 생각을 가진 나라에서 야기된 마찰은 대부분 무시될 수 있었다. 이제 인터넷 상의 언론은 거대하고 필수적이기 때문에, 언론의 자유를 통제하고자 하는 나라가 반격하고 있다.
In June, for instance, Singapore passed the Protection from Online Falsehoods and Manipulation Act. The city-state’s bossy government presented it as an anti-“fake news” bill. It bars the dissemination of online lies deemed to be against the public interest, on pain of fines of up to $1m or ten years in jail. Singapore’s government defines the public interest expansively. The law penalises falsehoods that would interfere with “public tranquillity” or “diminish public confidence in the performance of any duty or function of…the Government”. Firms can be required to block access to content found to be in breach of the law, and to tell users that such content is false, even to the point of getting in touch with them after they have already seen it.
예를 들어, 6월에 싱가포르는 온라인상의 거짓과 조작으로부터 보호법을 통과시켰다. 권위적인 싱가포르 정부는 이 보호법을 '가짜 뉴스'에 반대하는 법안으로 제시했다. 이는 최대 1백만 달러 또는 10년 징역형으로 공공의 이익에 반하는 것으로 간주되는 온라인상의 가짜뉴스의 배포를 금지한다. 싱가포르 정부는 공공의 이익을 광범위하게 정의하고 있다. 그 법은 "공중의 평온"이나 "정부의 어떤 의무나 기능에 대한 국민의 신뢰를 저하시키는" 허위사실을 처벌한다. 기업은 법을 위반한 것으로 판명된 콘텐츠에 대한 접근을 차단하고, 이용자에게 그러한 콘텐츠가 허위임을 알리는 것이 요구될 수 있으며, 이미 본 후에 그 콘텐츠와 접할 수 있게 될 수 있다.
Britain’s proposed laws are notable for their focus on things that are merely undesirable, rather than downright illegal. Besides demanding more effort to combat child pornography and the promotion of terrorism, they take aim at hard-to-define things such as hate, abuse and misogyny, as well as the glamorisation of suicide. The government envisages a new regulator, paid for by the tech firms, with the power to block offending websites, force other companies—such as payment processors or search engines—to sever ties with offending firms, and perhaps even to hold senior managers legally responsible for their companies’ failings.
영국에서 상정된 이 법안은 완전히 불법적인 것이 아니라 단지 바람직하지 않은 것에 초점을 맞춘 것으로 유명하다. 아동 포르노와 테러와의 전쟁을 위해 더 많은 노력을 요구하는 것 외에도, 이 법은 자살의 미화뿐만 아니라 증오, 학대, 여성혐오 같은 정의하기 어려운 것을 목표로 삼고 있다. 정부는 테크 회사들이 재정을 지원하는 규제기관(또는 규제기구)을 구상하고 있다. 이 구상안에서 이 규제기관은 웹사이트가 선정적이 되는 것을 막고, 결제 프로세서나 검색 엔진과 같은 다른 회사들로 하여금 선정적인 콘텐츠를 보유한 회사들과 관계를 끊게 하고, 심지어 회사의 실패에 대한 법적 책임을 고위 관리자들에게 지우도록 할 수 있을 것으로 예상하고 있다.
Australia’s Sharing of Abhorrent Violent Material bill was rushed through in April following a live-streamed terrorist attack on mosques in New Zealand. Western technology firms fiercely opposed the bill. It requires companies (no matter where they are based) to ensure that anything on their servers depicting such things as terrorism, murder or kidnapping is swiftly made unavailable in Australia (potentially within less than an hour). The penalties for failing to do so include fines of up to a staggering 10% of global turnover and, in theory at least, jail time for executives.
뉴질랜드에 있는 이슬람 사원에 대한 실시간 테러 방송 이후 호주의 "혐오, 폭력적 콘텐츠 공유법"이 4월에 통과되었다. 서양의 기술 회사들은 이 법안에 격렬하게 반대했다. 기업들이 (어디에 위치해있던 상관없이) 테러, 살인, 납치와 같은 것들을 묘사하는 서버 상의 어떤 것도 호주에서는 신속하게 이용할 수 없게 만들도록 (잠재적으로 1시간 이내에) 요구한다. 그렇게 하지 않은 것에 대한 처벌은 전 세계 매출의 최대 10%에 달하는 엄청난 벌금과 최소한 임원들에 대한 징역형을 포함한다.
One of the most influential jurisdictions will be the European Union (eu), a market of 500m rich consumers which restricts speech more than America does. Until now, individual member states have done much of the work. Germany passed its “Netzwerkdurchsetzungsgesetz” law in 2017, which gives social-media firms 24 hours to remove fake news and hate speech or face fines of up to €50m ($56m). In July France passed similar legislation.
가장 영향력 있는 국가들 중 하나는 미국보다 SNS 게시물을 더 제한하는 5억명의 부자들의 시장인 유럽연합(eu)이 될 것이다. 지금까지 개별 회원국은 그 일을 많이 해 왔다. 독일은 2017년 소셜미디어 기업에 가짜뉴스와 혐오발언을 24시간 없애거나 최대 50만 유로(56만 달러)의 벌금을 물게 하는 소셜네트워크법(Netzwerkdurchsetz)을 통과시켰다. 7월에 프랑스는 비슷한 법안을 통과시켰다.
But Rasmus Nielsen, who runs the Reuters Institute for the Study of Journalism at the University of Oxford, says one priority of the new European Commission, which takes office in December, will be to beef up such laws and put Brussels, rather than individual countries, in charge. Margrethe Vestager, a Danish politician who made her name levying multi-billion-dollar fines on big tech firms as the previous Commission’s competition enforcer, will probably lead the effort. The Commission’s planned Digital Services Act is likely to contain rules governing everything from political advertising to terrorist content, all of which would be enforced by a new regulator.
하지만 옥스포드 대학에서 언론학 연구를 위한 로이터 연구소를 운영하고 있는 라스무스 닐슨(Rasmus Nielsen)은 12월에 취임하는 새 유럽 위원회의 우선 순위 중 하나는 그러한 법을 강화하고 개별 국가가 아닌 EU가 관리감독을 하는 것이라고 말한다. [주: 브뤼셀에 EU 본부가 있다.] 이전 위원회의 경쟁 집행자로 수십억 달러의 벌금을 부과하는 것으로 유명해진 덴마크 정치인 마그레테 베스타거(Margrethe Vestager)가 이 노력을 이끌게 될 것이다. 위원회의 계획된 디지털 서비스 법은 새로운 규제 기관이 시행할 정치적 광고에서부터 테러리스트 콘텐츠에 이르기까지 모든 것을 규제하는 규칙을 포함할 가능성이 높다.
Still more consequential will be India’s efforts. It has around half a billion internet users—second only to China—and is adding to that number rapidly. In February its government proposed new powers that would weaken the encryption that protects messages on apps such as WhatsApp, force internet-service providers to install automatic filtering software to prevent users from seeing unlawful information, and require firms to remove posts or videos deemed hateful or deceptive, or which invade someone’s privacy. India’s size means the new rules have caught the attention of Western giants. In September Nick Clegg, a former British deputy prime minister who is now Facebook’s chief pr man, made a speech in Delhi urging the government to reconsider.
훨씬 더 중대한 것은 인도의 활동일 것이다. 인도는 중국 다음으로 약 5억 명의 인터넷 사용자가 있으며 이 숫자는 빠르게 증가하고 있다. 지난 2월 인도 정부는 WhatsApp과 같은 앱의 메시지를 보호하고, 인터넷 서비스 제공업체들이 사용자가 불법적인 정보를 볼 수 없도록 자동 필터링 소프트웨어를 설치하도록 강요하고, 기업들이 혐오스럽거나 기만적인 것으로 간주되는 게시물이나 동영상을 제거하도록 요구하는 새로운 권한을 제안했다. 인도의 인터넷 검열대상인구는 새로운 규칙이 서양의 거대 인터넷기업의 관심을 끌었다는 것을 의미한다. 9월 현재 페이스북의 최고 책임자인 전 영국 부총리 닉 클레그는 델리에서 정부의 재고를 촉구하는 연설을 했다.
Even in America, disquiet is growing about the wisdom of letting internet giants police themselves. Elizabeth Warren, a presidential candidate, has accused Facebook of “taking money to promote lies”, referring to the social network’s decision to exempt politicians from its internal guidelines governing what can be posted. “We do not submit speech by politicians to our independent fact-checkers,” said Mr Clegg recently. “And we generally allow it on the platform even when it would otherwise breach our normal content rules.” Facebook points out, with some justification, that it would look odd for a democracy to rely on a private company to referee what politicians say—although the firm does decide who counts as a politician. The policy is not limited to America: Facebook has said it would also apply in Britain’s coming election. By contrast, Twitter last month banned political ads entirely.
심지어 미국도 인터넷 대기업들이 그들 자신을 감시하게 하는 지식에 대한 불안이 커지고 있다. 대통령 후보인 엘리자베스 워런은 페이스북이 "거짓말을 조장하기 위해 돈을 벌었다"고 비난하며, 소셜네트워크가 게시물을 규제하는 내부 지침에서 정치인들을 제외시키기로 결정한 것을 언급했다. "우리는 정치인들의 sns 게시물을 독립적인 사실확인자들에게 제출하지 않습니다,"라고 닉 클레그 영국 부총리가 최근 말했다. "그리고 우리는 일반적으로 정치가의 sns 게시물이 우리의 정상적인 콘텐츠 규칙을 위반하는 경우에도 플랫폼에서 허용합니다." 페이스북은 비록 자사가 누가 정치가로서 중요한지를 결정하지만, 민주주의가 정치가의 말을 평가하기 위해 개인 회사에 의존하는 것은 이상하게 보일 것이라고 어느 정도 정당성을 가지고 지적한다. 이 정책은 미국에만 국한되지 않는다. 페이스북은 또한 다가오는 영국 선거에도 적용될 것이라고 말했다. 이와는 대조적으로, 지난 달 트위터는 정치 광고를 전면 금지했다.
This pun is unavailable in your country
To grasp the impact of these changes, one useful analogy, suggests an industry insider, is with big banks. Both industries operate in many countries, and both control the flow of vital things—money in one case, information in the other. Banks’ systemic importance means they are hedged about with tough, detailed laws that differ between jurisdictions. That requires vast compliance departments, stuffed with lawyers, accountants and box-tickers. Tech firms, used to having limited staff and to being able easily to operate across borders, are being ushered down the same path.
이 말장난은 당신 나라에서는 가능하지 않다
이러한 변화의 영향을 파악하기 위해 업계 관계자에 따르면, 하나의 유용한 비유는 대형 은행과 관련된 것이다. 두 산업 모두 많은 나라에서 운영되고 있으며, 돈과 정보의 흐름이라는 필수적인 것을 통제하고 있다. 은행의 제도적 중요성은 은행이 관할권마다 다양한 강력하고 세밀한 법들로 손실에 대비되고 있다는 것을 의미한다. 그것은 변호사, 회계사와 주어진 과업만 이행하는 직원으로 가득 찬 방대한 회계감사 부서가 필요하다. 한정된 직원을 가지고 있고 국경을 넘어 쉽게 운영되는 데 익숙한 기술 회사도 같은 길을 걷고 있다.
Monitoring the torrent of content that passes through their servers is a huge task. More than 500 hours of video are uploaded to YouTube every minute; thousands of tweets are posted every second. For all the hopeful chatter about artificial intelligence (ai), Alex Stamos, a former chief security officer at Facebook, argues that, in the end, human labour—and lots of it—is the only solution. Algorithms already struggle to make relatively straightforward decisions. YouTube, for instance, spent $100m developing Contentid, an algorithm designed to block pirated content. But pirated videos are still available, and legitimate users sometimes see their posts wrongly flagged.
인터넷 기업의 서버를 통과하는 엄청난 양의 콘텐츠를 감시하는 것은 큰 일이다. 매 분 500시간 이상의 비디오가 유튜브에 업로드되고, 매 초마다 수천 개의 트윗이 올라온다. 인공지능(ai)에 대한 희망적인 잡담에 대해 페이스북 최고 보안책임자였던 알렉스 스타모스는 결국 인간의 노동- 그것도 많은 노동-이 유일한 해결책이라고 주장한다. 알고리즘은 이미 비교적 직접적인 결정을 내리기 위해 고군분투하고 있다. 예를 들어, 유튜브는 불법 콘텐츠를 차단하기 위해 고안된 알고리즘인 Contentid를 개발하는데 100만 달러를 썼다. 그러나 불법 비디오는 여전히 이용가능하며 합법적인 사용자들은 때때로 그들의 게시물이 부당하게 표기된 것을 본다.
And policing copyright infringements is a cinch compared with other forms of content. An algorithm to regulate political speech would have to master sarcasm and irony. It would need tailoring to local sensitivities in individual countries, and to be made invulnerable to deliberate attempts to exploit its weaknesses. “Regulating political speech basically requires ai that’s as smart as humans,” says Mr Stamos. If that ever comes, it will not be for decades.
또한 저작권 침해를 감시하는 것은 다른 형태의 콘텐츠에 비하면 아주 쉬운 일이다. 정치적 발언을 규제하는 알고리즘은 풍자와 반어법을 통달해야 할 것이다. 이는 각국 현지에서의 민감성에 맞춰 재단될 필요가 있고, 그것의 약점을 부당하게 이용하려는 시도에 반박할 수 없게끔 만들어질 것이다. "정치에 관련된 sns 게시물을 규제하는 것은 기본적으로 인간만큼이나 명석한 인공지능 필요로 한다"고 스타모스씨는 말한다. 만약 그런 일이 일어난다해도, 수십 년 안에 이뤄지진 않을 것이다.
Social-media firms do use ai to flag posts for humans’ attention. Exact figures are scarce, but in 2017 Accenture, a consultancy, reckoned tech firms already employ around 100,000 human content-moderators worldwide. Each new law will require more people to enforce it. Facebook doubled the number of moderators from 7,500 to 15,000 between August and December 2018. Its internal guidelines even now run to tens of thousands of words.
소셜 미디어 회사는 사람들을 주목시키기 위한 게시물에 표시를 하기 위해 인공지능을 사용한다. 정확한 수치는 얼마 되지 않지만 2017년 컨설팅 회사인 엑센츄어는 기술 회사가 이미 전 세계적으로 약 10만 명의 인간 콘텐츠 중재자를 고용하고 있다고 추산했다. 각각의 새로운 법은 더 많은 사람이 그것을 시행하도록 요구할 것이다. 페이스북은 2018년 8월부터 12월까지 7500여 명에서 1만5000여 명으로 중재자를 2배가량 늘렸다. 페이스북의 내부 지침은 심지어 수 만개의 단어에 이른다.
Such burdens risk entrenching big existing players, says Mr Bennett, since they can afford to absorb the costs of compliance. And harsh penalties will create incentives for firms to err on the side of heavy-handedness. “You might even see companies thinking carefully about where they want to operate because it’s just not worth the risk of getting it wrong.”
In the long run, though, perhaps the biggest effect of the new laws will be the further splintering of the internet. The idea of the internet as a single global network that looks the same no matter where you are when you log on, is central to its founding mythology. Yet it looks increasingly outdated. Whether that is good or bad is the subject of debate. “It is entirely legitimate for countries to formulate policies that govern their own media environments,” argues Mr Nielsen. However, “at the moment, people in India who can afford phones can see broadly the same things as people in the West,” says Mr Stamos. “The end of that would be sad.”
It is happening regardless. China’s pervasive censorship has long split its internet users off from those elsewhere in the world. Cracks are spreading in the West, too. Some American firms already find it easier to block European users rather than comply with eu privacy laws. “Right to be forgotten” laws compel search engines to remove certain results for European users. Censorship laws will mean another set of walls dividing the global village. ■
This article appeared in the International section of the print edition under the headline "Net loss"
첫댓글 trustbust: Trust busting attempts to eliminate monopolies and corporate trusts. 즉 반기업담합
proposed law - 상정된 법안
misogyny 여성혐오증
hatred, dislike, or mistrust of women, or prejudice against women.
*box-ticker -> box ticking
Box ticking
the fact of doing something just because there is a rule that says that you must do it
compliance department
규정 준수(를 체크하는 부서). 주로 회계감사부를 의미한다.
hedge 울타리 ☞
〔위험 따위〕에 대한 방어[대비]책을 취하다[against]; 〔투기·사업 따위〕를 양쪽에 걸어[연계매매로] 손실을 막다[위험에 대비하다].