향후 30년 안에 수많은 데이터 안에서 패턴을 발견해내는 인공지능의 ‘딥러닝‘이라는 기계 학습이 우리사회에 끼칠 수 있는 장단점을 말하고 있는 이번 주 Economist, Leaders기사입니다. 인간을 위해 만들어진 기술이 오히려 인간에게 부정적인 영향을 주지 않도록 철저한 관리가 이루어진다면, 그로 인한 이익은 방대해지겠죠.
매일 숨 막히게 더워서 둔감하고 몽롱하며 짜증나더니, 드디어 세포 하나하나가 살아나는 시원상쾌한 바람이 불어옵니다. 다~아 지나가리라...
**************************************
Data analytics
자료 분석
The power of learning
학습의 힘
Clever computers could transform government
영리한 컴퓨터들이 행정체제를 바꿀 수 있다
From the print edition | Leaders, The Economist
Aug 18th 2016, 15:48
IN “Minority Report”, a policeman, played by Tom Cruise, gleans tip-offs from three psychics and nabs future criminals before they break the law. In the real world, prediction is more difficult. But it may no longer be science fiction, thanks to the growing prognosticatory power of computers. That prospect scares some, but it could be a force for good—if it is done right.
영화“마이너리티 리포트”에서 경찰 역을 했던 톰 크루즈가 3예언자들의 예언을 토대로 미래 범죄자들이 범죄를 발생시키기기 전에 체포한다. 현실 세계에서는 예언이 더 어렵다. 그러나 증가하고 있는 컴퓨터의 예언력 덕분에, 그것은 더 이상 공상 과학이 아니다. 그런 전망이 약간 두렵긴 하지만, 제대로만 이루어진다면 선을 위한 힘이 될 수 있을 것이다.
Machine learning, a branch of artificial intelligence, can generate remarkably accurate predictions. It works by crunching vast quantities of data in search of patterns. Take, for example, restaurant hygiene. The system learns which combinations of sometimes obscure factors are most suggestive of a problem. Once trained, it can assess the risk that a restaurant is dirty. The Boston mayor’s office is testing just such an approach, using data from Yelp reviews. This has led to a 25% rise in the number of spot inspections that uncover violations.
인공 지능의 한 분야인 기계 학습은, 매우 정확한 예언을 할 수 있다. 그것은 패턴 검색에서 방대한 자료들을 처리하며 작동한다. 식당 위생을 예를 들어보자. 시스템은 가끔 애매한 요인들이 가장 문제를 드러낸다고 배운다. 일단 훈련되면, 시스템은 식당이 더럽다는 위험을 평가할 수 있다. 보스턴 시장 사무실은 옐프 리뷰의 데이터를 사용하여, 바로 그런 접근 방식을 시험하고 있다. 이것은 현장을 사찰하여 위반한 적발 수를 25% 증가시켰다.
Governments are taking notice. A London borough is developing an algorithm to predict who might become homeless. In India Microsoft is helping schools predict which students are at risk of dropping out. Machine-learning predictions can mean government services arrive earlier and are better targeted (see article). Researchers behind an algorithm designed to help judges make bail decisions claim it can predict recidivism so effectively that the same number of people could be bailed as are at present by judges, but with 20% less crime. To get a similar reduction in crime across America, they say, would require an extra 20,000 police officers at a cost of $2.6 billion.
정부가 주시하고 있다. 런던의 한 자치구는 노숙자가 될 수도 있는 사람을 예측하는 알고리즘을 개발하는 중이다. 인도의 마이크로소프트는 학교를 중퇴할 위험이 있는 학생들을 예측하여 학교를 돕고 있다. 기계 학습 예측은 정부 서비스가 더 일찍 이루어지고 더 나은 목표를 겨냥할 수 있음을 의미할 수 있다. 알고리즘 뒤에 있는 연구자들은 재범을 아주 효과적으로 예측할 수 있어서 같은 수의 사람들을 구제할 수 있다는 사건 담당 판사들의 보석 결정을 돕도록 설계 되었고, 범죄는 20% 줄어들고 있다고 주장한다. 그들은 미국 전역에서 이와 유사한 감소를 가져오려면, 26억 달러를 추가로 20,000의 경찰관이 필요할 것이라고 말한다.
But computer-generated predictions are sometimes controversial. ProPublica, an investigative-journalism outfit, claims that a risk assessment in Broward County, Florida, wrongly labelled black people as future criminals nearly twice as often as it wrongly labelled whites. Citizens complain that decisions which affect them are taken on impenetrable grounds.
하지만 컴퓨터가 하는 예측은 가끔 논란의 여지가 있다. 탐사보도팀인 프로 퍼블리카는 플로리다 브로디 카운티(호텔)의 위험 평가에서는 백인을 잘못 분류하는 것만큼의 두 배나 자주 흑인을 미래 범죄자로 분류했다고 한다. 시민들은 그들에게 영향을 미치는 그런 결정은 할 수 없는 근거라고 불평한다.
*** investigative journalism(탐사보도): 기자들이 범죄, 정치 부패, 기업 비리 등 특정 주제를 직접 조사하여 캐내는 형태의 저널리즘을 말한다.
These problems are real, but they should not spell the end for machine learning as a policy tool. Instead, the priority should be to establish some ground rules and to win public confidence. The first step is to focus machine learning on applications where people stand to gain—extra help at school, say, rather than extra time in jail.
이런 문제점들이 있지만, 그들은 정책 도구로 기계 학습 종료를 선언하지 말아야 한다. 대신, 우선해야 할 일은 몇 가지 기본 규칙을 설정하고 대중의 신뢰를 얻어야 한다. 첫 단계는 예를 들어, 감옥에서 보내는 별도의 시간보다 오히려 사람들이 학교에서 특별한 도움을 얻는 등의 도움을 얻을 수 있는 기계 응용 프로그램 학습에 집중 하는 것이다.
More can be done to assuage concerns about transparency. Algorithms can be modified to reveal which components of their inputs had the most influence on their decisions, for example. But full transparency has risks. If restaurants know that five-star reviews will guarantee fewer inspections, they may make them up. Even so, regulators should insist that government users know the factors behind predictions, and that these are explained to affected citizens upon request. Above all, algorithms should help people make decisions, not make decisions for them—as can be the case with credit-scoring.
투명성에 대한 우려를 완화하기 위해 더 많은 것이 실행될 수 있다. 예를 들어, 알고리즘에 투입된 요소들이 알고리즘의 결정에 가장 영향을 끼쳤다는 것을 드러내기 위해, 알고리즘이 수정될 수 있다. 그러나 완전한 투명성은 위험성이 있다. 별 다섯 개를 얻으면 더 적게 감찰 받을 수 있음을 식당 관계자가 안다면, 별의 수를 올리게 할 수도 있다. 그렇다 해도, 감독 당국은 행정 담당자들이 예측 뒤에 있는 요인들을 알고, 이것의 영향을 받는 시민들의 요청을 받아들여 설명할 것을 주장해야 한다. 무엇보다도, 알고리즘은 알고리즘을 위한 결정이 아니라, 사람들이 결정을 해서 신용을 얻을 수 있도록 사람들을 도와야 한다.
***Algorithms(알고리즘): 어떠한 문제를 해결하기 위한 여러 동작들의 유한한 모임.
컴퓨터 알고리즘이란? 컴퓨터를 이용하여 문제를 풀기위한 방법을 과정이나 절차를 이용해 만들어 놓은 것.
컴퓨터가 이해할 수 있는 언어(C, Java...)를 이용해 실행할 내용을 컴퓨터가 할 수 있는 가장 작은 기본 작업의 형태로 만들고 순차적으로 나열한다. 컴퓨터는 지시 사항을 차례대로 하나씩 수행하면서 최종 결과를 얻게 되고 그 결과는 해결하고자 했던 문제의 해답이 된다.
Colour-blind computing
인종별 얼굴색이 안보이도록 컴퓨팅 하기
The trickiest issues lie in criminal justice, but here too machine learning could still do much good. The threat of racial bias can be minimised by paying close attention to the distribution of false-positive results while the system is being trained. With or without programs to help them, judges have to make plenty of predictions, for instance about whether a person will commit a crime or flee before trial. They can display lifelong bias (they are, after all, only human). The right machine could make their decisions fairer.
가장 까다로운 문제는 범죄를 공정하게 다루는데 있지만, 여기에서 기계 학습은 여전히 아주 잘 할 수 있다. 인종 편견에 대한 위험은 시스템이 훈련하는 동안 거짓을 만들어 내는 결과 상황에 관심을 기울임으로써 최소화 할 수 있다. 기계를 돕는 프로그램이 있든 없든, 판사들은 한 사람이 죄를 범할지 또는 재판 전에 도망갈지에 관한 사례에 대해 많은 예측을 해야 한다. 판사들은 평생 지니고 있는 편견을 드러낼 수 있다(판사들도, 결국, 인간이다). 올바른 기계는 결정을 더 공정하게 할 수 있다.
In the end Mr Cruise’s psychics were banished to an isolated island. Machine learning deserves no such fate. But to avoid rejection, it needs to be used in the right situations with the right caveats; and it must remain a tool in human hands. Do that, and the benefits promise to be vast.
결국 크루즈씨의 초능력은 고립된 섬으로 추방되었다. 기계 학습은 그런 운명을 당하지 않을만하다. 그러나 거부당하지 않기 위해 정확한 상황에 알맞은 경고와 함께 사용될 필요가 있다; 그리고 기계는 인간의 손안에서 도구로 남아있어야 한다. 그렇게 해라, 그러면 이익이 방대해 질 것을 약속한다.