|
인공지능에 대해 알아야 할 10가지
이원영 IT칼럼니스트 | 2016년 3월 18일
.
인공지능이 빠르게 진화를 거듭하고 있다. 올해 1월에는 컴퓨터가 바둑 프로 기사에게 승리를 거뒀다는 보도가 나오기도 했다. 인류를 멸망시킬 가능성이 있다는 말이 나올 만큼 예상을 뛰어넘는 속도로 발전하고 있는 것.
인공지능에 대해 알아둬야 할 첫 번째는 역시 인공지능이 예상보다 빠른 속도로 발전하고 있다는 것. 레이 커즈와일은 기술이 발전할수록 발전 속도는 더 빨라진다는 보상 가속화의 법칙(The Law of Accelerating Returns)을 제창한 바 있다. 인공지능은 20세기를 통틀어 발전한 것보다 2000∼2014년까지 진척 상황이 더 크다고 할 수 있다. 커즈와일은 2021년까지 같은 현상이 다시 일어난다고 말한다.
다음은 인공지능은 사실 매일 이용하고 있다는 것이다. 인공지능이라고 하면 시리나 구글 나우. 코타나 같은 걸 떠올리는 사람도 있을지 모른다. 하지만 실제로는 진공청소기나 비디오 게임기, 할리우드 영화 속 특수효과에 이르기까지 다방면에서 인공지능이 이용되고 있다.
셋째 로봇이 사람의 일을 빼앗는다는 것. 라이스대학 모슈 바르디(Moshe Vardi) 교수는 앞으로 30년 안에 인간의 일은 로봇이 할 수 있게 되어 실업률이 50%를 뛰어 넘을 것으로 예측하고 있다. 최악의 미래가 온다고 생각할 수도 있지만 사람들은 생계가 아니라 쾌락을 위해 일하게 될 것이라고 예상하는 연구자도 많다. 이런 이유로 앞으로 올 사회에 대비해 국가가 생활에 필요한 최소한의 자금을 제공하는 기본 소득 구상에 대한 연구도 진행 중이다.
Rethink_Robotics_baxter_150920_1
다음은 인공지능 연구자 가운데 절반은 2040년이면 인공지능이 인간보다 똑똑할 것이라고 믿는다는 것이다. 지난 2014년 연구자 수백 명을 대상으로 인간과 같은 수준의 인공지능이 나타날 확률이 50%를 넘는 게 언제냐는 설문을 진행했다. 대답 중 중간값은 지금부터 불과 24년 뒤인 2040년이었다고 한다. 또 다른 연구에선 같은 질문을 2030년, 2050년, 2100년 중에서 물으니 2030년까지 온다는 답변이 42%였다고 한다.
다음은 전문가 대부분은 인공지능이 인간 수준까지 발달시키는 게 위험하다고 생각한다는 것이다. 스티븐 호킹 박사를 비롯해 많은 학자와 연구자가 이를 우려하고 있다. 테슬라모터스 창업자인 엘론 머스크는 인류 멸종의 위기가 올 수 있는 만큼 신중해야 한다고 말한다. 국가 차원이나 국제적으로도 규제가 필요하다는 의견인 것.
다음은 인공지능이 인간보다 영리하게 되어버리면 인간은 인공지능을 이해하지 못할 것이라는 점이다. 침팬지는 인간과 고층빌딩이 무엇인지 이해할 수 있지만 고층빌딩이 인간에 의해 지어지고 있는 건 이해하지 않는다. 인간의 뛰어 넘는 슈퍼 인공지능은 자신이 뭘 할 수 있는지 설명해줘도 인간이 이 내용을 이해할 수 없게 될 수 있다는 것이다.
다음은 이런 슈퍼 인공지능이 탄생하면 인간은 인공지능에 대한 관리 능력을 상실할 수 있으며 인류를 위협할 체제가 될 수 있다는 것이다.
다음은 슈퍼 인공지능은 3가지 유형으로 나뉜다는 것. 인공지능 전문가이자 철학자인 닉 보스트롬은 저서인 슈퍼인텔리전스(Superintelligence)에서 슈퍼 인공지능을 오라클(oracle), 지니(genie), 소버린(sovereign) 3가지로 분류했다. 오라클은 질문에 대해 정확하게 답변하는 것. 지니는 명령받은 걸 실행하고 실행 후 다음 명령을 기다리는 것, 소버린은 목적을 달성하기 위해 무엇이 최선인지 스스로 결정하는 이른바 전권 위임형이다.
Real_UFO_With_Aliens_Caught_On_Camera_131230_1
다음은 왜 우리가 외계인을 만나지 못하는지에 대한 의문을 인공지능이 해결해줄 수도 있다는 것이다. 원시 생명과 행성을 식민화한 문명 사이에는 거의 넘을 수 없는 그레이트 필터(The Great Filter)가 존재하며 인류는 이를 극복했거나 극복하지 않아 다른 생명체와 조우할 수 없다고 말하는 설이 바로 그레이트 필터 이론이다. 엘론 머스크는 인공지능을 인류 멸종의 이유가 될 것으로 말했지만 인공지능이야말로 그레이트 필터이며 한때 우주에 존재한 지적 생명체는 유인 행성간 항해가 가능해지기 전에 인공지능에 의해 멸망된 것이라고 말하는 사람들도 있다.
마지막은 금세기 말까지 인류는 멸종하거나 영생을 얻을지도 모른다고 말하는 것이다. 지금 인공지능에 관한 입장은 낙관적 혹은 비관적 견해 2가지로 나눌 수 있다. 낙관론은 인류가 안고 있는 문제는 인공지능이 해결해줄 것이기 때문에 미래가 밝다는 것이다. 비관적 견해는 작은 실수 하나로 순식간에 인류가 멸종할 수도 있다는 경고다. 후자의 경우는 예를 들어 온난화를 해결해달라고 인공지능에 명령하면 이를 온난화의 가장 큰 원인은 인간으로 보고 인류를 멸망시켜버리는 걸 들 수 있다. 영화 매트릭스처럼 인공지능에 의해 인간이 자원으로 간주될 미래가 올지도 모른다는 것이다. 관련 내용은 이곳에서 확인할 수 있다.
Artificial intelligence: Ten things you need to understand
The future of AI will change everything about life as we know it. This is why
The history of artificial intelligence dates back into antiquity – intelligent robots appear in the myths of many ancient societies, including Greek, Arabic, Egyptian and Chinese. Today, the field is more vibrant than ever and some believe that we're on the threshold of discoveries that could change human society irreversibly, for better or worse. Here are ten things you need to know before the robots take over the world:
1. Artificial intelligence is developing faster than you think, and speeding up exponentially
Humans tend to think in straight lines, but every aspect of technological progress is actually accelerating – including AI. Futurist Ray Kurzweil calls this the “Law of Accelerating Returns”, and presents evidence that an amount of progress equal to the entire 20th century's gains was attained between 2000 and 2014. He also argues that the same amount will happen again before 2021. Understanding the exponential nature of progress and ignoring the inner tendency to think things will keep improving at the same rate is key to getting to grips with how fast we'll make scientific advances in the future.
2. You use artificial intelligence all day, every day
Siri, Google Now, and Cortana are obvious examples of artificial intelligence, but AI is actually all around us. It can be found in vacuum cleaners, cars, lawnmowers, video games, Hollywood special effects, e-commerce software, medical research and international finance markets – among many other examples. John McCarthy, who originally coined the term “artificial intelligence” in 1956, famously quipped: “As soon as it works, no-one calls it AI anymore.”
3. Robots are definitely going to take your job
Yeah, I know you're a special flower and everything, but the work you do is either already automatable or will be very soon. How soon? Most jobs will be done by robots within 30 years, says professor Moshe Vardi of Rice University, leading to unemployment rates greater than 50%. That might sound bad, but many academics studying the field believe that technological unemployment will open the door to a future where work is something people do for pleasure, not out of necessity. Proposals such as universal basic income are the beginnings of a societal support structure that could eventually allow this to become a reality.
4. About half of the AI community believes computers will be as smart as humans by 2040
In 2013, two researchers surveyed hundreds of AI experts on when they thought there was a 50/50 chance that human-level artificial intelligence will arrive. The median answer was 2040 – only 24 years from now. The average life expectancy in the UK is 82 years, meaning that there's a heads/tails chance that a 58-year-old today will see computers as smart as humans in their lifetime. Another recent study from author James Barrat simply asked researchers when human-level AI would be achieved – by 2030, 2050, 2100, after 2100 or never. The largest group, 42% of respondents, said before 2030.
5. A lot of smart people think developing artificial intelligence to human level is a dangerous thing to do
See Related :
Are AI and “deep learning” the future of, well, everything?
The Fermi Paradox and fear of the Great Filter
Reality check: robot killing machines – will they rebel?
Once machines are as intelligent as a human, a lot of worrying things can happen. There's little chance that AI development would cease at that point (the AI would almost certainly begin working on improving itself) and many very smart people – including Stephen Hawking and Elon Musk – think that this situation would be very scary indeed. “If I had to guess at what our biggest existential threat is, it’s probably that. So we need to be very careful,” said Musk during a recent interview. “I’m increasingly inclined to think that there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish.”
6. Once artificial intelligence gets smarter than humans, we've got very little chance of understanding it
Tim Urban, at Wait But Why, explains this really well in his pair of enormous articles on artificial intelligence, so I'll quote him here: “A chimp can become familiar with what a human is and what a skyscraper is, but he’ll never be able to understand that the skyscraper was built by humans,” he writes. “We will never be able to even comprehend the things a [superintelligent AI] can do, even if the machine tried to explain it to us – let alone do it ourselves. It could try for years to teach us the simplest inkling of what it knows and the endeavor would be hopeless.”
7. There's no such thing as an “evil” artificial intelligence
Contrary to what we see in sci-fi and movies, AI can't be evil. That's a human concept. An AI can do unspeakably horrible things, but it doesn't do them out of sheer wickedness – it does them simply because that's what it has been programmed (intentionally or accidentally) to do. Stephen Hawking explained this concept recently in an AMA on Reddit. “A super-intelligent AI will be extremely good at accomplishing its goals,” he said, “and if those goals aren't aligned with ours, we're in trouble.”
8. There are three ways a superintelligent artificial intelligence could work
AI expert Nick Bostrom, in his fantastic book Superintelligence: Paths, Dangers, Strategies, classifies three ways in which a superintelligence could operate. An “oracle” would be able to answer questions with a good degree of accuracy. A “genie” would do anything it is commanded to do and then await the next command, while a “sovereign” would be assigned an overarching goal and then be allowed to operate in the world and make decisions about how best to accomplish that goal. For the reasons above, the former is much less scary than the latter.
9. Artificial intelligence could be the reason why we've never met aliens
Further up, Elon Musk described AI as an “existential threat” to humanity, meaning that it could erase mankind from the universe entirely. This ties in with ideas of a “Great Filter” that kills off alien civilisations that reach a certain level of technological development. It's entirely possible that the reason we've never met aliens is because they invented artificial intelligence before they could build spaceships capable of interstellar travel, and that discovery caused their extinction.
10. Basically, there's a good chance we'll be extinct or immortal by the end of the century
The world of AI research is roughly split into optimists and pessimists. The optimists hope that we'll one day invent a superintelligence that solves every problem we can imagine and leads us into a utopian future where all of mankind's needs are met and everyone lives happily ever after. The pessimists are concerned that one tiny mistake along the way will lead to the swift end of the human race – as an AI programmed to solve climate change, for example, identifies that humans are the number one obstacle to doing so. There are also scenarios in between, of course – where would a reality such as The Matrix, where humans are cultivated as a fuel source in a state of perfect happiness, lie on that scale?
For now, you can leave your opinion in the comments section below. But it likely won't be very long until we find out for real.
READ NEXT: Where are all the aliens? The Fermi Paradox, and fear of the Great Filter
Images: Mikey Cordedda, Atomic Taco, Karlis Dambrans, Peyri Herrera, Laura Henderson, Lwp Kommunikacio, Rhys Davenport, K Rupp, Justin Morgan, Jim Trodel, Pascal and Beach Art Center used under Creative Commons