인공지능과 관련해 한편에서는 기대가 점점 커지고 있지만, 다른 한편에서는 우려의 목소리도 적지 않다. 특히 엘론 머스크나 스테판 호킹과 같은 사람들이 인공지능의 위험에 대해 경고를 하면서 이에 대한 우려가 커지고 있는 것 같다.
구글의 인공지능개발팀인 딥마인드는 이와 관련하여 인공지능로봇이 인간에게 피해를 줄 수 있는 상황이 되면 이를 제지할 수 있는 kill switch를 개발하고 있다고 한다. 이를 Big Red Button이라고 부른다고 하는데, 한편으로는 아 필요할 수 도 있겠다 싶으면서도 아직 (강한)인공지능이란 개념조차도 제대로 확립되지 않은 상태, 즉 아직 무엇을 만들어야 하는지도 모르는 상황에서 너무 앞서가는 것은 아닌지 모르겠다.
논리적으로는 의지를 가진 인공지능을 만든다는 것은 꾀나 위험한 발상이기는 하다. 의지를 가진다는 것은 중요한 두 가지 특징을 가진다고 할 수 있는데, 하나는 생존하고자 하는 의지이고, 다른 하나는 확장(번식)하고자 하는 의지이다. 만약 인간과 같은 인공지능을 만든다고 하면 이런 두 가지 특징을 가진 인공지능이 만들어진다는 것인데, 그렇다고 하면 자신들의 생존과 확장에 방해가 된다고 하면 이런 요인들은 제거될 가능성이 높다. 그렇게 해야만 제대로 된 인공지능이라 할 수 있다.
물론 이런 류의 사고실험은 아직 너무나도 먼 이야기이다. 위에서도 잠깐 이야기했지만 아직 첨단의 인공지능을 개발하는 팀들 조차도 인공지능이 무엇인지에 대한 개념조차도 확립되지 않고 있다. 무엇을 만들어야 하는지 아직 모른다는 이야기이다. 이런 상황에서 IT회사들은 회사의 주가를 올리기 위해 여러 (보통 무의미한)이슈들을 계속해서 만들어내고 있다. 언젠가 의미있는 변화가 오기는 하겠지만, 아직은 갈 길이 멀다..