![]() |
요즘에 인공지능의 혁신적인 힘에 대해 많이 듣는다. 순수한 지능이 있다. DeepMind의 알고리즘은 Go and StarCraft에서 사람을 쉽게 이길 수 있으며 DeepStack은 무제한 홀덤 포커에서 사람을 이긴다. 종종 이러한 실리콘 두뇌는 인간의 마음과는 다른 게임 플레이 전략을 생성한다.
놀라운 속도가 있다. 알고리즘은 유방암, 안과 질환 및 의료 영상에서 볼 수 있는 기타 질병을 진단 하는데 있어 방사선과 전문의를 일상적으로 능가하며, 본질적으로 수십 년에 이르는 전문 교육을 몇 개월까지 중단시킨다.
오늘날 기술, 금융 및 건강 분야에서 인공지능의 조용한 터치가 주로 느껴지지만, 산업 전반에 미치는 영향은 빠르게 확산되고 있다. 이번 주 샌프란시스코에서 열린 Singularity University Global Summit에서 인공 지능 및 로봇 공학 회장인 Neil Jacobstein은 이미 존재하는 인류를 위한 더 나은 인공 지능 기반 미래의 그림을 그렸다.
클라우드 기반 인지 플랫폼 덕분에 딥 러닝과 같은 정교한 인공 지능 도구는 더 이상 학술 실험실로 강등되지 않는다. 인류의 큰 과제를 해결하려는 신생 기업의 경우 인공 지능을 임무에 효율적으로 통합하는 도구를 즉시 사용할 수 있다. Jacobstein은 인공 지능의 진보가 엄청나게 가속화되고 있다고 지적했다.
이제 인공 지능이 산업에 어떤 영향을 미칠 수 있는지 고려할 때가 되었으며 그 과정에서 기계 동료와 유익한 관계를 계획하기 시작했다. Jacobstein이 그의 연설에서 강조한 것처럼, 두뇌 기계 마인드멜드의 미래는 우리 자신을 강화하는 협업 지능이다. "인공 지능은 우리가 발명 한 방식을 재창조 하고 있다"고 그는 말했다.
인공 지능의 빠른 혁명
머신 러닝 및 기타 인공 지능 기반 방법은 학문적이며 모호한 것처럼 보일 수 있다. 그러나 Jacobstein은 이미 많은 실제 인공 지능 응용 프로그램 프레임 워크가 있다고 지적했다.
그들의 비밀? 큰 비전을 가진 소규모 기업은 처음부터 코딩하는 대신 Google의 TensorFlow, Microsoft의 Azure 또는 Amazon의 AWS와 같은 클라우드 기반 솔루션을 활용하여 인공 지능 여정을 시작한다. 이 플랫폼은 데이터를 정리할 뿐만 아니라 누구나 내장 된 보안 및 드래그 앤 드롭 코딩 기능을 포함하여 복잡한 기계 학습 알고리즘을 실험 할 수 있는 올인원 솔루션 역할을 한다.
예를 들어 Google Cloud의 Anthos를 사용하면 누구나 다른 서버 (예: IBM Watson 또는 AWS)에서 데이터를 마이그레이션 할 수 있으므로 사용자는 다양한 컴퓨팅 플랫폼과 알고리즘을 활용하여 데이터를 통찰력과 솔루션으로 변환 할 수 있다.
Jacobstein은 처음부터 코딩하는 것이 아니라 이미 플랫폼을 뛰어 넘어 플레이 할 수 있다고 말했다. 핵심: 인공 지능의 민주화는 우리가 알지도 못했던 문제, 또는 오랫동안 불가능하다고 생각했던 문제에 대한 해결책을 모색 할 수 있는 방법이다.
가속은 계속되고 있다. 인공 지능의 마음을 구부리는 속도의 대부분은 대규모 자금 조달 덕분이다. Microsoft는 최근 사회적 책임 인공 지능 (AGI) 엔지니어인 엘런 머스크(Elon Musk) 벤처인 OpenAI에 10 억 달러를 투입했다.
또 다른 혁명은 하드웨어 분야이며, 구글, IBM, 엔비디아는 기계 학습에 맞춘 컴퓨팅 칩을 제조하기 위해 경쟁하고 있다.
인공지능의 민주화는 인쇄기의 탄생과 같다. 기계적인 인쇄는 누구나 저자가 될 수 있게 했다. 오늘날 iPhone은 누구나 영화의 걸작품을 촬영할 수 있다.
그러나 인공 지능이 우리 삶의 구조로 확산됨에 따라 기술 탐험가는 인공 지능 솔루션에 회의론을 가져와 공감, 뉘앙스 및 인류의 선량을 필요로 한다.
윤리적 인공 지능을 향한 길
인공 지능의 민주화는 양날의 칼이다. 더 많은 사람들이 실제 응용 프로그램에서 기술의 힘을 사용함에 따라 딥 러닝에 내재 된 문제는 이러한 판단 요청을 방해 할 수 있다.
인공 지능의 위험성에 대한 많은 언론은 세계를 지배하는 인간보다 학습에 더 능숙한 초 지능 인공 지능에 초점을 맞추고 있다고 Jacobstein이 말했다. 그러나 단기적인 위협과 훨씬 더 교활한 기술은 인간이 기술을 잘못 사용하는 것이다.
예를 들어, 인공 지능 신인은 딥 페이크를 통해 한 사람의 머리를 다른 몸에 붙여 넣거나 단어를 입에 넣을 수 있다. 패널이 말했듯이 인공 지능은 사이버 보안 문제, 현재 불안정한 책임과 복잡성, 다양성과 편견에 실패한 사이버 보안 문제라고 생각한다.
편견을 가지라. 자연어 처리의 진보 덕분에 Google Translate는 오늘날 거의 완벽하게 작동하므로 많은 사람들이 번역 문제가 해결되었다고 생각한다. 사실은 아니었다. 유명한 예 중 하나는 알고리즘이 "의사"와 같은 성별 중립적 용어를 "그녀"로, "간호사"가 "그녀"로 변환하는 방법이다.
이러한 편견은 우리 자신의 모습을 반영하며 단순한 데이터 문제가 아니다. 우리 사회의 편견에서 벗어난 객관적인 인공 지능 시스템을 진정으로 엔지니어링 하려면 누가 이러한 시스템을 개발하고 있는지 물어보고 제품의 영향을 받는 사람들과 상담해야 한다. 성별 외에도 인종적 편견도 만연하다. 예를 들어, 최근의 한 보고서에 따르면 객관적인 범죄 예측 시스템이 위조 된 데이터에 대해 훈련되어 결과적으로 부패한 경찰 관행을 더욱 영속화하는 결과가 나온 것으로 나타났다. 이번 달 구글의 또 다른 연구에 따르면 증오성 음성 탐지기는 다른 민족의 트윗과 비교할 때 아프리카 계 미국인의 무해한 트윗을 "명백한"것으로 더 자주 표시한다.
패널리스트들은 인공 지능을 순수한 엔지니어링 작업으로 생각하는 경우가 많다고 동의했다. 그러나 유전자 드라이브, 생식 계열 게놈 편집 및 기타 변형 적이지만 위험한 도구와 유사하게 인공 지능은 정책 입안자와 다른 이해 관계자의 자문을 받아 성장해야 한다. 인공지능 편견에 대해 새로운 세대를 교육하면 가혹한 정신을 조기에 형성하여 편견의 문제와 잠재적인 위험 완화에 대해 경고 할 것이다.
AI4ALL의 패널리스트 Tess Posner가 말했듯이 인공 지능은 야망을 위한 로켓 연료이다. 젊은 사람들이 인공 지능의 도구를 사용하여 선택한 문제를 해결하고 내재 된 약점을 완전히 알고 있다면, 광범위하게 접근 할 수 있고 포괄적인 인공 지능 임베드 된 미래를 구축 할 수 있다.
결론적으로 인공 지능의 영향을 받는 사람들은 인공 지능 솔루션 개념에 대한 방에 있어야 한다. 사람들은 새로운 기술로 대체 될 것이며 윤리적 인공 지능은 전환 과정에서 인간의 고통을 완화하는 방법을 고려해야 한다. 패널리스트들은 인공 지능이 “마법의 요정 먼지” 라고 해서 집에 돌아 오지 않는다는 의미는 아니다. 지각 있는 인간인 여러분은 기술에 접근하기로 결정하는 방법에 대한 책임이 있다.
인공 지능을 위한 시간은 지금이다. 윤리적으로 만들어보자. .
이미지출처: GrAI / Shutterstock.com