인공 지능의 간략한 역사 AI는 튜링 머신에서 최신 딥 러닝 및 자연어 처리 애플리케이션으로 발전했습니다.
출처 cointelegraph 저자 구니트 카우르 소스:EK 이페어케이 플러스
여러 요인이 수년 동안 인공 지능(AI)의 개발을 주도했습니다. 엄청난 양의 데이터를 신속하고 효과적으로 수집하고 분석하는 능력은 컴퓨팅 기술 발전에 의해 가능했으며, 이는 중요한 기여 요인이었습니다.
또 다른 요인은 인간에게 너무 위험하거나 도전적이거나 시간이 많이 걸리는 활동을 완료 할 수있는 자동화 시스템에 대한 요구입니다. 또한 인터넷의 발전과 엄청난 양의 디지털 데이터의 접근성 덕분에 AI가 실제 문제를 해결할 수있는 더 많은 기회가 생겼습니다.
또한 사회적, 문화적 문제가 AI에 영향을 미쳤습니다. 예를 들어, AI의 윤리와 파급 효과에 관한 논의는 일자리 손실과 자동화에 대한 우려에 대한 응답으로 발생했습니다.
AI가 악의적인 사이버 공격이나 허위 정보 캠페인과 같은 사악한 의도로 사용될 가능성에 대한 우려도 제기되었습니다. 결과적으로 많은 연구자와 의사 결정권자는 AI가 윤리적이고 책임감있게 만들어지고 적용되도록 노력하고 있습니다.
AI는 20세기 중반에 시작된 이래로 먼 길을 왔습니다. 다음은 인공 지능의 간략한 역사입니다.
20 세기 중반
인공 지능의 기원은 컴퓨터 과학자들이 문제 해결, 패턴 인식 및 판단과 같이 일반적으로 인간의 지능이 필요한 작업을 수행 할 수있는 알고리즘과 소프트웨어를 만들기 시작한 20 세기 중반으로 거슬러 올라갈 수 있습니다.
AI의 초기 개척자 중 한 명은 앨런 튜링 (Alan Turing)으로, 현재 튜링 테스트 (Turing Test)로 알려진 인간 지능 작업을 시뮬레이션 할 수있는 기계 개념을 제안했습니다.
1956년 다트머스 회의
1956 년 다트머스 회의는 "생각할 수있는"로봇을 만들 가능성을 조사하기 위해 다양한 직업의 학자들을 모았습니다. 이 회의는 공식적으로 인공 지능 분야를 소개했습니다. 이 기간 동안 규칙 기반 시스템과 상징적 사고가 AI 연구의 주요 주제였습니다.
1960 년대와 1970 년대
1960 년대와 1970 년대에 인공 지능 연구의 초점은 특정 분야의 인간 전문가가 내린 결정을 모방하도록 설계된 전문가 시스템을 개발하는 것으로 이동했습니다. 이러한 방법은 엔지니어링, 금융 및 의학과 같은 산업에서 자주 사용되었습니다.
1980년대
그러나 1980년대에 규칙 기반 시스템의 단점이 분명해지면서 AI 연구는 컴퓨터가 데이터에서 학습할 수 있도록 통계적 방법을 사용하는 분야의 한 분야인 기계 학습에 초점을 맞추기 시작했습니다. 결과적으로 신경망은 인간 두뇌의 구조와 작동을 따라 만들어지고 모델링되었습니다.
1990 년대와 2000 년대
AI 연구는 1990년대에 로봇 공학, 컴퓨터 비전 및 자연어 처리 분야에서 상당한 진전을 이루었습니다. 2000년대 초, 음성 인식, 이미지 인식 및 자연어 처리의 발전은 심층 신경망을 사용하는 기계 학습의 한 분야인 딥 러닝의 출현으로 가능했습니다.
Damien Benveniste
@DamiBenveniste
The first neural language model, that's Yoshua Bengio, one of the "Godfathers of Deep Learning"! He is widely regarded as one of the most impactful people in natural language processing and unsupervised learning. Learn something new in Machine Learning every week: http://TheAiEdge.io #ArtificialIntelligence #MachineLearning
Anubrain Technology
@AnubrainTech
·
3월 28일
@DamiBenveniste
님에게 보내는 답글
Yoshua Bengio developed algorithms and architectures that have advanced the capabilities of deep learning models and enabled breakthroughs in natural language processing, computer vision, and speech recognition. He is a role model to us at Anubrain Technology, developers of NLP.
저자
구니트 카우르
Guneet Kaur는 블록체인, 암호화폐 및 데이터 과학의 최첨단 분야에서 지식과 혁신을 끊임없이 추구하는 데 전념하는 선구적인 전문가입니다. 코인텔레그래프의 편집자로서 그녀는 Web3 매니아들에게 비할 데 없는 통찰력을 제공하겠다는 확고한 의지를 보여주고 있다. 또한 스털링 대학교에서 데이터 과학 전문 박사 학위를 취득하면서 Guneet의 연구는 CBDC를 둘러싼 개인 정보 보호 문제에 대한 매우 적절한 주제를 포함합니다. 학계에 대한 그녀의 적극적인 참여는 다양한 핀테크 과정의 교사 및 평가자로서의 역할과 함께 수많은 책 챕터의 공동 편집 및 저술로 잘 입증됩니다. 여가 시간에는 시골을 탐험하고 영화를 보는 것을 즐깁니다.