|
인공지능 전쟁을 일으키려는 자
War Mongering For Artificial Intelligence
By Binoy Kampmark
Mar 1, 2021 - 11:38:39 PM
https://southfront.org/war-mongering-for-artificial-intelligence/
February 26th 2021
ILLUSTRATIVE IMAGE
Submitted by Dr. Binoy Kampmark
에드워드 텔러의 유령은 인공 지능에 관한 국가위원회 위원들 사이에서 경주를 뛰고 있었을 것입니다. 수소 폭탄의 아버지 텔러는 살인적인 기술을 발명한 윤리적 문제에 그다지 괴로워하지 않았습니다. 예를 들어, "수소 폭탄의 건설 여부, 사용 여부 또는 사용 방법을 결정하는 일은 과학자의 임무"가 아니었다고 발뺌합니다. 그의 말인즉슨 그 사용의 책임은 미국 국민과 그들이 선출한 공직자에게 달려있습니다.
The ghost of Edward Teller must have been doing the rounds between members of the National Commission on Artificial Intelligence. The father of the hydrogen bomb was never one too bothered by the ethical niggles that came with inventing murderous technology. It was not, for instance, "the scientist's job to determine whether a hydrogen bomb should be constructed, whether it should be used, or how it should be used." Responsibility, however exercised, rested with the American people and their elected officials.
군사 시스템에 AI를 적용하는 것은 윤리학자를 괴롭혔지만 특정 지도자와 발명가를 흥분시켰습니다. 블라디미르 푸틴 러시아 대통령은 인공 지능, 유전학, 무인 무기 시스템 및 극초음속 무기에 대한 통제없이는 without a mastery of "우리 문명의 미래를 확보하는 것은 불가능하다, "고 통찰의 주장을 했습니다.
전쟁에서 자율 무기 시스템 사용에 반대하는 운동가가 늘어나고 있습니다. 유엔 사무총장 안토니오 구테레스도 그중 한 명입니다. 그는 2019 년 3 월 트위터에 "목표를 선택하고 인간의 개입없이 생명을 앗아갈 수있는 힘과 재량권을 가진 자율 주행 기계는 정치적으로 용납될 수없고 도덕적으로 혐오스러우며 국제법에 의해 금지되어야 한다, "고 썼습니다. 로봇 무기 통제를 위한 국제위원회, 킬러 로봇 중지 캠페인, 휴먼 라이츠 워치는 또한 치명적인 자율 무기 시스템을 금지하는 데 전념하고 있습니다. 재커리 칼렌본 (Zachary Kallenborn)과 같은 무기 분석가들은 절대적인 입장을 유지할 수 없다고 보고 있으며, "가장 위험한 무기 : 드론 떼 공격무기와 자율 화학, 생물학적, 방사능 및 핵무기"에 대해 좀 더 겸손한 금지 즉 타협안을 선호합니다.
The application of AI in military systems has plagued the ethicist but excited certain leaders and inventors. Russian President Vladimir Putin has grandiloquently asserted that "it would be impossible to secure the future of our civilization" without a mastery of artificial intelligence, genetics, unmanned weapons systems and hypersonic weapons.
Campaigners against the use of autonomous weapons systems in war have been growing in number. The UN Secretary-General António Guterres is one of them. "Autonomous machines with the power and discretion to select targets and take lives without human involvement," he wrote on Twitter in March 2019, "are politically unacceptable, morally repugnant and should be prohibited by international law." The International Committee for Robot Arms Control, the Campaign to Stop Killer Robots and Human Rights Watch are also dedicated to banning lethal autonomous weapons systems. Weapons analysts such as Zachary Kallenborn see that absolute position as untenable, preferring a more modest ban on "the highest-risk weapons: drone swarms and autonomous chemical, biological, radiological, and nuclear weapons".
그러한 무기 시스템에 대한 비판은 위원회의 의회 보고서 초안에서 멀리 떨어져 있었습니다. 이 문서는 대가의 피비린내 나는 봉사에 미친 과학자의 손길 이상을 담고 있습니다. 회장이었던 Google의 모회사인 알파벳 기업 Alphabet Inc.의 기술 고문인 에릭 슈미트 Eric Schmidt를 감안할 때 이는 당연한 일이었습니다. 슈미트가 고삐를 쥐고 있으면 우리는 도덕적 절제를 과시할 수 있습니다. "기계가 인간보다 더 정확하게 더 복잡한 환경에서 더 빠르게 인식하고 결정하고 행동할 수 있다는 AI 신뢰의 약속 promise은 모든 분야에서 경쟁 우위를 나타냅니다. 이는 군사 목적, 정부 및 비 국가 단체에 의해 채택될 것입니다. "
The critics of such weapons systems were far away in the Commission's draft report for Congress. The document has more than a touch of the mad scientist in the bloody service of a master. This stood to reason, given its chairman was Eric Schmidt, technical advisor to Alphabet Inc., parent company of Google, which he was formerly CEO of. With Schmidt holding the reins, we would be guaranteed a show shorn of moral restraint. "The AI promise - that a machine can perceive, decide, and act more quickly, in a more complex environment, with more accuracy than a human - represents a competitive advantage in any field. It will be employed for military ends, by governments and non-state groups."
2 월 23 일 상원 군사위원회에서 슈미트는 증언했는데, 그는 미국의 승격을 유지하기 위한 "기본"에 관한 것이었다. 여기에는 국가 경쟁력을 유지하고 이러한 기본을 염두에 두고 군대를 형성하는 것이 포함되었습니다. 그러나 그렇게 하려면 위험한 경쟁자에게 보안 기관의 눈을 크게 뜨고 있어야 했습니다. (슈미트는 자금과 지출의 급증이 위협을 촉진하는 경향이 있다는 것을 알기에 의회를 충분히 이해하고 있습니다.) 그는 "핵심기술 분야에서 중국 리더십의 위협"을 "국가적 위기"로 보고 있습니다. AI 측면에서 "미국과 중국 만이" 세계를 선도하는 데 필요한 "자원, 상업적 힘, 인재 풀 및 혁신 생태계"가 있었습니다. 향후 10 년 안에 중국은 "세계의 인공지능 강국으로서 미국을 능가할" 수 있을 것입니다.
In his testimony before the Senate Armed Services Committee on February 23, Schmidt was all about "fundamentals" in keeping the US ascendant. This involved preserving national competitiveness and shaping the military with those fundamentals in mind. But to do so required keeping the eyes of the security establishment wide open for any dangerous competitor. (Schmidt understands Congress well enough to know that spikes in funding and outlays tend to be attached to the promotion of threats.) He sees "the threat of Chinese leadership in key technology areas" as "a national crisis". In terms of AI, "only the United States and China" had the necessary "resources, commercial might, talent pool, and innovation ecosystem to lead the world". Within the next decade, Beijing could even "surpass the United States as the world's AI superpower."
그의 증언은 중국 위협 논문으로 광범위하게 확산되었습니다. 그는 "내 생애 어느 때보다도 우리가 곧 라이벌에 의해 쫓겨나거나 우리 경제, 안보 및 우리 국가의 미래에 대해 2 위가 무엇을 의미하는지 더 잘 알고있을 것이 더 걱정되지 않았습니다, "라고 주장했습니다. 그는 국방부가 "소프트웨어를 낮은 우선 순위"로 취급하면서 이러한 우려가 공무원에 의해 공유되지 않을 것이라고 우려했습니다. 여기에서 그는 원칙이 짧은 삶을 사는 실리콘 밸리의 산란 기업에서 배운 교훈에 대한 조언을 줄 수 있습니다. 방어에 전념하는 사람들은 "스마트 팀을 구성하고, 하드 결과물을 추진하고, 신속하게 이동할 수 있습니다." 그는 미사일은 "우리가 지금 자동차를 만드는 방식으로 만들어져야 한다. 디자인 스튜디오를 사용하여 소프트웨어를 개발하고 시뮬레이션" 해야한다고 주장했다.
The testimony is generously spiked with the China threat thesis. "Never before in my lifetime," he claimed, "have I been more worried that we will soon be displaced by a rival or more aware of what second place means for our economy, our security, and the future of our nation." He feared that such worries were not being shared by officials, with the DoD treating "software as a low priority". Here, he could give advice on lessons learned in the spawning enterprises of Silicon Valley, where the principled live short lives. Those dedicated to defence could "form smart teams, drive hard deliverables, and move quickly." Missiles, he argued, should be built "the way we now build cars: use a design studio to develop and simulate in software."
이 모든 것은 특히 군사적 응용 분야에서 덜 억압적인 형태의 AI를 하늘 끝 수준으로 칭찬하는 것을 의미했습니다. 이틀간의 공개 토론에서 패널의 로버트 워크 부회장은 전투에서 AI의 미덕을 칭찬했습니다. "적어도 이 가설을 추구하는 것은 도덕적 의무"이며 "자율 무기는 우리가 그렇게 설계하지 않는한 무차별 적이지 않을 것"이라고 낙관의 주장을 합니다. 악마는 항상 그랬듯이 인간 안에 있습니다.
This all meant necessarily praising a less repressible form of AI to the heavens, notably in its military applications. Two days of public discussion saw the panel's vice chairman Robert Work extol the virtues of AI in battle. "It is a moral imperative to at least pursue this hypothesis" claiming that "autonomous weapons will not be indiscriminate unless we design them that way." The devil is in the human, as it has always been.
제 2 차 세계대전 이후 원자력 기술 공유에 대한 논쟁을 연상시키는 방식으로 위원회는 미국이 "인공 지능 (AI) 혁신 및 채택을 촉진하기 위해 동맹국 및 파트너와 긴밀히 협력하여 포괄적인 전략을 추구할 것"을 촉구합니다. 자유롭고 열린 사회에 중요한 가치. " 같은 생각을 가진 권력과 파트너로 구성된 신흥 기술 연합 (Emerging Technology Coalition)은 "민주적 규범과 가치에 따른 신흥 기술"과 "권위 정권에 의한 이러한 기술의 악의적 사용에 대응하기 위한 정책 조정"의 역할에 초점을 맞출 것입니다. 빨리 잊혀진 사실은 권위주의와 민주주의와 같은 구별이 무기의 끝에서 거의 의미가 없다는 사실입니다.
In a manner reminiscent of the debates about sharing atomic technology in the aftermath of the Second World War, the Committee urges that the US "pursue a comprehensive strategy in close coordination with our allies and partners for artificial intelligence (AI) innovation and adoption that promotes values critical to free and open societies." A proposed Emerging Technology Coalition of likeminded powers and partners would focus on the role of "emerging technologies according to democratic norms and values" and "coordinate policies to counter the malign use of these technologies by authoritarian regimes". Fast forgotten is the fact that distinctions such as authoritarianism and democracy have little meaning at the end of a weapon.
내부 변경은 또한 몇 개의 깃털을 주름지게 하는 것이 좋습니다. 미국 국무부는 개혁이 필요하다고 특별히 언급했습니다. "현재 국무부 내에서 새로운 기술 정책이나 외교에 대한 명확한 단서가 없기 때문에 국무부가 전략적 기술 결정을 내리는 데 방해가 됩니다." 동맹국과 파트너는 AI, 양자 컴퓨팅, 5G, 생명 공학 또는 새로운 신기술 등 다양한 주제에 대해 "어떤 고위 공무원이 주요 담당자가 될 것인지"에 대해 국무부에 접근할 때 혼란스러웠습니다.
전반적으로, 미국 정부는 "기계 속도가 아닌 인간 속도"로 작동했다는 비난을 받고 강타 당했습니다. AI의 상업적 개발에 비해 국방부문에서 뒤처졌다는 것입니다. "디지털 인력 부족에서 부적절한 인수 정책, 불충분한 네트워크 아키텍처 및 취약한 데이터 관행에 이르기까지 다양한 기술적 결함"으로 어려움을 겪었습니다.
Internal changes are also suggested to ruffle a few feathers. The US State Department comes in for special mention as needing reforms. "There is currently no clear lead for emerging technology policy or diplomacy within the State Department, which hinders the Department's ability to make strategic technology decisions." Allies and partners were confused when approaching the State Department as to "which senior official would be their primary point of contact" for a range of topics, be they AI, quantum computing, 5G, biotechnology or new emerging technologies.
Overall, the US government comes in for a battering, reproached for operating "at human speed not machine speed." It was lagging relative to commercial development of AI. It suffered from "technical deficits that range from digital workforce shortages to inadequate acquisition policies, insufficient network architecture, and weak data practices."
공식적인 국방부 정책은 자율 및 반 자율 무기 시스템이 "사령관과 운영자가 무력 사용에 대해 적절한 수준의 인간 판단을 행사할 수 있도록 설계되어야" 한다는 것입니다. 2019 년 10 월 국방부는 AI의 군사적 사용에 관한 다양한 윤리 원칙을 채택하여 국방부 DoD 인공 지능 센터를 중심으로 삼았습니다. 여기에는 "DoD 직원이 AI 기능의 개발, 배포 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것"이라는 조항이 포함됩니다. "추적 가능" 원칙은 사람이 "AI 기능에 적용할 수있는 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해"를 필요로 하는 인간 통제 원칙과 함께 보여집니다.
The official Pentagon policy, as it stands, is that autonomous and semi-autonomous weapons systems should be "designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force." In October 2019, the Department of Defence adopted various ethical principles regarding the military use of AI, making the DoD Artificial Intelligence Centre the focal point. These include the provision that, "DoD personnel will exercise appropriate levels of judgment and care, while remaining responsible for the development, deployment, and use of AI capabilities." The "traceable" principle is also shot through with the principle of human control, with personnel needing to "possess an appropriate understanding of the technology, development processes, and operational methods applicable to AI capabilities".
국가위원회는 운영자, 조직 및 "미국 국민"이 "예측 가능성"과 "명확한 원칙"을 염두에 두고 설계되지 않은 AI 기계를 지원하지 않을 것이라는 점을 인정하면서 그러한 프로토콜을 두둔하는 립 서비스를 제공합니다. 그러나 너무 도덕적으로 속박되어 있지 않다는 경고는 삐걱 거리는 소리가 됩니다. 위험은 "무능력"했고 "미국을 불리하게 만드는 실제 국가 안보 문제를 해결하기 위해" AI를 사용하지 않았습니다. 특히 중국에 관해서 그렇습니다.
The National Commission pays lip service to such protocols, acknowledging that operators, organisations and "the American people" would not support AI machines not "designed with predictability" and "clear principles" in mind. But the note of warning in not being too morally shackled becomes a screech. Risk was "inescapable" and not using AI "to solve real national security challenges risks putting the United States at a disadvantage". Especially when it comes to China.
Dr. Binoy Kampmark was a Commonwealth Scholar at Selwyn College, Cambridge. He lectures at RMIT University, Melbourne. Email: bkampmark@gmail.com
MORE ON THE TOPIC:
|