|
Schumpeter
The tech giants have an interest in AI regulation
슘페터
기술 대기업들은 AI규제에 관심을 가지고 있다
It is a way of holding back open-source proliferation
그것은 오픈-소스 확산을 저지하는 하나의 방식이다
May 25th 2023
One of the joys of writing about business is that rare moment when you realise conventions are shifting in front of you. It brings a shiver down the spine. Vaingloriously, you start scribbling down every detail of your surroundings, as if you are drafting the opening lines of a bestseller. It happened to your columnist recently in San Francisco, sitting in the pristine offices of Anthropic, a darling of the artificial-intelligence (ai) scene. When Jack Clark, one of Anthropic’s co-founders, drew an analogy between the Baruch Plan, a (failed) effort in 1946 to put the world’s atomic weapons under un control, and the need for global co-ordination to prevent the proliferation of harmful ai, there was that old familiar tingle. When entrepreneurs compare their creations, even tangentially, to nuclear bombs, it feels like a turning point.
비즈니스에 대한 글쓰기 기쁨의 하나는 당신 앞에서 관습들이 전환하고 있다는 것을 당신이 인식할 때의 그러한 희귀한 순간이다. 그것은 등줄기에 전율을 가져온다. 자만심으로, 당신은 베스트셀러의 첫 구절들을 처음쓰고 있는 것과 같이, 당신 주변의 모든 세부사항을 쓰기 시작한다. 인공 지능(AI) 광경의 총아인, 앤트로픽의 깨끗한 사무실에 앉아서, 샌프란시스코에서 최근에 당신의 칼럼니스트에게 그것이 일어났다. 앤트로픽의 공동 창업자들의 한 명인, 잭 클라크가 세계의 핵무기들을 UN통제 아래에 두려는 실패한 1946년의 노력인, 바루치 계획과 해로운 AI의 확산을 방지하기 위한 글로벌 조정의 필요성 사이의 유사점을 비유했을 때, 그러한 오래된 익숙함의 흥분이 있었다. 기업가들이 그들의 창조물들을 핵무기들과 심지어 간접적으로 비교할 때, 그것은 전환점과 같이 느낀다.
hold back : 기다리다; 저지[억제]하다; 비밀로 하다.
convention : 관습, 관례, 전통[관습](적인 방식)
shiver : 전율
vainglorious :자만심이 강한; 허영심이 강한; 자만심에서 오는, 허영(심)을 나타내는
scribble down : 아무렇게나 갈겨 쓰다.
pristine :1.완전 새 것 같은, 아주 깨끗한2.자연 그대로의, 오염되지 않은
anthropic : 인류의; 인류 시대의; 인류 발생[발달]론의
darling : 특히 사랑받는[인기 있는] 사람, 총아
tingle :1.따끔거리다2.따끔거림3.흥분, 안달
tangential : 별로 관계가 없는
Since Chatgpt burst onto the scene late last year there has been no shortage of angst about the existential risks posed by ai. But this is different. Listen to some of the field’s pioneers and they are less worried about a dystopian future when machines outthink humans, and more about the dangers lurking within the stuff they are making now. Chatgpt is an example of “generative” ai, which creates humanlike content based on its analysis of texts, images and sounds on the internet. Sam Altman, ceo of Openai, the startup that built it, told a congressional hearing this month that regulatory intervention is critical to manage the risks of the increasingly powerful “large language models” (llms) behind the bots.
작년 말에 챗GPT가 갑자기 광경에 등장한 이후 AI에 의해 제기된 존재적인 위험들에 대한 우려들은 부족하지 않았다. 그러나 이번은 다르다. 현장의 선구자들의 일부 말을 들어라. 그러면 그들은 기계가 인간의 생각을 능가할 때 반이상향의 미래에 덜 우려하고 그리고 그들이 현재 만들고 있는 중인 것 내에서 숨어있는 위험들에 대한 좀 더 많은 것에 대해 더 우려하였다. 챗GPT는 인터넷에서 문자들, 이미지들 그리고 소리들의 그것의 분석에 기반한 인간과 같은 컨텐츠를 만드는, "생성형"AI의 사례이다. 그것을 만든 신생기업인, 오픈AI의 CEO인, 샘알트만은 규제적인 개입이 로봇들 뒤에 있는 점점 더 강력한 "거대 언어 모델들"(LLMs)의 위험을 관리하기 위해 중요하다고 이번 달 의회 청문회에서 말했다.
lurk : 1.숨어 있다2.교묘한 속임수3.도사리다
In the absence of rules, some of his counterparts in San Francisco say they have already set up back channels with government officials in Washington, dc, to discuss the potential harms discovered while examining their chatbots. These include toxic material, such as racism, and dangerous capabilities, like child-grooming or bomb-making. Mustafa Suleyman, co-founder of Inflection ai (and board member of The Economist’s parent company), plans in coming weeks to offer generous bounties to hackers who can discover vulnerabilities in his firm’s digital talking companion, Pi.
규정들이 없는 상황에서, 샌프란시스코의 그의 동종기업들의 일부는 그들이 그들의 챗봇들을 점검하면서 발견된 잠재적 문제들을 토론하기 위해, 워싱턴, DC의 정부 관료들과 비정규적인 경로들을 이미 설정하였다고 말한다. 이것들은 인종주의와 같은, 유해한 자료와 성추행을 목적으로 아동의 억압을 낮추면서 아동과 및 아동의 가족과 친해지고 관계를 맺는 행동 또는 폭탄 제조와 같은 위험한 능력을 포함한다. 인플렉션 AI의 공동창업자이자 The Economist의 모회사의 이사인, 무스타파 슐레이만은 그의 회사의 디지털 대화 친구인, PI에서 취약점들을 발견할 수 있는 해커들에게 관대한보상금들을 제공하는 것을 다가오는 몇 주 동안 계획하고 있다.
back channel :이면[비정규] 경로; 맞장구
child-grooming : 성추행을 목적으로 아동의 억압을 낮추면서 아동과 및 아동의 가족과 친해지고 관계를 맺는 행동
bounty : 1.너그러움; 풍부함2.포상금
inflection : 1.굴절2.억양
Such caution makes this incipient tech boom look different from the past—at least on the surface. As usual, venture capital is rolling in. But unlike the “move fast and break things” approach of yesteryear, many of the startup pitches now are first and foremost about safety. The old Silicon Valley adage about regulation—that it is better to ask for forgiveness than permission—has been jettisoned. Startups such as Openai, Anthropic and Inflection are so keen to convey the idea that they won’t sacrifice safety just to make money that they have put in place corporate structures that constrain profit-maximisation.
그러한 신중함은 이러한 막 시작된 기술 활황을 과거와 다르게 보이게 한다--최소한 표면에서는. 평상시와 같이, 벤처 자본은 들어오고 있는 중이다. 예전의 "빠르게 움직이고 그리고 끝내자" 접근방식과 달리, 현재 홍보하는 신생기업의 다수는 다른 무엇보다도 더 안전성에 신경을 쓴다. 규제에 대한 오래된 실리콘 밸리 격언--허락을 구하는 것 보다 용서를 구하는 것이 좀 더 쉽다--은 폐기되었다. 오픈AI, 앤트로픽 그리고 리플렉션과 같은 신생기업들은 그들이 단지 돈을 벌기 위해 안전성을 희생하지 않을 것이고 그래서 그들은 이익 최대화를 제약하는 기업구조를 마련하였다는 아이디어를 전달하는 것을 아주 중요하게 여기고 있다.
incipient : 막 시작된
pitch : 권유[설득]하려 하다, 홍보하다
first and foremost :다른 무엇보다도 더
adage :속담, 격언
jettison : 버리다[폐기하다]
Another way in which this boom looks different is that the startups building their proprietary llms aren’t aiming to overturn the existing big-tech hierarchy. In fact they may help consolidate it. That is because their relationships with the tech giants leading in the race for generative ai are symbiotic. Openai is joined at the hip to Microsoft, a big investor that uses the former’s technology to improve its software and search products. Alphabet’s Google has a sizeable stake in Anthropic; on May 23rd the startup announced its latest funding round of $450m, which included more investment from the tech giant. Making their business ties even tighter, the young firms rely on big tech’s cloud-computing platforms to train their models on oceans of data, which enable the chatbots to behave like human interlocutors.
이러한 활황이 다르게 보이는 또 다른 방식은 그들의 소유자의 거대 언어 모델들을 만든 신생기업들이 기존의 기술 대기업 위계를 뒤집는 것을 목적으로 하지 않았다는 것이다. 사실 그들은 그것을 강화하는 것에 도움을 줄 수 도 있다. 그것은 생성형 AI에 대한 경쟁을 주도하는 기술 대기업들과의 그들의 관계들이 상생적이기 때문이다. 오픈AI는 오픈 AI의 기술을 마이크로소프트의 소프트웨어와 검색 상품들을 향상시키기 위해 사용하는 거대한 투자자인, 마이크로소프트와 밀접한 관계를 맺게 되었다. 알파벳의 구글은 앤트로픽에서 거대한 지분을 가지고 있다 ; 5월 23일 앤트로픽은 구글로으로부터의 좀 더 많은 투자가 포함된, 앤트로픽의 약 4억5천만 달러의 최근 자금 조달 라운드를 발표하였다. 그들의 비즈니스 유대들이 심지어 좀 더 강화되게 만들며, 젊은 기업들은, 인간 대화자들과 같이 챗봇들이 행동하는 것을 가능하게 하는, 데이터의 바다들에서 그들의 모델들을 훈련시키기 위해 구글의 클라우드 컴퓨팅 플랫폼들에 의존한다.
proprietary :소유주[자]의
symbiotic : 공생의, 공생하는
interlocutor : 1.대화자2.교섭 담당자
Like the startups, Microsoft and Google are keen to show they take safety seriously—even as they battle each other fiercely in the chatbot race. They, too, argue that new rules are needed and that international co-operation on overseeing llms is essential. As Alphabet’s ceo, Sundar Pichai, put it, “ai is too important not to regulate, and too important not to regulate well.”
신생기업들과 같이, 심지어 그들이 챗봇 경쟁에서 서로 치열하게 경쟁할 지라도, 그들이 안전성을 심각하게 다룬다는 것을 보여주고 싶어한다. 그들 역시 새로운 규정들이 필요하고 그리고 거대 언어 모형들에 대한 국제적인 감시가 필수적이라고 주장한다. 알파벳의 CEO인 순다르 피차이가 말한 것과 같이, " AI는 규제하지 않기에는 너무 중요하고, 그리고 잘 규제하지 않기에도 너무 중요하다."
Such overtures may be perfectly justified by the risks of misinformation, electoral manipulation, terrorism, job disruption and other potential hazards that increasingly powerful ai models may spawn. Yet it is worth bearing in mind that regulation will also bring benefits to the tech giants. That is because it tends to reinforce existing market structures, creating costs that incumbents find easiest to bear, and raising barriers to entry.
그러한 제안들은 잘못된 정보, 선거조작, 테러주의, 일자리 파괴 그리고 점진적으로 강력한 AI 모델들이 상황을 만들 수 도 있는 다른 잠재적인 위험들에 의해 완벽하게 정당화될 수 도 있다. 그러나 규제는 또한 기술 대기업들에게 혜택을 가져올 것이라는 것을 마음에 새길 가치가 있다. 그것은 기존 업체들이 감당하기가 가장 쉽게 만드는 비용을 창출하고, 그리고 진입 장벽들을 올리며, 기존 시장 구조들을 강화하는 경향이 있기 때문이다.
overture :접근[제안]
spawn : (어떤 결과상황을) 낳다
This is important. If big tech uses regulation to fortify its position at the commanding heights of generative ai, there is a trade-off. The giants are more likely to deploy the technology to make their existing products better than to replace them altogether. They will seek to protect their core businesses (enterprise software in Microsoft’s case and search in Google’s). Instead of ushering in an era of Schumpeterian creative destruction, it will serve as a reminder that large incumbents currently control the innovation process—what some call “creative accumulation”. The technology may end up being less revolutionary than it could be.
이것은 중요하다. 만약 기술 대기업이 생성형 AI의 지배적인 지위들을 강화하기 위해 규제를 사용한다면, 모순이 있다. 기술 대기업들은 그것들을 함께 대체하기 보다 그들의 기존 상품들을 좀 더 좋게 만들기 위해 그 기술을 배치할 가능성이 좀 더 높다. 그들은 그들의 핵심 비즈니스들을 보호하는 것을 추구할 것이다(마이크로 소프트의 경우 기업 소프트웨어 그리고 구글의 경우 검색 엔진). 슘페터적인 창조적인 파괴의 시기로 안내하는 대신, 그것은 거대한 기존 기업들이 그 혁신적인 처리과정들을 현재 통제하고 있다는 것--일부가 "창의적인 축적"이라고 부르는 것--을 상기시키는 역할로서 기능할 것이다. 그 기술은 혁신적일 수 있는 것 보다 덜 혁신적으로 되는 것으로 끝날 수 도 있다.
commanding :우세한
usher : 1.좌석 안내원2.안내하다3.정리
LLaMA on the loose
탈주 중인 LLaMA
Such an outcome is not a foregone conclusion. One of the wild cards is open-source ai, which has proliferated since March when llama, the llm developed by Meta, leaked online. Already the buzz in Silicon Valley is that open-source developers are able to build generative-ai models that are almost as good as the existing proprietary ones, and hundredths of the cost.
그러한 결과는 예상가능한 결론은 아니다. 많은 변수들의 하나는 메타에 의해 개발된 거대 언어 모델인, LLaMA가 온라인으로 공개된 3월 이후 활성화된, 오프소스 AI이다. 이미 실리콘 밸리에서의 소문은 오픈소스 개발자들이 기존 소유적인 것 만큼 거의 좋고, 그리고 비용은 수 백분의 일이 소요되는 생성형 AI 모델들을 만들 수 있다는 것이다.
llama : 라마(남미에서 털을 얻고 짐을 운반하게 하기 위해 기르는 가축)
on the loose :탈주 중인[잡히지 않은]
foregone :1.앞선, 이전의, 기왕의2.기정(旣定)의, 과거의
Anthropic’s Mr Clark describes open-source ai as a “very troubling concept”. Though it is a good way of speeding up innovation, it is also inherently hard to control, whether in the hands of a hostile state or a 17-year-old ransomware-maker. Such concerns will be thrashed out as the world’s regulatory bodies grapple with generative ai. Microsoft and Google—and, by extension, their startup charges—have much deeper pockets than open-source developers to handle whatever the regulators come up with. They also have more at stake in preserving the stability of the information-technology system that has turned them into titans. For once, the desire for safety and for profits may be aligned.
앤트로픽의 클라크 씨는 오픈소스 AI를 "아주 문제가 많은 개념"으로 묘사한다. 비록 그것이 혁신을 가속화하는 좋은 방법일지라도, 그것은 또한 적대적인 국가의 손에 있건 또는 17년된 랜섬웨어-제작자의 손에 있건, 내재적으로 통제하기 어렵다. 그러한 우려들은 세계의 규제 기관들이 생성형 AI 문제를 해결하려고 노력함에 따라 철저하게 검토될 것이다. 마이크로소프트와 구글 그리고 확장하여 그들의 신생기업 책임자들은 규제자들이 무엇을 제시하건 오프소스 개발자들보다 개발하는 것에 훨씬 더 많은 자금을 가지고 있다. 그들은 또한 그들을 거물로 전환시켰던 정보기술 시스템의 안정성을 보전하는 것에 좀 더 많은 이해관계를 가지고 있다. 한 번은 안전성과 이익에 대한 욕구가 일치할 수 도 있다.
inherently :선천적으로
thrash out :궁리[토의]하다, 철저히 검토하다; 털어놓다.
|