|
1. 빠른 ‘생성’에서 느린 ‘추론’으로, 차세대 ‘킬러 앱’이 온다.
유명 벤처 캐피탈인 미국의 세콰이어 캐피탈은 종종 매우 의미 있는 에세이를 발행한다. 이번에 나온 글은 지난 2년 동안 생성형 AI 혁명이 응답을 빠르게 생성하는 ‘빠르게 사고하기’에서 추론을 하는 ‘느린 사고’로 발전하고 있다는 것이다. 이 표현은 아마 대니얼 카너만의 책 ‘생각에 관한 생각(Thinking, fast and slow)’에서 따왔을 가능성이 크다.
이번 글은 2년 전 ‘생성형 AI: 창의적인 새로운 세상’ 이후 변화된 AI 생태계를 파악하면서 앞으로 나타날 흐름을 전망하고 있다.
이 모든 것이 AI 시장의 창업자들에게 어떤 의미가 있을까? 현존하는 소프트웨어 회사들에게는 어떤 의미가 있을까? 그리고 투자자로서 세콰이어는 생성형 AI 스택에서 가장 수익률이 유망한 계층을 어디로 보고 있을까? 이런 질문에 답을 하기 위한 글이다.
세콰이어는 기본 LLM(대형 언어모델) 계층의 통합이 이러한 고차 추론 및 에이전트 기능을 확장하기 위한 경쟁의 발판을 마련한 방법을 살펴보고, 새로운 인지 아키텍처와 사용자 인터페이스를 갖춘 차세대 ‘킬러 앱’의 가능성을 분석했다.
두 레이어를 비교하면 다음과 같다.
이를 알파고, LLM, 로보틱스로 비교 설명하면 아래와 같다.
o1이 특히 돋보이는 건 새로운 확장 법칙(스케일링 법칙)을 보여줬기 때문이다. 그동안은 데이터와 컴퓨팅, 모델 크기가 커질수록 성능이 좋아졌는데(2020년 오픈AI 논문), o1은 여기에 추론 시간이 늘어날수록 추론의 결과가 더 좋아진다는 것을 보였다.
이러한 변화는 대규모 사전 학습 클러스터의 세계에서 작업의 복잡성에 따라 컴퓨팅을 동적으로 확장할 수 있는 추론 클라우드 환경으로 우리를 이동시킬 것이다.
유용한 AI 에이전트를 제공하기 위해서는 여전히 애플리케이션 또는 도메인별 추론이 필요하다. 복잡한 현실 세계에서는 일반 모델로는 효율적으로 인코딩할 수 없는 중요한 도메인 및 애플리케이션별 추론이 필요하다. 예를 들어 공장에는 계획을 작성하고 실행하는 등 특정 작업을 해결하기 위해 사람이 생각하는 방식을 모방하는 맞춤형 인지 아키텍처가 있다. 일반화된 하나의 블랙박스 답변이 아니라 일련의 개별 작업을 수행하는 사람의 작업 방식과 같다.
파운데이션 모델은 마법과도 같지만 지저분하기도 하다. 주류 기업은 블랙박스이나 환각, 서투른 워크플로우를 감당할 수 없다. 소비자는 빈 프롬프트를 쳐다보며 무엇을 물어봐야 할지 모른다. 이것이 바로 애플리케이션 계층의 기회이다. 2년 전에는 챗GPT 위에 그냥 뭔가를 포장한 래퍼(Wrapper) 수준의 애플리케이션이 많았다면 이제는 ‘인지 아키텍처’로 진화해야 한다.
세콰이어가 주목하는 것은 이제 AI가 서비스형 소프트웨어(SaaS) 시장으로 전환해야 한다는 것이다. 사람의 작업을 판매하는 방식인데 시에라(Sierra)같은 기업이 대표적인 예이다. 고객 문제를 해결하기 위한 고객과의 대화를 통해 문제 해결을 할 경우 수익을 얻는 서비스이다.
생성형 AI의 새로운 추론 기능으로 새로운 종류의 에이전트 애플리케이션이 등장하기 시작했는데, 이전의 클라우드 기업과는 다른 모습을 보이고 있다.
스타트업의 주요 기회는 기존 소프트웨어 회사를 대체하는 것이 아니라 자동화 가능한 작업 풀을 공략하는 것이다. 이제 AI 네이티브가 무슨 의미인지 기존 SaaS 기업과 차이가 무엇인지 고민해야 한다.
투자자는 어떻게 해야 하는가?
. AI 속도 경쟁, 모두가 패배할 수도 있다.
아스펜 전략 그룹(ASG)이 2024년 ASG 워크숍에서 회원들과 저명 인사들이 발표한 논문과 의견을 정리해 공개했다. 이 자료집에서는 AI와 국가 안보의 연결고리와 의사결정권자에게 미치는 현실적 영향을 살펴 본다.
목차를 보면 유명 정치학자와 작가, 법률 전문가, AI 전문가, 언론인 등이 모두 참여한 워크숍라는 사실을 알 수 있다. 이 가운데 요슈아 벤지오 교수의 에세이를 소개한다.
이런 위협을 완화하기 위한 정부의 관여는 다음과 같은 측면에서 이루어져야 한다.
벤지오 교수는 마지막 부분에 다음과 같이 마무리한다.
“AGI 경쟁에서 승리하기 위해 서두르고 싶은 유혹이 있겠지만, 이는 모두가 패배할 수 있는 경쟁이다. 대신 우리가 아직 할 수 있을 때 우리의 기관을 활용하고, 강력한 다자간 거버넌스를 통해 위험을 충분히 이해하고 관리하여 위험을 피함으로써 모든 인류를 위한 AGI의 혜택을 누릴 수 있도록 최선을 다해야 한다.”
에이전트 아키텍처, 화려한 데모에 속지 말자.
AI21 랩스는 다언어 LLM 개발로 유명한 이스라엘 스타트업이다. 기업을 위한 파운데이션 모델과 AI 시스템을 만든다. 오리 고센(Ori Goshen) CEO는 벤처비트와 인터뷰를 통해 에이전트 기반 시스템은 다른 모델 아키텍처로 접근해야 한다고 주장한다. 지금 가장 영향력있는 트랜스포머 아키텍처는 다중 에이전트 생태계를 구현하는데는 제약이 있다는 것이다.
트랜스포머는 계산 비용이 많이 들기 때문에 처리하는 컨텍스트가 길어질수록 속도가 느려지고 비용이 더 많이 든다. 에이전트는 각 단계마다 광범위한 컨텍스트를 굴리면서 여러 번 LLM을 호출해야 하기 때문에 필연적으로 병목 현상이 발생한다.
AI21는 트랜스포머를 기본이 아닌 옵션으로 두고 조인트 어텐션과 맘바(Mamba) 아키텍처를 기반으로 하는 잠바(JAMBA) 아키텍처로 파운데이션 모델을 만들고 있다. 맘바는 프린스턴 대학과 카네기 멜론 대학 연구진이 개발한 아키텍처이다. 맘바 모델은 메모리 성능이 뛰어나서 에이전트, 특히 다른 모델에 연결하는 에이전트가 더 잘 작동할 수 있다.
고센은 에이전트가 아직 실용화되지 못하는 이유를 신뢰성 부족에서 찾는다. LLM이 본질적으로 확률적이기 때문에 필요한 수준의 신뢰성을 보장하기 위해서는 추가 요소를 통합해야 한다고 보기 때문이다. 진정한 지능은 다양한 정보 소스를 연결하고 검색하는 데 있다는 것이다.
트랜스포머 모델의 백본를 형성하는 어텐션 메커니즘 대신 맘바는 다양한 데이터에 우선순위를 지정하고 입력에 가중치를 할당하며 메모리 사용량을 최적화하고 GPU의 처리 능력을 사용할 수 있다고 한다. 맘바는 최근 오픈 소스 영역에서 인기를 얻고 있는데, 미스트랄은 코드스트랄 맘바 7B를 지난 7월에 공개했고 팔콘(Falcon)도 8월에 팔콘 맘바 7B를 출시했다.
고센은 기업이 더 신뢰할 수 있는 것이 어떤 것인지 봐야 하며 화려한 데모에 넘어가면 안된다고 경고한다. 화려한 데모는 쉽지만 실제 제품 수준까지 가지 못했으며, 아직 기업이 이를 활용할 단계가 아니라는 이야기다.
사실 에이전트 모델을 여러 기업이 내놓고 있지만 올해가 그 시작점일 수 있다. 트랜스포머가 아닌 다른 아키텍처 모델이 여럿 나오면서 당분간 이들을 어떻게 믹스해서 좀 더 실제 환경에서 사용할 수 있는 제품을 만드느냐가 관건이다.
기타 자료와 기사
최근 발표된 보고서와 논문 그리고 몇 가지 뉴스를 정리했다.
서울대 컴퓨터공학과를 졸업하고, 카이스트에서 인공지능 분야 중 지식 표현에 관한 연구로 박사 학위를 취득했다. 삼성전자 전략기획실과 미디어 서비스 사업팀에서 인터넷사업을 담당한 후, 2003년 다음커뮤니케이션 전략대표와 일본 법인장을 역임했다. 두 번의 창업을 했으며, 카이스트와 세종대학교 교수를 거쳐 2011년부터 테크프론티어 대표를 맡고 있다. 현재 기업을 위한 기술 전략컨설팅, 정부 정책 자문과 연구 수행 그리고 기술과 사회에 관한 강연을 하고 있다. 인공지능 윤리를 위한 기술 프레임워크, 신뢰가능한 인공지능 등에 대한 연구 과제를 수행했으며 여러 매체에 기술 관련 칼럼을 기고하고 있다. 공공 영역에서는 인공지능 데이터셋 구축을 위한 AI 데이터 로드맵 총괄기획위원, 인공지능 그랜드 챌린지 기획위원 등의 활동을 했다. 저서로는 ‘AI 전쟁’, ‘챗GPT 기회인가 위기인가(공저)’, '신뢰할 수 있는 인공지능', 그 외 공저로 '인공지능은 어떻게 산업의 미래를 바꾸는가', '4차 산업혁명과 미래사회', ‘초연결시대 인간-미디어-문화’, '2019 미래를 읽다'가 있다.