게시글 본문내용
|
다음검색
https://www.youtube.com/watch?v=lG3GD2qqxfI&t=901s
원문 00:47-04:48 | 구글번역 | 디플번역 |
AI가 몰고올 산업패러다임 대전환 | Un changement majeur dans le paradigme industriel induit par l’IA | Comment l'IA bouleverse les paradigmes de l'industrie |
근데 그 특징을 이해하려고 하면, LLM이 어떻게 작동되는지는, 기본적인 원리는 다시 한번 이해할 필요가 있습니다. 자 기본적인 대부분의 LLM 작동 방식은 맨 밑에 있는 코어테크 기술인 Large Language Model이 더 좋은 데이터를 기반으로, 양질의 데이터를 기반으로 계속 더 좋아지는거죠. 2024년도 GPT-4o까지 나왔는데 뭐 GPT 5 그 이후에는 뭐 GPT 6에 이르기까지 수많은 LLM 엔진들이 더욱더 성능이 고품질화 되겠죠. | Mais si vous voulez comprendre ses fonctionnalités et le fonctionnement de LLM, vous devez à nouveau comprendre les principes de base. Désormais, la manière fondamentale dont fonctionne la plupart des LLM est que le grand modèle linguistique, la technologie technologique de base, continue de s'améliorer sur la base de meilleures données et de meilleures données. GPT-4o est sorti en 2024, et après GPT 5, de nombreux moteurs LLM, dont GPT 6, auront des performances plus élevées. | Mais pour comprendre cela, il convient de revenir aux bases du fonctionnement du LLM. Fondamentalement, le fonctionnement de la plupart des LLM repose sur le fait que la technologie CoreTech à la base, le modèle Large Langage, ne cesse de s'améliorer grâce à de meilleures données, grâce à de meilleures données. Nous atteindrons donc le GPT-4o en 2024, puis le GPT 5, puis le GPT 6, et de nombreux moteurs LLM deviendront de plus en plus performants et de meilleure qualité. |
LLM이 좋아지려고 하면 두 가지 조건이 필요해요. 첫 번째는 양질에 좋은 데이터가 많이 들어와야 되고, 두 번째도 중요합니다. RLHF고 하죠. 사용자들이 이 서비스를 많이 사용하면서 얻은 사용자들의 피드백 데이터, 그걸 기반으로 이 LLM이 더욱 더 품질이 좋아질 수 있거든요. 그럼 거기에서 이슈가 생기죠. 이미 벌써 사용자를 많이 확보해서 시장 선점을 해버리면 그게 결국은 진입 장벽이 만들어져서 기존에 있었던 신규 서비스나 새로운 스타트업들의 등장이 막힐 우려가 있죠. | Si vous voulez vous améliorer en LLM, vous avez besoin de deux conditions. Premièrement, de nombreuses données de bonne qualité doivent être fournies, et le deuxième est également important. Cela s'appelle RLHF. La qualité de ce LLM peut être encore améliorée sur la base des données de retour des utilisateurs obtenues, car les utilisateurs utilisent beaucoup ce service. Ensuite, un problème surgit de là. Si vous sécurisez déjà un grand nombre d’utilisateurs et dominez le marché, vous risquez à terme de créer une barrière à l’entrée, bloquant l’émergence de nouveaux services existants ou de nouvelles startups. | Pour que le LLM s'améliore, il faut deux choses. D'une part, il faut recevoir beaucoup de données de bonne qualité, et d'autre part, la deuxième chose est également importante. Le RLHF est le retour d'information que nous recevons des personnes qui utilisent beaucoup le service, et c'est sur cette base que le LLM peut s'améliorer de plus en plus. Le problème, c'est que si vous avez déjà beaucoup d'utilisateurs et que vous avez l'avantage du premier arrivé, vous risquez de créer une barrière à l'entrée et d'empêcher l'émergence de nouveaux services ou de nouvelles start-ups. |
2025년도 그런 현상이 더욱더 가속화 될 것 같아요. 누가 좋은 LLM 엔진을 가지고 있느냐도 물론 중요하지만, 어떤 서비스가 더 많은 사용자를 확보하고 있느냐도 중요하죠 어디죠. 어디죠? 당연히 ChatGPT이죠. 그리고 기존의 레거시에 AI 엔진을 갖다 붙인 회사들, 예를 들면 구글. 안드로이드 기반으로 확보된 모바일 사용자를 기반으로 Gemini를 붙이게 되면 더욱더 성능이 좋아질 수밖에 없습니다. 애플도 마찬가지예요. 시리에 애플이 가진 수많은 서비스를 연동을 시키게 되면 당연히 수많은 피드백 데이터가 들어오기 때문에 더 LLM이 가속화 될 수 있죠. 마이크로소프트도 마찬가지죠. Microsoft Window를 기반으로 확보된, 또 MS Office를 통해서, Teams를 통해서 확보한 수많은 트래픽을 COPILOT과 연기하게 되면 그만큼 LLM의 품질이 더욱더 좋아질 수밖에 없죠. 그리고 이제 아까 이야기했던 IT 스타트업인 오픈 AI나 ANTHROPIC이나 MISTRAL AI나 이런 기업들이 더욱더 2025년에 치열하게 싸우겠죠. 그 얘기는 다른 기업들은 그만큼 기회가 희석된다는 겁니다. | Je pense que ce phénomène va encore s’accélérer en 2025. Bien sûr, il est important de savoir qui dispose d’un bon moteur LLM, mais il est également important de savoir quel service compte le plus d’utilisateurs. Où est-il? Bien sûr, c'est ChatGPT. Et les entreprises qui ont ajouté des moteurs d’IA à l’héritage existant, comme Google. Si Gemini est ajouté en fonction des utilisateurs mobiles sécurisés sur Android, les performances sont vouées à s'améliorer encore. Il en va de même pour Apple. Si les nombreux services d'Apple sont liés à Siri, le LLM peut être encore accéléré car de nombreuses données de retour entrent. Il en va de même pour Microsoft. Si les nombreux trafics sécurisés basés sur Microsoft Windows, via MS Office et via Teams sont transférés vers COPILOT, la qualité de LLM s'améliorera inévitablement. Et maintenant, les startups informatiques que j’ai mentionnées plus tôt, comme Open AI, ANTHROPIC et MISTRAL AI, se battront encore plus férocement en 2025. Cela signifie que les opportunités pour les autres entreprises sont diluées en conséquence. | En 2025, je pense que la situation va encore s'accélérer : il ne s'agit pas seulement de savoir qui a le meilleur moteur de LLM, mais aussi quel service a le plus d'utilisateurs, ce qui est évidemment le cas de ChatGPT et des entreprises qui ont construit des moteurs d'IA sur la base de l'héritage existant, comme Google. Si vous mettez Gemini sur les utilisateurs mobiles que vous avez sur Android, il ne fera que s'améliorer. Même chose avec Apple, si vous mettez beaucoup de leurs services sur Siri, vous allez avoir beaucoup de données de retour d'information, et cela va accélérer le LLM. Même chose avec Microsoft. La qualité du LLM ne peut que s'améliorer si vous pouvez co-piloter et reporter une grande partie du trafic provenant de Microsoft Windows, de Microsoft Office, de Teams. Et maintenant, les startups informatiques dont nous avons parlé, Open AI, Anthropic, MISTRAL AI, ces entreprises, vont se battre encore plus durement en 2025. Et cela signifie que les opportunités pour les autres entreprises seront diluées. |
좋은 LLM 좋은 생성형 AI 서비스를 운영하기 위해서 중간에 있는 것도 중요하거든요. FMOps라고 부릅니다. 파인 튜닝 기술도 중요하고 프롬프트 엔지니어도 중요하고, 더 중요한 거는 RAG라고 기존의 LLM 학습하기 위해 들어갔던 데이터 이외에, 추가적으로 들어가는 버티컬 데이터나 최신 데이터가 들어가 줘야 이 LLM이 좋은 답변을 할 수 있거든요. 그런 면에서 RAG와 같은 기술도 더욱 더 강화될 겁니다. | Afin de gérer un bon LLM et un bon service d’IA générative, il est important d’être au milieu. Cela s'appelle FMOps. La technologie de réglage fin est importante, les ingénieurs rapides sont importants, et ce qui est plus important est qu'en plus des données utilisées pour apprendre le LLM existant appelé RAG, des données verticales supplémentaires ou les dernières données doivent être saisies pour que ce LLM fournisse de bonnes réponses. À cet égard, des technologies telles que RAG seront encore renforcées. | Un bon LLM est important, mais il est également important d'avoir quelque chose au milieu pour gérer un bon service d'IA générative, que nous appelons FMOps. Les compétences en matière de réglage fin sont importantes, les ingénieurs en charge des messages sont importants et, plus important encore, les RAG, c'est-à-dire les données verticales qui viennent s'ajouter aux données utilisées pour former le LLM traditionnel, ou les données les plus récentes, afin que le LLM puisse donner une bonne réponse. En ce sens, les technologies telles que RAG vont devenir de plus en plus puissantes. |
자 그리고 RAG와 같은 이런 데이터를 통해서 신규 데이터를 집어넣는 것도 중요하지만 결국은이 LLM이 어떤 액션을 취하기 위해선 외부에 있는 서드파티 서비스하고 연계되는 것도 중요합니다. 랭 체인(LangChain)과 같은 기술을 이용해서 바깥의 서비스가 연계가 되어야 답변만 하는게 아니라 어떤 액션까지 취할 수 있죠. 그리고 앞서 설명드렸던 프롬프트 엔진도 중요하고 더 중요한 건이 LLM이 각각의 개인 사용자별로 이해를 해야 되거든요. 이해를 한다는 얘기는 그 사용자와 주고받은 답변을 개별적으로 확보를 하고 있어야는 걸 뜻합니다. 그걸 가르켜서 LTM이라고 부르죠. Long-Term Memory. 장기 기억 메모리 창을 이용해서 계속 주고받은 데이터를 확보를 하고 있어야 그 사용자에 맞는 AI 서비스를 더욱더 최적화해서 잘 제공할 수 있죠. | Désormais, il est important d'insérer de nouvelles données via des données telles que RAG, mais en fin de compte, pour que ce LLM puisse entreprendre une action, il est également important de se connecter à un service tiers externe. Grâce à des technologies telles que LangChain, les services externes doivent être connectés non seulement pour répondre mais aussi pour entreprendre certaines actions. De plus, le moteur d'invite que j'ai expliqué plus tôt est important, et ce qui est plus important est que LLM doit être compris par chaque utilisateur individuel. Comprendre signifie que vous devez sécuriser individuellement les réponses échangées avec l'utilisateur. Nous l'appelons LTM. Mémoire à long terme. Ce n'est qu'en utilisant la fenêtre de mémoire à long terme pour sécuriser les données échangées en continu que nous pourrons mieux optimiser et fournir des services d'IA adaptés à l'utilisateur. | Il est important d'apporter de nouvelles données par le biais de ces technologies, mais en fin de compte, pour que le LLM puisse agir, il est également important de se connecter à des services tiers. Plus important encore, ce LLM doit comprendre chaque utilisateur individuel, et quand je dis comprendre, je veux dire qu'il doit avoir les réponses qui ont été échangées avec cet utilisateur individuellement, et c'est ce que nous appelons la MLT, la mémoire à long terme, afin qu'il puisse optimiser et fournir des services d'IA qui sont adaptés à cet utilisateur de mieux en mieux. |
정리를 하면 2025년도 우리가 주목해서 봐야 될 건이 LLM 기술 그 자체가 아니라, 이 LLM이 더 좋은 생성형 서비스를 만들기 위해서 필요로 하는 부대 기술들, 전반적으로 FMOps라고 부리는데 그런 기술들 Prompt Engineering, Fine Tuning, RAG 그리고 LTM 같은 이런 여러 기술들이 부상할 거라는 겁니다. 한마디로 2024년도까지가 LLM과 ChatGPT와 같은 생성형 AI 서비스의 시대였다면, 2025년도 그런 LLM으로 만들어진 생성형 AI 서비스를 더 잘 쓸 수 있게 해주는, 그래서 할루시네이션을 줄여 줄 수 있는 이런 엔터프라이즈 AIX와 같은 기술들이 더욱 더 부상할 거라는 거죠. | Pour résumer, ce à quoi nous devons prêter attention en 2025, ce n'est pas la technologie LLM elle-même, mais les technologies auxiliaires nécessaires à ce LLM pour créer de meilleurs services génératifs, généralement appelés FMOps Prompt Engineering, Fine Une variété de technologies telles que Tuning, RAG. et LTM émergera. Bref, si 2024 était l'ère des services d'IA générative tels que LLM et ChatGPT, alors 2025 sera aussi l'ère des AIX et AIX d'entreprise qui permettront une meilleure utilisation des services d'IA générative créés par LLM et ainsi réduire les hallucinations. de plus en plus des mêmes technologies émergeront. | En résumé, en 2025, ce n'est pas la technologie LLM elle-même qui devrait retenir notre attention, mais les technologies auxiliaires dont cette LLM a besoin pour créer de meilleurs services génératifs, que nous appelons FMOps en général, telles que Prompt Engineering, Fine Tuning, RAG et LTM. En bref, si 2024 a été l'ère du LLM et des services d'IA générative comme ChatGPT, 2025 verra l'essor de technologies comme Enterprise AIX qui permettront une meilleure utilisation de ces services d'IA générative générés par le LLM et réduiront ainsi les halos. |
첫댓글 induit [ɛ̃dɥi] 1.형용사 귀납된, 추론된 2. 형용사 결과로서 얻어진[생긴] 3. 남성형 명사 [전기] 피(被)유도회로,전기자(電機子), (=circuit induit) 4. 남성형 명사 [심리] (연상에 있어서의) 반응어(反應語), (=terme induit)
induire [ɛ̃dɥiːʀ] 1. 타동사 [옛·문어] 유인하다, 부추기다 (=conduire, inciter) 2. 타동사 귀납하다, 결론을 끌어내다 3. 타동사 유발하다, 초래하다