NYT에 따르면 오픈AI, 구글, 중국 딥시크(DeepSeek) 등 주요 AI 기업이 내놓은 최신 ‘추론(reasoning)’ 모델들은 수학 능력은 향상됐지만사실관계에서는 오히려 취약한 모습을 보였다
......
AI 시스템은 방대한 데이터를 학습해 확률적으로 가장 그럴듯한 답을 예측하는 방식으로 작동한다. 이 과정에서 사실과 허구를 구분하지 못하고 ‘지어내는’ 현상이 발생한다.
이 때문에 전문가들은 “AI가 근본적으로 오류를 완전히 피할 수는 없다”고 지적한다.
......
전문가들은 AI의 환각 현상이 발생하는 배경에 대해 ‘추론 과정’을 거치면서 단계별로 오류가 축적됐기 때문이라고 지적한다. 최신 AI는 복잡한 문제를 단계별로 풀이하고 각 단계를 사용자에게 보여주는데, 이때 매 단계마다 잘못된 추론이 쌓이면 최종 답변도 왜곡될 수 있다는 것이다
......
한편 일부 전문가들은 AI의 환각 문제를 해결하기 위해 AI가 추론에 사용한 데이터 출처까지 추적해 분석하려는 시도를 하고 있다. 하지만 AI가 학습한 데이터량이 방대해 여전히 사각지대가 존재하는 것으로 알려졌다.
NYT는 “AI 챗봇이 수학 문제나 코딩은 잘하지만 여전히 사실 여부를 구분하는 데는 취약하다”며 “검색, 법률, 의료 등 분야에서는더욱 신중한 사용이 필요하다”고 경고했다.
ai에 너무 환상이나 공포를 가질 하등의 이유가 없다고 봅니다 창조자, 창조주인 인간들이 자기들이 만들어낸 창조물, 피조물, 종물에 불과한, 한갖 기술수단, 상품에 대해, 그것의 쓰임에 불과한것에 대해서 지례 겁을 먹고 공포를 느낀다는것은 사람의 지위와 역활, 무긍무진한 창조력과 힘을 모르거나 무시하는 행위에 지나지 않습니다 사람들은 이 세상의 주인, 모든것의 주인이고 자기의 의사와 요구에 따라 모든것을 자신에게 이롭게 변혁하고 바꾸고 개조해 나갑니다 장구한 인간 역사는 근로인민대중의 투쟁에 의하여 오늘까지 변화발전하여왔습니다 그런 발전과정은 영원히 계속될 것입니다 Ia인지 ai인지 그따위 하나의 기술에 환상이던, 공포던, 그 무엇도 가질 하등의 이유가 없습니다
첫댓글
인간의 뇌를 닮은 추론방식이니
인간의 뇌가 갖는 이런 특성?
오류?도 보이는게 당연한 결과인가?🙄
자기가 틀릴 수도 있다는,,,겸손,,,
사실을 논리적으로 찾아가는데
<의심에 기반하는>추론방식...
이것들이 중요한 이유,,,철학과 인문적 소양...ㅎ
인간의 자기확증편향,,,현상을
AI도 보이는 것인지...ㅎ
문제해결을 위해,,,
이미 학습된 방대한 데이터에서
사실정보만을 가려낼 수 있을까?
누가?
AI 알고리즘 작성자가?
AI가 스스로??🙄
결국
새로운 망구축이나,
AI가 접근하여 학습할 망에 대한
분리가 요구되는가? ㅎ
그렇다면,,,
인간의 뇌의 이런 오류?를 줄이기 위한
교육은 어떠해야할까?🙄
또 사실정보를 전달하는
기능을 해야하는 언론은??
그러니 미리서
AI에 대해 너무 과도한 공포를 가질 필요가 있을까?
누가? 어떤 의도로 AI를활용하느냐...
이것이 관건이긴 하겠네 ㅎ
그러니 어느 국가든
소수의 탐욕과 지배가 아니라
사람과 자연에 대한 선한 권력의지를 가진 나라...
그런 나라가 인류 새문명을
열어갈 수 밖에 없는 이유도 되는?...^^
ai에 너무 환상이나 공포를 가질 하등의 이유가 없다고 봅니다
창조자, 창조주인 인간들이
자기들이 만들어낸 창조물, 피조물, 종물에 불과한,
한갖 기술수단, 상품에 대해, 그것의 쓰임에
불과한것에 대해서 지례 겁을 먹고 공포를 느낀다는것은
사람의 지위와 역활, 무긍무진한 창조력과 힘을
모르거나 무시하는 행위에 지나지 않습니다
사람들은 이 세상의 주인, 모든것의 주인이고
자기의 의사와 요구에 따라 모든것을 자신에게
이롭게 변혁하고 바꾸고 개조해 나갑니다
장구한 인간 역사는 근로인민대중의 투쟁에 의하여
오늘까지 변화발전하여왔습니다
그런 발전과정은 영원히 계속될 것입니다
Ia인지 ai인지 그따위 하나의 기술에 환상이던, 공포던, 그 무엇도 가질 하등의 이유가 없습니다
^^