출처: https://naver.me/5PsjO8Je
사람 음성 받아적는 AI도 '환각' 보여…"없는 말 지어내"
인공지능(AI) 챗봇이 때때로 잘못된 정보를 지어내거나 조작하는 '환각'을 보인다는 사실은 이미 잘 알려진 문제다. 최근 음성을 텍스트로 바꾸는 AI 모델도 같은 증상을 보여준다는 연구 결과가
n.news.naver.com
생략
첫댓글 오 뭔가 소설이나 영화 소재같다...
환각이라는 말이 맞는건가?? 내가 이해를 잘 못한건지 말 지어낸구간 있는 것 뿐이자너
말을 적절하게 인식하지 못하는 경우 지어내서 채우나보다... 그걸 환각이라고 하면 과하네ㅋㅋㅋㅋㅋㅋㅋ
AI한테도 환각이 있다는게 좀 신기하다ㅋㅋㅋ 와중에 폰트뭐야ㅠ 예쁘다ㅠ
할루시네이션이라고 해서 업계에서 환각이라는 용어를 써! LLM이 잘못된 정보나 없는 정보를 생성해내는걸 할루시네이션이라고 함 한국에선 그걸 환각이라고 의역해서 쓰고있음!
첫댓글 오 뭔가 소설이나 영화 소재같다...
환각이라는 말이 맞는건가?? 내가 이해를 잘 못한건지 말 지어낸구간 있는 것 뿐이자너
말을 적절하게 인식하지 못하는 경우 지어내서 채우나보다... 그걸 환각이라고 하면 과하네ㅋㅋㅋㅋㅋㅋㅋ
AI한테도 환각이 있다는게 좀 신기하다ㅋㅋㅋ 와중에 폰트뭐야ㅠ 예쁘다ㅠ
할루시네이션이라고 해서 업계에서 환각이라는 용어를 써! LLM이 잘못된 정보나 없는 정보를 생성해내는걸 할루시네이션이라고 함 한국에선 그걸 환각이라고 의역해서 쓰고있음!