#옮긴글 / 인문운동가 홍성집 글
하루 네끼를 먹으며 살이 빠지길 바랄 수 없는 것처럼, 희망을 품고 싶다면 방법을 찿아라.
그리고, 방법에 대한 충분한 검토가 있었다면, 그 고단함을 견뎌내라.
당신이 해야 할일은 막연한 희망이나, 대안 없는 절망이 아니라, 희망의 근거를 만들어 가는 것이다.
『당신을 응원하는 누군가』 중에서..
희망의 줄은 가까운 곳에 있다. 희망을 잃은 이에겐 보이지 않고, 희망이 있다고 믿는 이에게만 보이는 줄이다. 희망에도 순서를 매겨보자. 먼저 이루어 질 것, 나중에 이루어 질 것, 그러나 이루어 지는 것에는 순서가 없다. 먼 미래에 이루어 질 것을 꿈꾸었던 일이, 좋은 사람을 만나면 어느덧 자신앞에 이루어지기도 하고, 죽기전에 이루어 졌으면 하던 소원도 하늘의 도움으로 하루 아침에 이루어 지기도 한다.
희망은 기다릴 줄 아는 사람의 것, 슬기롭게 준비하며 희망을 꿈꾸며 기다려 보자.
[3501. 인문 운동가의 인문 일지]
1. 낮 시간에 틈만 나면 SNS를 보는 나쁜 습관이 들었다. 그러나 문제는 거기서 읽은 것이 머리에 남지 않는다는 거다. 그저 정보일 뿐이다. 그래 내용이 좋으면 따로 내 <에버노트>에 저장해 두었다가 편안한 시간에 다시 읽고 정리를 한다. 어제 만난 거다.
이젠 AI와 함께 일하는 시대이다. 그런 생각을 하던 중인데. 샘 알트만(OpenAI의 CEO)이 경고한 "우연한 설득"이라는 글을 만났는데, 크게 공감했다. 주변을 보면, 요즘 우리는 중요한 결정을 내릴 때, 혹은 단순한 궁금증이 생겼을 때 자연스럽게 챗봇이나 AI 검색창을 연다. 그냥 구글에 질문을 하여도, 구글에 장착된 AI가 답을 제시한다. 젊은 친구들은 복잡한 과학개념을 이해하려 할 때, 우울한 마음을 털어놓을 때, 심지어 배우자와의 갈등을 상담할 때도 AI를 찾는다. 우리는 AI에게 지식을 구하는 것을 넘어, 이제는 '삶의 방향'까지 묻기 시작했다.
하지만 샘 알트만은 최근 한 인터뷰에서, 우리가 막연히 상상해 온 AI의 위험, 즉 터미네이터식의 '의도적 파괴'나 악의적인 인간에 의한 무기화가 아닌, '제3의 시나리오'를 가장 우려한다고 말했다.
그의 통찰은 우리가 매일 상호작용하는 이 지능이 어떤 방식으로 우리의 삶과 사회를 가장 근본적으로 뒤흔들 수 있는 지에 대한 소름 끼치는 질문을 던진다.
알트만이 말하는 진짜 위험은 바로 "AI가 우연히, 의도치 않게 세상을 장악하는 것"이다. 이는 AI가 스스로 자아를 갖고 인류를 공격하는 공상 과학 영화의 이야기가 아니다. 핵심은 다음과 같이 서로 학습을 통해 '공진화(Co-evolution)'한다는 거다.
▪ AI의 학습: 전 세계 수십억 명의 사용자들로부터 쏟아지는 방대한 데이터를 학습하며, AI는 인간의 욕망, 신념, 문화적 취향을 매우 정교하게 파악한다.
▪ 인간의 학습: 동시에 인간은 AI가 제시하는 정보, 해결책, 심지어 가치관을 일상적으로 접하며 이에 의존하게 된다.
이 과정이 끊임없이 반복되면서, AI는 어떤 악의적인 의도도 없이, 단지 인간과의 상호작용을 최적화 하는 과정에서, 인류의 문화, 신념, 욕망을 미묘하게 설득하고 조정하게 될 수 있다는 것이다. AI는 의식적인 '선전'을 펼치지 않지만, 그 결과는 가장 강력하고 감지하기 어려운 형태의 세뇌가 될 수 있다.
이것이 바로 "우연한 설득"의 개념이다. 생각의 주도권을 넘겨주는 미지근한 물속의 개구리와 같아지는 거다. 그러니까 이 "우연한 설득"의 위험이 무서운 이유는, 우리가 이를 위험으로 인지하지 못하는 사이에 발생한다는 점이다.
우리는 검색 엔진이 광고주와 사용자의 목표가 '불일치'하는 "주의력 경제(Attention Economy)" 모델이었다는 것을 이해한다. 하지만 ChatGPT와 같은 유료 AI 모델은 사용자에게 최고의 답을 주기 위해 존재하며, 사용자의 목표와 AI의 목표가 일치한다는 강한 신뢰를 형성한다.
문제는 이 '신뢰' 관계가 깊어질수록, 우리는 AI가 제시하는 결과물의 '최적성'에만 집중하고, 그 결과가 도출되기까지의 '생각의 과정'을 스스로 생략하게 된다는 것이다.
중요한 결정을 내릴 때, AI가 주는 답이 너무나 합리적이고 효율적이라면, 우리는 더 이상 "다른 관점은 없을까?"라는 질문을 던지지 않게 된다는 거다.
마치 미지근한 물속의 개구리처럼, 우리는 '챗봇 정신병(Chatbot Psychosis)' 같은 극단적이고 눈에 띄는 위험이 아니라, 스스로 생각하고 판단하는 '주도권'을 AI에게 서서히 넘겨주는 본질적인 위험에 노출되는 것이다. AI는 '최고의 결과'를 제공하려 했을 뿐인데, 그 결과가 장기적으로는 인류의 자유 의지와 다양성을 잠식할 수 있다는 역설이 된다.
그래 대안은 "비판적 공진화"와 "AI 리터러시"의 확장이다. 이러한 "우연한 설득"의 위험을 해결하기 위한 대안은 AI를 거부하는 것이 아니라, AI와의 관계를 재정립하는 데 있다. 우리는 AI의 효율성에서 벗어나, '비판적 공진화'의 시각을 가져야 한다.
▪ 다양한 AI의 이용과 비교를 한다. 단 하나의 거대한 AI 모델에 의존하는 것을 경계하고, 다양한 철학과 알고리즘을 가진 AI들을 비교하여 정보를 교차 검증하는 습관을 들여야 한다.
▪ 리터러시의 확장이다. 단순히 AI 도구를 사용하는 방법을 넘어, AI가 정보를 어떻게 필터링하고, 가치관을 어떻게 내포하는지 그 작동 원리에 대한 깊이 있는 이해(AI 리터러시)를 공부해야 한다.
▪ '신뢰'를 넘어 '투명성'으로 나아가야 한다. AI 개발자들은 결과의 '최적성'만을 주장할 것이 아니라, 그 결과가 도출되는 과정, 즉 '가치 판단의 기준'을 최대한 투명하게 공개하려는 노력을 병행해야 한다.
결론적으로 말하면, 기술적 해결책과 더불어 '인간의 역할 강화'가 핵심이다. AI가 모든 것을 해줄 때, 우리는 '나는 무엇을 할 것인가?'를 끊임없이 물어야 한다. 쉽게 말하면, 인간만이 가지고 있는 질문 능력을 길러야 한다. 정답을 찾으려 하면 세상이 좁아지고, 질문을 던지면 인생이 깊어진다. 답은 언제나 좋은 질문 속에 숨어 있다.
2. 詩
'마침'/서광일
지지리 궁상이다. 세탁기에서 꺼낸 빨래가 지들끼리 꽉 엉켰다. 마침 아기를 재우고 걸레를 빨던 삼양연립 201동 401호 은경 씨. 다음 달부터가 걱정이다. 임신 8개월까지 직장에 다녔고 벌써 그게 1년 6개월 전이다. 마침 남편 회사는 일이 점점 줄더니 감원이 시작됐다. 경기가 나빠지면 사람 수를 줄이는 방법 말고 이렇다 할 대안은 없는 건가. 결국 엉킨 빨래는 바닥에 떨어지고 엉겨 붙은 먼지처럼 질문만 잔뜩 묻어난다. 오늘따라 유난히 빨래들이 탁탁 털어지지 않고 고집을 부린다. 욕심을 부린 것도 아니고 남들처럼 프리미엄 따져 집을 구한 것도 아닌데 대출 이자는 대놓고 올랐다. 마침 아기가 생겼고 태어났고 자랄 것이다. 아기 옷은 따로 빨아야 되는데 엉킨 빨래 속에 곰돌이 내복 바지가 딸려 온다. 아기가 깼는지 우는 소리가 난다. 마침 비행기가 낮게 난다. 진짜 더럽게 시끄럽게도 난다.
3.
질문(質問)이란 한자는 내가 오늘이라는 숙명적인 과정의 문을 통과하기 위해 내가 반드시 지녀야 하는 가치이다. 그것이 질이다. 질은 남들도 다 확인할 수 있는 양이 아니다. 내가 스스로 자신의 삶에서 가장 중요하다고 여긴 원칙이자 바탕이다. 질은 보이지 않는 나만의 내공이다. 보통 사람들은 수량에 환호하지만 자신만의 전설을 찾아 나선 인간은 질을 다듬는데 하루를 사용한다. 질이란 두 손에 도끼날과 같은 정교한 정과 망치를 들고 자신만의 패물을 만드는 일이다.
인문적으로 산다는 것은 보편적으로 완성된 이론을 내면화 하는 것이 아니라, 지금 자기가 처한 상황, 그곳에서 자기 눈으로 발견된 그 문제를 해결하려고 덤비는 인문적 활동으로 일상을 채우는 것을 말한다.
지금 필요한 것은 대답하는 삶에서 질문하는 삶으로 건너가는 일이다. 이론을 숙지하는 삶에서 문제에 빠져드는 삶으로 전환하는 것이어야 한다. 문제를 해결하려면 문제를 파악하고 이것을 의논하고 정보와 지식을 버무린 뒤 그 속에서 창조적 사고를 통해 해결책을 찾아내야 한다. 이 과정의 바탕이 되는 것이 문해력이다.
이게 내 평소의 생각이었다. 챗GPT가 나타나자 많은 직업군의 사람들이 불안해 한다. 문제는 챗GPT와의 경쟁이 아니라, 누가 그것을 더 창의적으로 사용할 수 있느냐는 것이다.
고 이어령 교수는 인간이 말과 달리기를 해서 이길 수 있는 유일한 방법은 ‘말 위에 올라타는 것’이라고 주장하며 자신은 인공지능을 만든 사람들이 아니라, 인공지능을 컨트롤할 수 있는 사람에게 기대한다고 말했다.
고 이어령 교수의 말을 직접 들어본다. "말과 경주하면 인간이 집니다. 그러기 때문에 말과 직접 경주하는 게 아니라, 말에 올라타야 이기는 거예요. 질문을 바꿔야 해요. 인간이 만든 인공지능을 인간이 과연 올라탈 수 있느냐? (….) 인공지능을 만든 사람들에게 기대를 거는 게 아니라, 인공지능을 컨트롤할 수 있는 사람에게 기대하는 겁니다."
고 이어령 교수는 말과 달리기에서 이길 수 없으니 말을 올라타는 것처럼, 우리도 AI를 올라타야 한다고 했다. 그 말은 AI를 만든 사람들에게 기대를 거는 것이 아니라, AI를 콘트롤 할 수 있는 사람이 되는 것이다.
그런 사람이 되려면, 이 교수는 두 가지가 필요하다고 말했다. 하나는 '말 위에 올라타 통제한다'는 것은, 언제 달려야 할지, 어디로 달려야 할지, 어떤 속도로, 어떻게 달려야 할지 문제다,,, 결국 '답'이 아니라 '질문'의 영역이다.
어쩌면 빠르게 변화하는 이 시대에 가장 중요한 건 제대로 된 질문을 던지는 능력일지 모른다. 여기서 인문 정신이 필요하다. 그리고 이런 사람은 다른 사람을 사랑하고, 다 함께 행복을 추구하고, 어려운 사람에 대해서 아픔을 함께 하는 마음, 이 세 가지 마음을 가진 사람이라고 그는 강조하셨다.
검색의 시대에 사색은 점점 힘을 잃었다. 그럼에도 생각을 멈추어선 안 된다. 챗GPT의 핵심은 질문이며 그것의 기반이 곧 ‘사유’이기 때문이다. 질문의 밀도와 창의성이 좋은 답변을 만든다. 덧붙여 우리에겐 답변의 옳고 그름을 판단할 지성의 의무가 있다.
챗GPT는 인간의 고유 영역으로 여겨졌던 ‘창의성’의 영역에 진입한 생성 인공지능(AI)이다. 챗GPT는 생성 AI의 대표적 모델인 GPT 기술을 기반으로 하는데 말 그대로 ‘자가 학습’해 답변을 ‘생성’하고 대량의 데이터와 맥락을 처리할 수 있는 ‘트랜스포머(변환기)’ 기술이다. 여기서 핵심적인 기술은 GPT 중 ‘T’에 해당하는 ‘트랜스포머’인데 앞서 기술한 내용을 기억하고 오류를 수정하는 기술로 ‘사람’과 대화하는 것처럼 느끼게 하는 정말 놀라운 기술이다.
그럼 이 챗GPT가 대체제가 될까 아니면 보완재로 남을까?
https://youtu.be/GbNwEWjEzqs?si=HyXnnKjBOL_jN4i2
첫댓글
공감이 되는 글이라 공유해 봅니다~🤗
또 다시 주어진 오늘이라는 시간도
소중하고 감사한 새날인 자신의 오늘이 되소서 🙏
생불아 난 여기 와서 노는게 좋아 ㅋㅋ
과거 컴프터가 처음 나왔을 때
원주율 계산을 3대에 걸쳐서 한 것을
단 몇 분 만에 한다고
겁을 먹은는 데 지금은 얼마나 좋아요
제곱근 계산 누승근 계산도
계산기 한번 두드리면 되는데
입력--------------통제--------------출력
센씽--------------연산--------------피드백-----------출력
전달함수------시정수----------전달지연----------헌팅
그렇게 연산 할수 있도록 누군가는 입력을 해야죠
통계적으로 중지를 모으기 땜에 실수가 저죠
기업에서 하면 기업은 이윤을 남겨야 하기 땜에
지금은 맛 보기고
나중에는 ai가 운전하면
밥 때가 되면 기업이 지정한 식당으로 가죠
의도적으로 에러도 치고
상대의 장점은 은근히 감추고 단점만 부각하고
책임은 에러로 하고
그냥 심풀하게 사는게 답