|
Share full article
459
Opinion Columnist
Plato mourned the invention of the alphabet, worried that the use of text would threaten traditional memory-based arts of rhetoric. In his “Dialogues,” arguing through the voice of Thamus, the Egyptian king of the gods, Plato claimed the use of this more modern technology would create “forgetfulness in the learners’ souls, because they will not use their memories,” that it would impart “not truth but only the semblance of truth” and that those who adopt it would “appear to be omniscient and will generally know nothing,” with “the show of wisdom without the reality.”
If Plato were alive today, would he say similar things about ChatGPT?
ChatGPT, a conversational artificial intelligence program released recently by OpenAI, isn’t just another entry in the artificial intelligence hype cycle. It’s a significant advancement that can produce articles in response to open-ended questions that are comparable to good high school essays.
It is in high schools and even college where some of ChatGPT’s most interesting and troubling aspects will become clear.
Essay writing is most often assigned not because the result has much value — proud parents putting good grades on the fridge aside — but because the process teaches crucial skills: researching a topic, judging claims, synthesizing knowledge and expressing it in a clear, coherent and persuasive manner. Those skills will be even more important because of advances in A.I.
When I asked ChatGPT a range of questions — about the ethical challenges faced by journalists who work with hacked materials, the necessity of cryptocurrency regulation, the possibility of democratic backsliding in the United States — the answers were cogent, well reasoned and clear. It’s also interactive: I could ask for more details or request changes.
But then, on trickier topics or more complicated concepts, ChatGPT sometimes gave highly plausible answers that were flat-out wrong — something its creators warn about in their disclaimers.
Unless you already knew the answer or were an expert in the field, you could be subjected to a high-quality intellectual snow job.
You would face, as Plato predicted, “the show of wisdom without the reality.”
All this, however, doesn’t mean ChatGPT — or similar tools, because it’s not the only one of its kind — can’t be a useful tool in education.
Schools have already been dealing with the internet’s wealth of knowledge, along with its lies, misleading claims and essay mills.
One way has been to change how they teach. Rather than listen to a lecture in class and then go home to research and write an essay, students listen to recorded lectures and do research at home, then write essays in class, with supervision, even collaboration with peers and teachers. This approach is called flipping the classroom.
In flipped classrooms, students wouldn’t use ChatGPT to conjure up a whole essay. Instead, they’d use it as a tool to generate critically examined building blocks of essays. It would be similar to how students in advanced math classes are allowed to use calculators to solve complex equations without replicating tedious, previously mastered steps.
Teachers could assign a complicated topic and allow students to use such tools as part of their research. Assessing the veracity and reliability of these A.I.-generated notes and using them to create an essay would be done in the classroom, with guidance and instruction from teachers. The goal would be to increase the quality and the complexity of the argument.
This would require more teachers to provide detailed feedback. Unless sufficient resources are provided equitably, adapting to conversational A.I. in flipped classrooms could exacerbate inequalities.
In schools with fewer resources, some students may end up turning in A.I.-produced essays without obtaining useful skills or really knowing what they have written. “Not truth but only the semblance of truth,” as Plato said.
Some school officials may treat this as a problem of merely plagiarism detection and expand the use of draconian surveillance systems. During the pandemic, many students were forced to take tests or write essays under the gaze of an automated eye-tracking system or on a locked-down computer to prevent cheating.
In a fruitless arms race against conversational A.I., automated plagiarism software may become supercharged, making school more punitive for monitored students. Worse, such systems will inevitably produce some false accusations, which damage trust and may even stymie the prospects of promising students.
Educational approaches that treat students like enemies may teach students to hate or subvert the controls. That’s not a recipe for human betterment.
While some students lag, advanced A.I. will create a demand for other advanced skills. The Nobel laureate Herbert Simon noted in 1971 that as information became overwhelming, the value of our attention grew. “A wealth of information creates a poverty of attention,” as he put it. Similarly, the ability to discern truth from the glut of plausible-sounding but profoundly incorrect answers will be precious.
Already, Stack Overflow, a widely used website where programmers ask one another coding-related questions, banned ChatGPT answers because too many of them were hard-to-spot nonsense.
Why rely on it at all, then?
At a minimum, because it will soon transform many occupations. The right approach when faced with transformative technologies is to figure out how to use them for the betterment of humanity.
Betterment has been a goal of public education for at least the past 150 years. But while a high school diploma once led to a better job, in the past few decades, the wages of high school graduates have greatly lagged those of college graduates, fostering inequality.
If A.I. enhances the value of education for some while degrading the education of others, the promise of betterment will be broken.
Plato erred by thinking that memory itself is a goal, rather than a means for people to have facts at their call so they can make better analyses and arguments. The Greeks developed many techniques to memorize poems like the “Odyssey,” with its more than 12,000 lines. Why bother to force this if you can have it all written down in books?
As Plato was wrong to fear the written word as the enemy, we would be wrong to think we should resist a process that allows us to gather information more easily.
As societies responded to previous technological advances, like mechanization, by eventually enacting a public safety net, a shorter workweek and a minimum wage, we will also need policies that allow more people to live with dignity as a basic right, even if their skills have been superseded. With so much more wealth generated now, we could unleash our imagination even more, expanding free time and better working conditions for more people.
The way forward is not to just lament supplanted skills, as Plato did, but also to recognize that as more complex skills become essential, our society must equitably educate people to develop them. And then it always goes back to the basics. Value people as people, not just as bundles of skills.
And that isn’t something ChatGPT can tell us how to do.
플라톤이 챗GPT를 보면 뭐라고 할까?
2022.12.22 07:00 by뉴욕타임스
*제이넵 투펙치는 미국 콜럼비아대학교 언론대학원 교수로, 책 “트위터와 최루탄: 네트워크화된 시위의 힘과 약점”을 썼다.
철학자 플라톤은 알파벳의 발명에 애통해했다. 그는 문자를 쓰게 되면 기억에 의존해 말과 글을 꾸며 쓰던 전통이 위협받을지 모른다고 걱정했다. 플라톤의 “대화”에서 그는 이집트 신들의 왕인 타무스의 입을 빌려 이 새로운 기술 -알파벳- 때문에 “배우는 이들이 기억력을 사용하지 않아 영혼에 건망증을 초래할 것”이라며, 문자를 사용하는 이들은 “현실이 빠진 지식을 과시할 것이고, 모든 걸 다 아는 것처럼 보이겠지만, 실은 아무것도 모르게 될 것”이라고 주장했다.
플라톤이 오늘날 살아있다면 챗GPT에 대해서도 비슷한 말을 했을까?
챗GPT는 최근 오픈AI(OpenAI)가 출시한 대화형 인공지능 프로그램이다. 뭐든 인공지능에 관한 것이라면 지나친 주목을 받는 요즘이지만, 챗GPT는 분명 주목할 만한 프로그램이다. 단순하지 않은 열린 질문을 해도 고등학생이 써낸 에세이 수준의 답변을 한다는 점에서 유의미한 진보를 이뤄냈다.
챗GPT의 보다 흥미롭고 문제적인 면이 두드러질 장소는 바로 고등학교나 대학교의 강의실이 될 것이다. 학생들에게 에세이를 쓰게 하는 것은(자식들의 우수한 점수를 자랑스레 냉장고에 붙여놓는 부모도 물론 있겠지만) 결과물에 대단한 가치가 있어서가 아니다. 에세이를 쓰는 과정에서 매우 중요한 기술, 즉 주제에 대한 조사, 여러 주장에 대한 판단, 지식을 종합해 명료하고 일관되며 설득력 있는 방식으로 써내는 법 등을 배울 수 있기 때문이다. 인공지능의 발전으로 인해 이러한 기술은 더욱 중요해질 것이다.
나는 챗GPT에게 해킹으로 얻은 자료를 취재에 활용하는 기자의 윤리 문제, 암호화폐 규제의 필요성, 미국 민주주의 후퇴의 가능성 등 다양한 주제로 질문을 던졌는데, 명료한 답변은 설득력과 탄탄한 논리를 갖추고 있었다. 상호작용도 가능해서 더 자세한 답을 요구하거나 내용을 바꿔 달라고 요청할 수도 있었다.
하지만 좀 더 까다로운 주제나 복잡한 개념을 추가하자 챗GPT는 굉장히 그럴듯하지만, 완전히 틀린 답을 내놓기도 했다. 챗GPT 개발자들도 미리 주의사항에 써놓은 부분이다. 이미 답을 알고 있거나 해당 분야의 전문가가 아니라면, 이러한 고품질 지적 사기극에 넘어갈 수도 있겠다. 플라톤이 예언한 대로, “현실이 빠진 지식의 과시”가 나타나는 것이다.
하지만 그렇다고 챗GPT나 그와 비슷한 도구들이 교육 현장에서 유용하게 쓰일 수 없는 것은 아니다. 학교는 이미 인터넷에 대처해 온 경험이 있다. 인터넷은 정보의 보고지만, 동시에 거짓과 잘못된 주장, 에세이 공장의 보고이기도 하다.
대처 방법 가운데 하나는 바로 수업 방식을 바꾼 것이다. 교실에서 수업을 듣고 집에서 관련 자료를 찾아보고 에세이를 쓰는 대신, 이제 집에서 녹화된 수업을 보고 자료를 찾은 다음, 교실에서 교사의 감독, 나아가 동료 학생, 교사들과 협력해 에세이를 쓰는 식이다. 교실 뒤집기 또는 거꾸로 교실이라고 불리는 접근법이다.
“거꾸로 교실”에서 학생들은 챗GPT를 활용해 완성품 에세이를 뽑아내지 않을 것이다. 대신에 비판적인 검토를 거친 에세이용 구성 요소를 만들어내는 도구로 챗GPT를 사용하게 될 것이다. 고급 수학 수업을 듣는 학생들이 복잡한 식을 풀 때 이미 숙달된 지루한 과정은 계산기를 써서 건너뛰도록 하는 것과 마찬가지다.
교사는 복잡한 주제를 과제로 내주면서 자료를 조사할 때 챗GPT 같은 도구를 일부 활용하도록 허용할 수 있을 것이다. 인공지능이 만들어낸 자료의 정확성과 신뢰도를 평가하고, 이를 활용해 에세이를 작성하는 일은 수업 시간 내에 교사의 지침과 지도하에 이루어질 것이다. 목표는 더 정교하고 자세한 논리를 갖춘 주장을 써내는 것이다.
이런 수업이 가능하려면 교사는 세세한 피드백을 제공해야 한다. 충분한 자원이 공평하게 제공되지 못한다면 “거꾸로 교실”에 대화형 인공지능을 도입하는 것은 오히려 불평등을 가중할 뿐이다. 자원이 부족한 학교에서라면 필요한 기술을 습득하기는커녕 자신이 무엇을 썼는지도 이해하지 못한 채 인공지능이 생산한 에세이를 그대로 제출해버리는 학생이 나올 수도 있다. 플라톤이 말한 “진실이 아닌, 진실의 겉모습”에 해당되는 일이다.
어떤 학교는 이를 단순한 표절 추적의 문제로 여기고 엄격한 감시 체계를 확대하려들 수도 있다. 팬데믹 기간 시험 답안이나 에세이 작성 시 커닝을 방지한다는 명분으로 자동화 안구 추적 시스템이나 컴퓨터 통제 기술이 도입되기도 했다.
대화형 인공지능과 자동화 표절 소프트웨어에 맞선 성과없는 군비 경쟁이 과열되어, 학교가 학생에 대한 처벌과 감시를 강화하는 사태가 발생할 수도 있다. 그런 시스템에서는 무고로 인해 억울한 피해자가 꼭 나오기 마련이다. 그러면 교육 현장의 신뢰가 손상되거나 전도유망한 학생의 미래가 좌절될 수도 있다. 이렇게 학생을 적대시하는 교육법은 학생들에게 통제에 대한 증오를 가르치고 전복을 꿈꾸게 할 수도 있다. 인간을 더 낫게 만든다는 교육의 목적에 부합하는 그림은 아닐 것이다.
모든 학생이 따라오지는 못할 수도 있지만, 고급 인공지능은 또 다른 고급 기술에 대한 수요를 만들어낼 것이다. 노벨상 수상자인 허버트 사이먼이 1971년에 이야기한 대로, 정보가 압도적으로 많아질수록 주의력의 가치도 커진다. 그의 표현에 따르면 “정보의 풍요가 주의력의 빈곤을 낳는다.” 마찬가지로 그럴듯하지만 완전히 잘못된 답과 진실을 구분해내는 능력은 매우 귀해질 것이다.
개발자들이 모여 코딩에 대한 문답을 주고받는 웹사이트 ‘스택 오버플로우(Stack Overflow)’는 이미 챗GPT로 만들어진 답변을 금지했다. 짚어내기 어려운 엉터리 답변이 너무 많았기 때문이다. 그렇다면 아예 챗GPT를 쓰지 않으면 안 될까? 적어도 챗GPT는 얼마 안 가 여러 직업의 모습을 바꾸게 될 것이다. 변혁적인 기술을 마주했을 때 우리는 인류의 진보를 위한 활용법을 찾고자 노력해야 한다.
인류의 발전은 적어도 지난 150년간 공교육의 목표였다. 한때 고등학교 졸업장만 있으면 더 좋은 직업을 구할 수 있던 시절도 있었지만, 지난 수십 년간 고졸자 임금은 대졸자 임금에 비해 눈에 띄게 떨어졌고, 이에 따라 불평등이 커졌다. 인공지능이 어떤 사람들에게는 교육의 가치를 더해주지만, 다른 이들에게는 교육의 질 저하를 가져온다면, 인류의 진보는 요원한 일이 된다.
플라톤의 오류는 기억력 자체를 목표로 삼은 데 있다. 기억력이란 우리가 더 나은 분석과 주장을 하는 데 필요한 사실(fact)을 필요할 때 바로 불러오는 도구에 불과하다. 그리스인들은 “오디세이” 같은 12,000줄이 넘는 대서사시를 암기하기 위해 여러 테크닉을 동원했다. 책으로 적어두면 될 것을 왜 외우느라 고생하는가? 플라톤이 문자로 기록된 단어를 적으로 여기고 두려워한 것이 잘못이듯, 우리가 정보를 더 쉽게 모을 수 있는 수단에 저항한다면 그 또한 잘못일 것이다.
과거 우리 사회는 기계화를 비롯한 기술적 진보에 공공 안전망을 확보하고, 노동 일수와 노동 시간을 줄이고, 최저임금을 도입하는 것으로 대응했다. 마찬가지로 오늘날에도 내가 가진 기술이 더 이상 필요 없어지더라도 여전히 존엄성을 기본적인 권리로 누리며 살아갈 수 있도록 해주는 정책이 필요하다. 훨씬 더 큰 부가 만들어지고 있는 만큼, 상상의 나래를 마음껏 펼쳐 자유 시간을 더 확보하고, 더 많은 사람의 노동 환경을 개선할 수 있을 것이다.
앞으로 우리는 플라톤처럼 새로운 기술의 등장에 슬퍼하는 것이 아니라, 더 복잡한 기술이 필수가 될수록 우리 사회가 그것을 모두에게 공평하게 교육시켜야 한다는 점을 염두에 두고 나아가야 한다. 기본으로 돌아가는 것은 언제나 도움이 된다. 인간을 기술을 가진 도구가 아닌 인간 그 자체로 가치 있게 여기는 일 말이다.
그리고 이는 챗GPT에게 아무리 물어봐도 들을 수 있는 답변이 아니다.
(c) 2022 The New York Times Company
|