이번 주에는
진짜보다 더 진짜 같은 가짜 사진을 만들 수 있는 AI의 능력이
인간의 삶에 매우 부정적인 영향을 미칠 수 있다는 내용을 가지고
영어훈련하겠습니다.
글쓴이는 최근 미국 국방성 건물 주위에서 폭탄이 터진 사진이 유포되고
주가가 잠시나마 급락한 사건을 예로 들며,
AI가 정교하게 만든 사진에 인간들이 속아 넘어가는 현실을 우려합니다.
아직은 사진의 정교한 수준이지만,
1,2년 내로 정교한 수준의 동영상도 등장할 것이고,
그때 가서는 더욱 더 큰 파장이 AI 때문에 발생할 것이라
글쓴이의 예상인데, 그 논리를 저와 함께 감상하시죠.
이번 주 칼럼에는
어려운 단어들이 중간중간 등장합니다.
기본 어휘들과 문장 구조 파악 능력으로
그 어려운 단어들의 의미를 추측하고 헤쳐나가는 훈련을
저와 함께 해보시기 바랍니다.
Don't believe your eyes in AI era
A fake photo of an explosion near the Pentagon went viral across Twitter last month, and stocks dipped. The incident confirmed what many have said for months: Misinformation is on course to be supercharged as new AI tools for concocting photos get easier to use.
Fixing this problem with technology will be an endless game of whack-a-mole. It’s certainly worth trying to track image provenance, as Adobe is doing with its Content Authenticity Initiative. But as the saying goes, a lie can travel around the world and back again while the truth is still lacing up its boots. In a world where more content than ever is being generated artificially, we’ll all need to become more skeptical about what we see online -- especially in the run-up to a US presidential election next year.
The Pentagon “photo” became particularly messy because of Twitter’s poor excuse for a verification system. Elon Musk revamped the site’s blue ticks so that they would no longer be monopolized by “elites” like press and celebrities, and so more people could become verified and have a louder voice for a flat fee. Unfortunately, his system has become a target for imitators, like the paid account BloombergFeed, which was one of several verified accounts that posted the Pentagon photo before getting suspended a few hours later.
중략..............