현시점에서는 AI가 거의 모든 곳에, 거의 모든 것에 존재한다고 말해도 무방합니다. 음악용 AI 생성기는 Spotify에서 AI 밴드의 물결을 일으켰습니다. AI는 구직 지원 도구와 인간과의 공중전에서 AI가 제어하는 F-16 전투기에 사용됩니다. 사람들은 점점 더 이상한 방식으로 그것을 사용하고 있으며 상상할 수 있는 가장 이상한 AI 기반 장치를 만들고 있습니다. 우리의 소셜 미디어는 이제 AI 슬롭으로 넘쳐나고 있으며 해당 비디오를 보는 많은 계정도 봇일 수 있습니다. 우리는 일반 Joe가 속임을 피하기 위해 AI가 생성한 텍스트, 사진 및 비디오를 감지하는 방법을 알아야 하는 시점에 와 있습니다. 이러한 상황으로 인해 많은 사람들이 손을 뻗었습니다. 새로운 현실이라면 어디에서나 AI를 수용하는 것이 낫겠죠? 우리는 더 이상 동의하지 않았습니다. AI가 아무리 보편화되더라도 건드리지 말아야 할 사용 사례가 항상 있기 마련입니다.
더 명백하고 논란의 여지가 있는 내용은 건너뛰겠습니다. 기술 회사는 생성 AI 모델을 훈련하기 위한 동의나 적절한 보상 없이 아티스트의 작업을 효과적으로 훔친 다음 해당 모델을 사용하여 대체하고 있습니다. 안타깝게도 우리는 그러한 문제가 왜 잘못된 것인지 대기업이나 일반 대중에게 설득할 수 없을 것입니다. 대신, 우리는 AI 사용이 도덕적, 윤리적으로 문제가 있거나 물리적으로든 다른 방식으로든 사용자에게 실질적인 위험이 있는 명확한 영역에 초점을 맞출 것입니다. AI를 절대 사용해서는 안 된다고 생각하는 5가지 방법은 다음과 같습니다.
다른 사람의 딥페이크 만들기
딥페이크가 유명해졌을 때 우리는 가장 큰 위험은 잘못된 정보라고 생각했습니다. 물론 사람들은 딥페이크를 사용해 정치인들이 결코 말하지 않은 말을 하게 만듭니다. 하지만 사람들은 주로 딥페이크(98%)를 사용하여 결코 동의하지 않은 사람들이 등장하는 포르노를 만듭니다. 수년 동안 사람들은 유명인과 때로는 일반 사람들이 출연하는 합의되지 않은 딥페이크 포르노로 가득 찬 전체 웹사이트를 볼 수 있었습니다. 유료 서비스는 누구의 사진이든 적절한 가격으로 포르노로 변환할 수 있습니다.
이것이 병에 쓰였다는 이야기는 속이 뒤집힌다. 학생들(때때로 미성년자)의 사진을 공유하여 그들을 성적으로 노골적인 사진으로 바꾸는 한국의 일부 텔레그램 채널(BBC를 통해)을 예로 들어보겠습니다. 또는 자신의 Instagram 핸들과 위치(BBC를 통해)가 포함된 여러 SA 환상에 빠져 있는 자신을 묘사하는 사이트를 우연히 발견한 여성도 있습니다. 딥페이크 포르노는 언론인들을 침묵시키고 인기 유명인사들을 모욕하는 데 사용되었습니다. 이와 같은 비난받을 만한 이야기를 찾기 위해 멀리 갈 필요는 없습니다. 불행하게도 그 이야기들은 십 센트에 불과하기 때문입니다. 좋은 소식이 있습니다. 주요 딥페이크 포르노 웹사이트가 폐쇄되었으며, 딥페이크 포르노의 특정 사용을 방지하기 위한 일부 법안이 도입되었습니다. 그럼에도 불구하고 딥페이크를 만드는 도구는 항상 존재합니다.
딥페이크 포르노가 왜 잘못된 것인지 설명할 필요가 없기를 바랍니다. 온라인에 게시된 적이 없더라도 다른 사람의 동의 없이 딥페이크 포르노를 만드는 것은 용납되지 않습니다. 영화를 위해 유명인의 나이를 빼거나 농담으로 어리석은 말을 하게 만드는 등 딥페이크를 사용하는 것이 도덕적으로 무해한 상황은 거의 없습니다. 그러나 슬픈 사실은 딥페이크 포르노 외에도 이 기술이 종종 사기와 정치적인 잘못된 정보에 사용된다는 것입니다. 어떤 이유로 딥페이크를 사용하면 잠시 멈추게 된다면 그렇게 해서는 안 됩니다.
(거의) 모든 건강 관련 정보를 요청합니다.
Google의 AI가 사람들에게 피자에 접착제를 바르라고 말했던 때를 모두가 기억합니다. 건강 정보가 있는 챗봇을 절대 신뢰해서는 안 되는 이유를 보여주는 공개적인 예처럼 보였습니다. 그럼에도 불구하고 일부 통계에 따르면 미국인의 3분의 1 이상이 채팅봇에 의존하는 것으로 나타났습니다. 사람들은 이를 사용하여 식사를 계획하고, 맞춤형 운동을 만들고, 어떤 경우에는 다른 곳에서 들은 정보를 확인하기도 합니다. 내 친구, 친척, 지인 중 얼마나 많은 사람들이 건강 관련 목적으로 AI를 무비판적으로 사용하는지 보면 겁이 납니다. 내 두려움은 정당합니다. 사람들은 이미 챗봇 건강 조언을 받다가 심각한 결과를 겪었습니다.
대부분의 사람들은 이제 AI가 환각 성향을 갖고 있다는 사실을 알고 있으며, 환각 문제가 점점 더 악화되고 있다는 증거가 있습니다. LLM은 인터넷에서 텍스트로 가득 찬 교육을 받는다는 점을 반복해서 말씀드리고 싶습니다. 그 중 일부는 평판이 좋고 사실에 기반한 소스에서, 일부는 완전히 헛된 소스에서 나온 것입니다. 그들은 진실을 분별하기 위해 스스로 사실을 확인할 수 없으며, 지식 격차를 메우기 위해 쉽게 정보를 조작합니다. 그들의 주요 목적은 훈련 데이터를 기반으로 질문에 가장 가능성 있는 답변을 제공하고 친절하고 복종하는 것입니다. 우리 모두는 여러분이 답을 수정하면 AI가 답을 어떻게 바꾸는지 보았습니다. 따라서 의료 분야에서 AI의 부상은 사회에 치명적인 결과를 초래할 수 있습니다.
물론 AI의 건강 용도 중 일부는 대부분 양성입니다. AI가 특정 운동을 몇 번 더 반복하라고 말하면 괜찮을 것입니다. 그러나 무엇을 섭취하는지, 무엇을 피부에 바르는지, 얼마나 잠을 자는지 등 몸을 어떻게 처리할지 묻는 것은 최악의 방법으로 건강을 도박하는 것입니다. 의료 전문가를 고수하십시오.
숙제를 하는 중
챗봇이 에세이를 작성하고, 질문에 답하고, 문제를 해결할 수 있을 때 – 설령 이러한 일을 잘못하거나 잘못된 정보로 수행하더라도 – 학생들은 저항이 가장 적은 길을 택하여 이를 사용합니다. AI는 이제 학교와 대학 모두에서 흔히 볼 수 있습니다. 교육자들은 이를 막기 위해 거의 아무것도 할 수 없으며, 많은 경우 AI를 직접 사용하고 있습니다. 교육 기관에서는 점점 더 AI를 수용하고 이를 설명하기 위해 부정 행위를 재정의하고 있습니다. 내 개인적인 생각으로는 이것은 미래 세대에게 지속적인 결과를 초래할 수 있는 사회 전반에 걸친 무모한 실험입니다.
교육에서 AI의 문제는 교육의 전체 목적을 훼손한다는 것입니다. 교육은 학생들에게 비판적으로 생각하는 방법, 연구하는 방법, 문제 해결 방법과 같은 귀중한 생활 기술을 가르치는 것입니다. 챗봇이 당신을 위해 즉시 숙제를 할 수 있다면 당신은 당신을 교육받고 지적인 사람으로 만드는 어렵지만 중요한 과정을 놓치게 됩니다. 챗봇은 등장한 지 불과 몇 년밖에 되지 않았지만, 수백만 명의 학생들(첫 날부터 이 학습 경험을 우회한)이 졸업하면 우리는 잔혹한 타격을 받게 될 것이라고 확신합니다.
또 다른 문제는 챗봇을 신뢰할 수 없게 만드는 환각입니다. 미래의 의사, 조종사, 건축가 및 기타 전문가가 실수로 사람들, 즉 잘못된 정보를 배웠거나 업무를 올바르게 수행하는 데 필요한 교육을 받지 못한 개인에게 심각한 해를 끼칠 수 있다고 상상해 보십시오. AI로 인해 부정적인 영향을 받은 교육을 받은 다양한 분야의 전문가가 머지않아 탄생할 것이라고 가정하는 것은 무리가 아닙니다. 나는 가장 열렬한 AI 전도사라도 ChatGPT에서 가르치는 심장 전문의의 수술을 기꺼이 받을 것이라고 생각하지 않습니다. 따라서 AI로 숙제를 하는 것은 학문적으로 부정직하기 때문에 잘못된 것일 뿐만 아니라 다른 사람을 위험에 빠뜨릴 수도 있습니다.
진지한 인생 조언 받기
얼핏 보면 AI는 대화에 뛰어나기 때문에 친구나 치료자, 혹은 단순히 대화 상대로서도 좋을 것 같습니다. 그러나 ChatGPT(NBC 뉴스를 통해)에서 자살 생각에 대해 이야기하지 않은 십대 또는 파트너가 자신의 목숨을 끊도록 격려한 “AI 여자 친구”(미래주의를 통해)와 같은 공포 이야기를 읽습니다. 많은 사람들이 ChatGPT를 치료사 또는 디지털 동반자로 사용하고 문제 해결 방법에 대한 매우 충격적인 조언을 받고 있습니다. ChatGPT와 같은 챗봇은 누군가와 헤어지도록 권하지 않는 것과 같은 가드레일을 설치했지만 이러한 가드레일은 피해가 이미 발생한 후에만 나타나거나 쉬운 해결 방법이 있는 경우가 많습니다.
이제는 조언을 위해 챗봇을 사용하는 사람들을 너무 가혹하게 대하고 싶지 않습니다. 치료 비용은 비싸고 인플레이션은 기록적인 수준이며 우리는 외로움이 만연하는 가운데 있습니다. 쉽게 사용할 수 있고 설득력 있는 대화를 제공하는 무료 챗봇을 찾는 사람을 비난하기는 어렵습니다. 그러나 이것은 사람들이 LLM을 오라클로 취급하는 또 다른 사례입니다. 챗봇은 훈련된 전문가, 즉 감각이 있는 존재가 아니라 순차적으로 단어를 예측하는 멋진 알고리즘입니다.
나는 챗봇을 사용하여 아이디어를 전달하는 데 아무런 문제가 없다고 생각합니다. 단, 그것이 말하는 모든 것을 엄청난 양의 소금으로 받아들이는 한입니다. 그러나 정신 건강 진단을 요청하지 말고, 관계 조언을 요청하지 말고, 인생 코치처럼 대하지 마십시오. 그리고 챗봇의 프리미엄 버전에 대한 비용을 지불한다고 해서 이를 신뢰할 수 있다고 가정하는 실수를 저지르지 마십시오. 결국 그것은 여전히 알고리즘일 뿐이다.
모든 것을 바이브 코딩
AI가 코딩에도 놀랍도록 유용하다는 사실을 부정하지는 않겠습니다. 코딩을 위한 최고의 AI 도구는 초보자와 전문가 모두에게 필수 불가결한 요소가 될 수 있습니다. 이는 프로그래머가 특정 내용을 자신의 말로 설명하여 작성하는 방법을 파악하고 훨씬 더 빠른 속도로 코드를 생성하는 데 확실히 도움이 되었습니다. AI를 활용한 코딩을 바이브 코딩(Vibe Coding)이라고 합니다. 그러나 다른 상황에서 AI를 사용하는 사람들에게 일반적으로 그렇듯이, 많은 바이브 코더는 AI가 모든 코드를 처리한 다음 엉망으로 실행되도록 합니다.
Vibe 코딩은 두 가지 이유로 문제가 있습니다. 첫째, 교육 분야의 AI와 마찬가지로 전문가의 중요한 학습 경험을 빼앗아갑니다. 프로그래밍의 핵심은 문제 해결 연습입니다. 코더는 코드를 기능적이고 효율적이며 보안 결함 없이 만드는 방법을 알아내기 위해 키보드 뒤에서 많은 시간을 투자하여 기술을 향상시킵니다. Vibe 코더는 챗봇이 뱉어내는 모든 내용을 최소한으로 또는 전혀 수정하지 않고 실행하는 경향이 있습니다. 너무 많은 바이브 코딩은 당신을 더 나쁜 프로그래머로 만들 수 있습니다.
두 번째 문제는 해당 코드가 실제로 사용될 때 나타납니다. 우리는 바이브 코딩이 실제 사람들에게 해를 끼칠 수 있는 사례를 이미 보았습니다. 여성들이 데이트 현장에서 문제가 있는 남성을 다른 여성에게 익명으로 알릴 수 있는 인기 있는 Tea 앱을 기억하실 것입니다. 그러다가 엄청난 위반을 겪었습니다. Tea의 개발자가 AI 바이브 코딩을 사용했다는 주장이 있었지만, 그렇지 않았더라도 바이브 코딩이 불안정하고 결함이 있는 코드를 생성한다는 증거가 있습니다. 프로그래머가 바이브 코드를 작성하려면 출력을 두 번, 세 번 확인해야 합니다. 그렇지 않으면 사용자의 개인 정보 보호 및 데이터 안전이 위험해집니다.




