ChatGPT가 실제로 우리의 학습 능력에 해를 끼치고 있습니까?





ChatGPT가 출시된 지 3년이 넘었고, 곧 산불처럼 번진 대량 생성 AI 트렌드가 촉발되었습니다. OpenAI의 뒤를 이어 Gemini, Copilot, Alexa+, Copilot과 같은 완전히 새로운 유형의 AI 보조자가 등장하기 시작했습니다. 개인 정보 침해, 자신 있게 잘못된 정보를 퍼뜨리는 것, 아첨, 위험한 행동을 유발하는 등의 위험은 잘 문서화되어 있습니다. 2025년 중반 MIT의 연구 논문은 대규모 논쟁을 촉발시켰습니다. ChatGPT가 우리를 바보로 만드는가? 이 논문은 OpenAI의 챗봇 사용과 관련된 인지 부채라는 개념을 문서화하면서 널리 논의되었습니다.

MIT의 전문가들은 세 그룹에게 에세이 작성을 맡겼습니다. 한 그룹은 정신적 저장소에만 의존했고, 다른 두 그룹은 동일한 작업에 웹 검색과 ChatGPT를 사용했습니다. 뇌 활동은 신경 연결성 측면에서 뇌 활동을 측정하기 위해 뇌파검사(EEG)를 사용하여 측정되었습니다. ChatGPT를 사용한 참가자는 테스트 중에 연결성이 가장 낮았는데, 이는 인지 능력이 낮음을 의미하며 종종 기억력 회상과도 관련이 있습니다. 전문가들은 “4개월 동안 LLM 사용자는 신경, 언어 및 행동 수준에서 지속적으로 저조한 성과를 거두었습니다.”라고 말하면서 대규모 언어 모델(LLM)을 사용하는 동안 인지 비용을 지불해야 한다고 덧붙였습니다.

이것은 그런 종류의 유일한 발견이 아니며 아마도 아닐 것입니다. Medical Research Archive에 발표된 연구에 따르면 ChatGPT와 같은 AI 도구에 대한 “과도한 의존”은 필수 인지 능력을 약화시킬 수 있다고 결론지었습니다. 또한 우리는 자연스러운 인지 능력을 보존하기 위해 인간과 기계의 노력 사이의 균형을 찾아야 한다고 덧붙였습니다. 보이시 주립 대학의 인지 심리학 부교수인 Brian W. Stone은 “투쟁, 마찰 및 정신적 노력은 학습, 기억 및 뇌의 연결 강화라는 인지 작업에 매우 중요합니다.”라고 썼습니다. 편리함은 인지 능력에 반하는 반복적인 요소인 것 같지만, 그 피해가 반드시 보편적인 것은 아닙니다.

과도한 의존으로 나선형으로 변하는 편리함

델리에 거주하며 언어 학습 및 교육을 전문으로 하는 박사 연구원은 SlashGear에 “때때로 AI가 없으면 장애가 있는 것처럼 느껴집니다.”라고 말했습니다. 28세의 연구원은 “창의력에 대한 열정을 잃었습니다”라고 덧붙였습니다. 인도 최고의 대학 중 한 곳에서 논문 발표를 앞두고 학자는 ChatGPT와 같은 AI 도구가 특히 경험적 데이터를 처리할 때 “내 작업량의 60%를 줄였다”고 밝혔습니다. ChatGPT가 실제로 정보를 학습하거나 처리하는 능력에 해를 끼치는지 여부는 밝히지 않았지만 ChatGPT가 제공하는 엄청난 편리함과 폭넓은 지식으로 인해 ChatGPT에 ‘상당히 의존’하게 되었다고 지적했습니다.

그들은 학술 ID 덕분에 유료 버전의 AI 도구에 대한 무료 액세스가 AI 에이전트를 사용하는 데 추가적인 인센티브가 되었다고 지적했습니다. 익명을 요청한 또 다른 학생은 학급의 “모든 사람”이 과제에 ChatGPT를 사용하고 있으며 행정부에서 ChatGPT 생성 콘텐츠를 허용하지 않는다는 공지를 게시해야 할 정도라고 말했습니다. 사회복지학 석사과정을 밟고 있는 한 학생은 “한 번 사용해봤는데 이제는 그것 없이는 일하기가 너무 힘들어요”라고 말했습니다.

랭커스터 대학의 연구에서는 ChatGPT 및 Gemini와 같은 AI 봇의 사용이 “학생의 학습 결과 및 참여에 큰 영향”을 나타내지 않았다고 언급했습니다. 그러나 이 연구에서는 이러한 챗봇을 학생들의 학습 절차에 통합할 경우 다른 해로운 측면을 지적했습니다. 정보와 명확성을 찾기 위해 AI 봇과 같은 기술 도구에 과도하게 의존함으로써 인간 전문가가 가르치는 실제 과정 자료에서 주의가 산만해졌습니다. 보고서는 또한 인간 전문가가 제공하는 지침 및 설명과 함께 일반적인 이해와 개인화된 피드백이 AI 챗봇과의 위험한 상호 작용보다 우위에 있기 때문에 상호 작용의 품질이 또 다른 중요한 요소라고 강조했습니다.