ChatGPT는 매일 약 25억 개의 메시지에 응답하며, 미국은 이 중 3억 3천만 개를 차지합니다. 검색 엔진과 상호 작용할 때의 경험과 달리 AI 응답은 쿼리에 대한 답변이 포함될 수도 있고 포함되지 않을 수도 있는 단순한 웹사이트 목록이라기보다는 친구의 응답에 더 가깝습니다. 사람들은 ChatGPT와 같은 AI 도구를 매우 이상한 방식으로 사용하고 있지만 정보를 공유할 때는 주의가 필수적입니다.
ChatGPT와 같은 챗봇은 정적 정보 데이터베이스를 기반으로 응답을 실행하는 단방향 도구가 아닙니다. 이는 공급된 데이터로부터 학습하는 지속적으로 진화하는 시스템이며 해당 정보는 공백 상태로 존재하지 않습니다. ChatGPT와 같은 시스템은 보호 장치를 갖추고 설계되었지만 이러한 보호 장치의 효율성에 대한 중요하고 확실한 우려가 있습니다.
예를 들어, 2025년 1월 Meta AI는 사용자가 다른 사용자의 비공개 프롬프트에 액세스할 수 있도록 허용하는 버그를 수정했습니다. 특히 ChatGPT의 경우 이전 버전은 공격자가 개인 데이터를 가로챌 수 있는 즉각적인 주입 공격에 취약했습니다. 또 다른 보안 결함은 공유 ChatGPT 채팅을 색인화하여 검색 결과에 공개하는 Google(및 기타 검색 엔진)의 불행한 경향이었습니다.
이는 온라인 존재의 다른 측면에 적용하는 디지털 위생의 기본 규칙이 ChatGPT에도 동일하게 적용되어야 함을 의미합니다. 실제로 기술의 보안과 상대적인 미성숙을 둘러싼 논란을 고려할 때 AI 챗봇을 다룰 때는 더욱 신중함이 필요하다고 주장할 수 있습니다. 이를 염두에 두고 ChatGPT와 절대 공유해서는 안 되는 5가지 사항을 살펴보겠습니다.
개인 식별 정보
아마도 가장 확실한 출발점은 개인 식별 정보(PII)의 공유(또는 바람직하지 않음)일 것입니다. 예를 들어, 사이버 보안 인텔리전스(Cyber Security Intelligence) 웹사이트는 최근 사이버 보안 전문가 그룹인 Safety Detectives의 연구 작업을 기반으로 한 기사를 게시했습니다. 이 연구에서는 공개적으로 사용 가능한 ChatGPT 대화 1,000개를 조사했는데 그 결과는 놀라웠습니다. 그들은 사용자들이 성명, 주소, ID 번호, 전화번호, 이메일 주소, 사용자 이름 및 비밀번호와 같은 세부 정보를 자주 공유한다는 사실을 발견했습니다. OpenAI의 ChatGPT 기반 AI 기반 브라우저인 Atlas와 같은 에이전트 AI 브라우저의 등장을 고려할 때 후자가 더 적합합니다.
ChatGPT가 이력서 및 자기 소개서와 같은 작업에 진정으로 도움이 된다는 것은 의심의 여지가 없습니다. 그러나 불필요하게 개인 정보를 포함하지 않고 완벽하게 작업을 수행합니다. 중요한 편지가 John Doe, Nowhere Street, Middletown에서 발송되는 것을 방지하기 위해 세부 정보를 편집하는 것을 기억하는 한 자리 표시자는 잘 작동합니다. 궁극적으로 이 간단한 단계를 통해 이름, 주소, ID 번호와 같은 민감한 데이터(모두 오용될 수 있는 정보)가 잘못된 사람의 손에 들어가는 것을 방지할 수 있습니다.
또 다른 옵션은 ChatGPT가 데이터 교육을 위해 채팅을 사용하지 않도록 선택하는 것입니다. 이 작업은 ChatGPT 설정 내에서 수행할 수 있으며 전체 지침은 OpenAI 웹사이트에서 확인할 수 있습니다. 중요한 점은 이것이 귀하의 PII를 공유하는 것이 갑자기 괜찮다는 것을 의미하지는 않지만, 실수로 공유된 정보가 공개적으로 공개될 가능성을 줄여준다는 것입니다. 간단히 말해서, ChatGPT와 PII를 공유하는 것은 반드시 해야 할 일이 아니며 모든 상황에서 피해야 합니다.
재정 세부정보
사람들이 ChatGPT를 사용하는 또 다른 일반적인 방법은 개인 재정 고문으로 사용하는 것입니다. 이는 월별 예산을 세우는 것처럼 간단한 것일 수도 있고 전체 은퇴 전략을 수립하는 것처럼 복잡한 것일 수도 있습니다. 첫째, OpenAI가 거리낌 없이 인정하는 것처럼 “ChatGPT는 실수할 수 있다. 중요한 정보를 확인하라”는 점에서 많은 전문가들은 금융 전문가에게 중요한 정보를 확인하지 않고 이러한 도구를 사용하지 말라고 조언합니다. 즉, ChatGPT는 재정 문제에 도움이 될 수 있지만 개인 재정 정보를 공유할 필요는 없습니다.
예산 책정 및 재무 계획은 일반적인 사용 사례이지만 사용자가 재무 세부 정보를 입력하고 싶은 유혹을 느낄 수도 있습니다. 은행 명세서를 이해하고, 대출 제안을 검토하고, 앞서 언급한 에이전트 AI를 사용합니다. 어떤 상황에서도 실제 세부 정보는 거의 필요하지 않으며 자리 표시자 정보를 입력할 수 있습니다. 사용자가 재무제표를 업로드하는 경우 PII 정보를 먼저 편집하는 것도 가능합니다.
민감한 정보에는 은행 계좌 번호, 신용 카드 세부 정보, 투자 계좌 자격 증명 및 세금 기록이 포함됩니다. 챗봇은 금융 거래를 보호하도록 설계된 보안 프레임워크 내에서 작동하지 않습니다. 본질적으로 이는 일단 입력된 정보는 일반적으로 금융 데이터에 적용되는 보호 장치 외부에 존재한다는 것을 의미합니다. 최악의 경우 민감한 금융 데이터가 ‘나쁜 행위자’의 손에 넘어가 금융 사기, 신원 도용, 랜섬웨어 공격, 피싱 등을 수행하는 데 사용할 수 있습니다.
의료 세부사항
우리는 사람들이 의학적 조언을 위해 ChatGPT를 사용해야 하는지에 대한 논쟁에 너무 깊이 들어가지는 않을 것입니다. “ChatGPT는 실수를 할 수 있습니다.”라는 이전 요점을 참조할 수 있다고만 말하면 충분합니다. 즉, 여기서 중요한 점은 의학적 조언을 위해 이를 사용해야 하는지 여부가 아니라, 특히 자주 언급되는 PII와 함께 의료 세부 정보를 공유해야 하는지 여부입니다. 점점 더 많은 사람들이 건강 관련 정보를 얻기 위해 ChatGPT와 같은 AI 챗봇을 사용하고 있기 때문에 이러한 구별이 중요합니다. 최근 여론 조사에 따르면 성인 6명 중 약 1명은 건강 정보를 위해 적어도 한 달에 한 번 AI 챗봇을 사용합니다. 젊은 성인의 경우 그 수가 4명 중 1명으로 증가합니다.
다시 말하지만, 일반적인 논의에 구체적인 내용이 포함되기 시작하면 위험이 발생합니다. 진단, 검사 결과, 병력, 정신 건강 문제 등의 정보는 특히 식별 정보와 결합될 때 빠르게 민감해질 수 있습니다. 금융 정보와 마찬가지로 이러한 데이터는 일단 입력되면 의료 데이터 보호 네트워크 외부에 존재하기 때문에 문제가 더욱 커집니다. 즉, 해당 데이터가 일단 ‘야생’에 있으면 사용자는 해당 데이터의 처리 방법에 대한 가시성이나 통제력이 거의 없습니다.
사실 사람들은 기존 Google 검색보다 ChatGPT를 통해 개인 정보를 더 편안하게 공유할 수 있습니다. 대화와 같은 상호 작용은 비개인적인 Google 검색보다 더 인간적인 느낌을 주며, 이는 개인 의료 정보를 공개하려는 의지가 더 커질 수 있습니다.
ChatGPT는 의학 개념을 폭넓게 이해하는 데 유용할 수 있지만 의사의 수술 재량권으로 취급되어서는 안 됩니다.
업무 관련 자료
개인 데이터 외에도 최소한 필터링되지 않은 형태로 ChatGPT에 속하지 않는 또 다른 범주의 정보가 있는데, 이는 기밀 또는 독점 업무 관련 자료와 관련된 대화입니다. 여기에는 고용주, 고객 또는 공개 노출이 허가되지 않은 진행 중인 프로젝트와 관련된 모든 것이 포함됩니다. ChatGPT를 사용하여 문서를 요약하고, 이메일을 다시 작성하고, 보고서를 확인 및 편집하고 싶은 유혹을 느낄 수 있지만, 그렇게 하면 종종 보호되는 데이터의 무결성에 불필요한 위험이 발생할 수 있습니다.
예를 들어 의료 시나리오로 돌아가서 이번에는 전문적인 관점에서 살펴보겠습니다. 이 경우 바쁜 의사는 언어를 강화하거나 복잡한 주제를 단순화하는 데 도움이 되도록 환자 요약 초안, 임상 메모 또는 추천 편지를 ChatGPT와 공유하고 싶은 유혹을 느낄 수 있습니다. 그러나 의도는 효율성이지만, 그러한 세부 정보를 공유하면 해당 자료가 공개 도메인에 놓이게 되거나 최소한 해당 정보를 보호하기 위해 고안된 보안 절차 외부에 놓이게 됩니다. 창작물과 지적재산권도 ‘공유하지 않음’ 범주에 속합니다.
즉, 문제를 요약하는 데 사용할 수 있는 실행 주제가 있습니다. 공개 플랫폼에 배치하거나 허용 가능한 안전하고 규제된 시스템 외부에 있는 제3자에게 전달하기 불편한 내용을 ChatGPT와 같은 AI 챗봇과 공유하지 마세요. 약간의 주의를 기울이면 챗봇은 매우 유용한 도구가 될 수 있습니다. ChatGPT에는 무시할 수 있지만 무시해서는 안되는 기능이 가득합니다. 보안을 유지하는 것은 이러한 기능 중 하나가 아닙니다.
불법적인 것
마지막으로 ChatGPT에서 불법적인 내용을 공유하는 것은 피하는 것이 가장 좋습니다. OpenAI는 유효한 미국 법적 절차에 따라 사용자 데이터를 공개하기 위해 최선을 다할 뿐만 아니라 국제 요청도 준수할 것입니다.
국내든 해외든 법은 항상 바뀌고 일상적인 행위도 짧은 시간 안에 범죄로 간주될 수 있으므로 나중에 법 집행 기관에 넘겨질 수 있는 회사에 공개하는 내용에 대해 신중을 기하는 것이 가장 좋습니다.
OpenAI에는 ChatGPT가 불법적이거나 비윤리적인 목적으로 사용되는 것을 방지하는 보호 장치가 마련되어 있으며 이러한 경계를 가지고 놀면 신고를 받을 수 있습니다. 여기에는 범죄나 사기를 저지르는 방법을 묻는 것, 사람들이 잠재적으로 유해한 행동을 취하도록 영향을 미치는 것 등이 포함됩니다. 또한 사용자가 다른 사람에게 해를 끼칠 계획이 있음이 감지된 채팅을 특별히 필터링하는 특수한 “파이프라인”도 있습니다.
후자의 점은 아마도 가장 심각하고 상대적으로 신고하기 쉬운 점일 것입니다. ChatGPT의 다른 불법적인 오용은 해당 보호 장치가 완벽하지 않다는 것을 보여줍니다. 악성 코드를 작성하고 사회 공학 계획을 자동화하기 위해 플랫폼을 사용하는 방법은 잘 문서화되어 있으며 이는 ChatGPT를 사용할 때 주의 우선 접근 방식의 중요성을 강조합니다.