ChatGPT는 예상치 못한 용도를 포함하여 다양한 작업에 유용할 수 있지만 재정적 조언을 위해 ChatGPT에 의존하는 것은 확실히 좋은 생각이 아닙니다. Journal of Financial Planning에 발표된 연구에서는 ChatGPT 3.5, Microsoft Bing의 통합 GPT-4 및 Google의 Bard(현재 Gemini로 알려짐)를 테스트하여 다양한 금융 주제를 다루는 다양한 질문을 했습니다. 모든 챗봇의 응답은 매우 처참했으며, 세 가지 모두 대부분의 질문에 잘못된 답변을 했습니다.
챗봇은 이자율, 주택담보대출, 사회보장 혜택과 같은 질문을 다룰 때 지속적으로 수학적인 실수를 저질렀으며 종종 극도로 오해의 소지가 있거나 완전히 잘못된 조언을 제공했습니다. 때때로 그들은 주어진 프롬프트의 특정 부분을 무시했고, 다른 때에는 그러한 가정이 어디서 왔는지에 대한 추론을 제공하지 않고 무작위 가정을 했습니다.
더 나쁜 것은 챗봇이 일반적으로 잘못된 답변에 대해 매우 확신을 갖고 있다는 것입니다. 아직 금융 전문가가 아닌 사람은 계산 자체를 수동으로 확인할 수 없기 때문에 이러한 답변이 정확하다고 가정하는 것이 매우 쉽다는 것을 알게 될 것입니다. 물론, 계산을 직접 수행할 수 있거나 계산을 대신 수행하기 위해 실제 재무 설계사에게 비용을 지불할 수 있다면 애초에 더 이상 챗봇에게 물어볼 필요가 없습니다.
자신감 넘치는 챗봇은 사용자와 더 많은 신뢰를 구축합니다.
투자, 부동산 구입, 연금 관리와 같은 재정적 결정은 모두 잘못될 경우 잠재적으로 인생을 바꾸는 결과를 초래할 수 있습니다. 그렇기 때문에 인간이든 로봇이든 재무 상담사가 균형 잡힌 추천을 하고 주어진 결정에 대해 각 옵션을 선택하는 장단점을 명확하게 설명하는 것이 매우 중요합니다.
그러나 인공지능(Artificial Intelligence) 저널에 발표된 연구에 따르면 사용자는 균형 잡힌 조언을 제공하는 챗봇보다 지나치게 자신감 있는 재정 조언을 제공하는 챗봇을 더 신뢰하는 경향이 있는 것으로 나타났습니다. 또한 이 연구에서는 지나치게 자신감이 넘치는 챗봇이 잘못된 조언을 퍼뜨리는 경향이 더 높다는 사실도 발견했습니다. 설상가상으로, 연구 참가자들은 언제 그런 나쁜 조언을 받았는지 알 수 없었습니다. 대신 그들은 대부분 챗봇이 말하는 것이 무엇이든지 정답일 것이라고 믿었습니다.
또 다른 주목할만한 결과는 자신의 재정 상황을 정확하게 설명하는 데 능숙하지 않은 사람들에게 챗봇이 더 나쁜 조언을 제공했다는 것입니다. 챗봇이 최고의 조언을 제공하기 위해서는 참가자들은 자신의 투자 선호도 등을 명확하게 말하고 일부 금융 전문 용어를 이해할 수 있어야 했습니다. 돈에 대한 조언을 얻기 위해 챗봇을 찾는 대부분의 사람들은 아직 금융 용어에 능숙하지 않을 것이며, 이로 인해 결국 나쁜 조언을 받게 될 가능성이 더욱 높다고 가정하는 것은 꽤 합리적입니다.
챗봇의 한계를 이해하다
ChatGPT를 완전히 피하고 싶은 데는 여러 가지 이유가 있습니다. 일부 소스를 위조하는 것으로 알려져 있으며 때때로 매우 소름 끼치는 답변을 제공할 수 있으며 모든 LLM과 마찬가지로 소스 자료에서 발견된 편견을 증폭시킬 수 있습니다. 그러나 이는 여전히 7억 명 이상의 주간 사용자에게 유용한 리소스입니다. 챗봇을 최대한 활용하는 열쇠는 한계를 이해하는 것이며, 무엇보다도 실제 세계에 심각한 결과를 초래할 수 있는 주요 재정적 결정에 챗봇에 의존하지 않는 것입니다. 챗봇은 자신이 말하는 내용을 아는 것처럼 들릴 수도 있지만 개인의 재정적 요구 사항을 이해하는 능력이 부족하고 어떤 경우에는 수학도 할 수 없는 것처럼 보입니다.
인간 재무 자문가는 비용이 많이 들 수 있지만, 큰 재정적 결정에 대한 조언을 찾고 있다면 전문가와 상담하는 것이 가장 좋습니다. 그들은 시간을 내어 귀하의 상황을 이해하고 모든 결정의 장점과 단점을 자세히 설명할 수 있습니다. 그러한 조언을 구하는 데 더 많은 비용이 들더라도 장기적으로 귀하의 재정 상황에 가장 적합한 결정을 내릴 수 있다는 이점이 있습니다.

