AI 쇼핑 에이전트를 사용할 때 이 경고를 기억해야 합니다





당사는 링크를 통해 이루어진 구매에 대해 수수료를 받을 수 있습니다.

Target은 최근 이용 약관을 업데이트하여 AI 에이전트가 귀하를 위해 구매하는 모든 품목에 대해 귀하가 직접 구매하는 경우와 동일한 규칙이 적용된다는 점을 명시했습니다. AI 봇(Target에서 말하는 “에이전트 상거래 에이전트”)은 귀하를 대신하여 행동하는 것으로 간주됩니다. 그들이 잘못된 것을 주문하거나 AI 에이전트가 불량하게 행동한다면 그것은 바로 당신의 문제입니다. Target은 그들이 엉망이 될 것이라고 말하지는 않지만 “Agentic Commerce Agent가 의도한 대로 정확하게 작동할 것”을 보장할 수는 없습니다.

Target에 따르면 쇼핑을 위해 AI 도구를 사용하는 경우 해당 작업을 검토하고 이상한 일이 없는지 확인하는 것이 귀하의 임무입니다. 이는 AI가 완전히 독립적으로 결정을 내리고 행동하는, 우리가 약속했던 Agentic AI의 미래와는 전혀 다르게 느껴집니다.

T&C의 문구는 승인된 모든 에이전트 상거래 에이전트에 적용되며 Target은 승인되지 않은 에이전트를 사용하지 말 것을 엄중히 권고합니다. 그러나 이제 Target이 T&C를 변경한 데에는 이유가 있습니다. Gemini는 곧 에이전트 AI 쇼핑 기능에 대한 대규모 업그레이드를 출시할 예정이며 Target은 모든 기반을 다 갖추고 있는지 확인하려고 합니다.

Target은 AI 쇼핑을 위해 Google Gemini와 파트너십을 맺었습니다.

Google Gemini는 ‘바이브 쇼핑’ 경험에 새로운 기능을 추가하고 있습니다. UCP(Universal Commerce Protocol)라고 하며 Google이 Target, Walmart, Shopify, Etsy, Wayfair 등의 상거래 파트너와 함께 개발했습니다. 목표는 AI 에이전트와 판매자가 모두 동일한 언어를 사용하는 하나의 표준 기본 플랫폼을 갖는 것입니다.

판매자를 위한 작업을 단순화할 뿐만 아니라 사용자가 Gemini 창을 떠나지 않고도 Gemini가 온라인 구매를 하도록 하는 것이 더 간단해져야 합니다. Target은 그것에 대해 매우 기대하고 있습니다. 2026년 1월 보도 자료에서는 UCP를 “상거래를 더욱 원활하게 만들고 전체 생태계에 도움이 되는 기반”이라고 부르며 소비자에게 “자연스럽고 도움이 되며 자신의 필요에 따라 구축된 경험”을 약속합니다.

흥미진진한 마케팅 발표 외에도 이것이 Google의 기존 AI 쇼핑 기능보다 정확히 얼마나 더 좋아질지 명확한 아이디어를 얻기가 어렵습니다. 이 글을 쓰는 시점에는 소비자에게 출시되지 않았습니다. 그럼에도 불구하고, 월마트와 같은 참여 소매업체들은 막후에서 준비를 하고 있습니다.

AI 에이전트에 대한 전적인 책임을 고객에게 두는 것이 공정한가요?

Target의 경고는 명확합니다. 사용자가 수행하는 작업과 사용자를 대신하여 AI 에이전트가 수행하는 작업 사이에는 차이가 없습니다. Walmart와 Etsy는 글을 쓰는 시점에 Agentic Commerce Agent에 대한 언급을 포함하도록 이용 약관을 업데이트하지 않았습니다. Wayfair의 용어에는 AI 기능에 대한 섹션이 포함되어 있지만 에이전트 승인 작업 및 책임에 대한 Target의 명시적인 입장에는 미치지 못합니다.

Target 대변인은 Business Insider에 Google의 Gemini AI와 통합된 후에도 소비자가 구매한 제품을 반품하거나 교환할 수 있다고 확인했습니다. 이와는 대조적으로 Target의 조건은 모든 것을 구매자에게만 국한시키고 판매자에게는 멀어지게 하는 것 같습니다. 분명히 AI 자체는 법적 책임을 질 수 없으므로 책임은 어딘가에 있어야 하지만 에이전트가 시작한 거래는 “승인된” 것으로 간주되는 것이 모호해집니다.

AI 정책 옹호 단체인 American for Responsible Innovation의 보고서에 따르면, AI 에이전트가 수행하는 모든 일에 대해 사용자를 비난하는 것은 이러한 도구가 실제로 작동하는 방식을 무시하는 것입니다. 그들은 독립적으로 행동할 수 있고 때로는 AI가 잘못될 수 있으므로 AI를 사용하는 사람을 가리키는 것보다 책임이 훨씬 더 복잡해집니다. 보고서는 앞으로 나아갈 가장 좋은 방법은 모든 책임을 소비자에게만 전가하는 것보다 기업에 책임을 묻고, 더 강력한 안전 관행을 장려하고, 문제가 발생했을 때 사람들에게 보상할 수 있는 시스템을 만드는 등의 접근 방식을 혼합하는 것이라고 말합니다.