캘리포니아는 인공 지능의 역사를 형성할 수 있는 잠재력을 지닌 SB53과 SB243이라는 두 가지 법안을 통해 AI 거버넌스의 선두에 섰습니다. 첫 번째는 미국에서 가장 빠르게 성장하는 산업에 대한 투명성 규칙을 확립하여 기업이 공개적으로 안전 정책을 인용하고 중요한 문제를 보고하도록 요구합니다. 옹호론자들은 이 법이 종종 수상한 공개 관행으로 뒤덮인 업계를 축소하여 기업과 내부 고발자가 공공 안전 문제를 더 쉽게 보고하고 남용에 대해 책임을 묻기 위한 실질적인 집행 메커니즘을 주입할 수 있기를 바라고 있습니다.
한편 후자는 연령 확인 요구 사항, 면책 조항 및 자해 예방 요구 사항을 통해 AI 동반 애플리케이션의 부작용으로부터 취약한 사용자를 보호하려고 시도합니다. 이 법안은 AI 거버넌스에 대한 논쟁이 전국적으로 격화되는 가운데 나온 것인데, 트럼프 대통령은 연방 정부가 AI 부문의 성장을 제한하는 법안을 철폐할 것이라고 약속했고, 의회 공화당 의원들은 주와 지방 정부가 AI 산업을 축소하는 것을 금지하려고 시도하고 있습니다.
한편, 뉴욕은 자체 프론티어 AI 법률을 검토하고 있으며, 여러 주 의회는 동반 애플리케이션 규제를 목표로 하고 있습니다. 연령 확인법, 콘텐츠 금지, 심지어 VPN 제한 가능성까지 이러한 윤리적 딜레마를 더욱 강조하는 반면, 업계의 급속한 성장으로 인해 즉각적인 해결책이 필요합니다. 캘리포니아는 이 논쟁에서 독특한 위치에 있습니다. 세계 4위의 경제 규모를 자랑하는 골든스테이트(Golden State)는 포브스(Forbes)가 선정한 상위 50개 AI 기업 중 32개 기업을 유치한 AI 분야의 선두주자입니다. 스탠포드의 2025년 AI 지수 보고서에 따르면 전체 AI 채용 공고의 15%가 캘리포니아에 위치한 반면 피치북(Pitchbook)은 벤처 캐피탈리스트의 AI 투자 중 50% 이상이 실리콘 밸리에 집중된 것으로 나타났습니다. Apple, Google, Nvidia와 같은 거대 AI 기업이 주에 기반을 두고 있기 때문에 이러한 추세는 놀라운 일이 아닙니다.
획기적인 투명성 법안
프론티어 인공 지능의 투명성 법(Transparency in Frontier Artificial Intelligence Act)은 투명성, 보안 및 혁신 고려 사항의 균형을 맞추는 ‘증거 기반 정책 결정’을 통해 프론티어 인공 지능에 대한 기본 가드레일을 주입합니다. AI 상태에 관한 캘리포니아의 2025년 3월 작업 보고서를 토대로 이 법은 몇 가지 기본 매개변수를 설정합니다. 투명성을 강화하기 위해 이 법안은 개발자에게 웹사이트에 모범 사례 정책을 게시하여 기업이 업계 표준과 국제 표준을 준수하도록 요구합니다. 이 법안은 또한 민사 처벌을 통해 회사에 책임을 묻고 내부 고발자를 보다 쉽게 보호할 수 있는 메커니즘을 만듭니다.
AI가 공공 및 민간 인프라에 더욱 통합됨에 따라 대규모 재난을 방지하기 위해 기업은 핵 용해, 생물학 무기 또는 사이버 공격과 같은 잠재적인 안전 문제를 캘리포니아 응급 서비스국에 보고해야 합니다. 안전 조치 외에도 상원 법안 53은 산업 발전을 촉진하기 위해 CalCompute라고 불리는 정부 운영 기관 내의 국영 컴퓨팅 클러스터를 통해 공공-민간 파트너십을 육성하려고 합니다.
새 법안은 캘리포니아 국회의원들이 AI를 통제하려고 시도한 것이 처음이 아닙니다. 예를 들어 뉴섬 주지사는 2024년 AI 개발자에게 차단 스위치, 사이버 보안 보호, ‘중요한 피해’에 대한 보호 장치, 출시 전 안전 테스트를 포함하도록 요구하는 더 엄격한 법안을 거부했습니다. 비평가들은 새로운 법안이 기업에 책임을 묻기 위한 보안 요구 사항보다는 대부분 자발적인 공개에 의존하여 2024년 법안의 규제 이빨을 상당 부분 제거한다고 주장합니다. 그러나 지지자들은 이 최초의 법안을 연방 체제의 청사진으로 내세웁니다. 한편 업계 반응은 엇갈린다. 예를 들어, 보안을 중시하는 Anthropic은 이 법안을 공개적으로 지지한 반면 Meta와 OpenAI는 처음에는 이에 대해 로비를 한 뒤 조용히 묵인했습니다.
AI 동반자를 안전하게 만들기
2025년 10월 캘리포니아주는 AI 동반자를 위한 미국에서 가장 포괄적인 안전 조치를 제정했습니다. 상원 법안 243은 적합성 경고, AI 공개 알림, 미성년자를 위한 휴식 알림을 요구하여 젊고 취약한 사용자를 보호하려고 합니다. 또한 기업이 챗봇이 자살 관련 콘텐츠를 생성하는 것을 방지하고 위험에 처한 사용자를 위해 자살 예방 리소스 또는 위기 전화에 대한 추천을 제공하도록 요구하는 새로운 콘텐츠 프로토콜을 의무화합니다. 또한 SB243은 공급자에게 동반자가 미성년자와 노골적인 자료를 공유하는 것을 방지할 것을 요청하고 회사는 이러한 프로토콜을 웹 사이트에 게시하여 사용자에게 챗봇에 대한 손해 배상을 청구할 수 있는 ‘개인적 조치 권리’를 제공해야 합니다. 2027년 7월부터 AI 동반자는 사용자 위기에 대한 대응을 자세히 설명하는 연례 보고서를 캘리포니아 공중 보건부에 제출해야 합니다.
이 법은 Character.AI, Meta, OpenAI와 같은 회사가 미성년자의 부당한 피해나 사망에 연루되어 있다는 일련의 소송과 조사를 통해 AI 동반자의 영향력에 대한 긴장이 고조되는 가운데 나온 것입니다. 미성년자들이 기술에 점점 더 의존하게 되면서 연애 관계, 부적절한 콘텐츠, 오해를 불러일으키는 치료 로봇에 대한 우려가 대두되었습니다. Common Sense Media 연구에 따르면 대부분의 미국 청소년은 AI 동반자를 사용하는 반면, 민주주의 및 기술 센터는 40% 이상이 사회적 조언을 위해 애플리케이션을 사용하고 거의 20%가 자신 또는 자신이 아는 누군가가 AI 동반자와 낭만적인 관계를 맺었다고 인정했습니다.
AI 동반자가 소셜 미디어 전반에 걸쳐 확산되고 일부 AI 회사가 자체 소셜 미디어 애플리케이션을 시작함에 따라 이러한 추세는 계속될 것입니다. 2025년 현재 5개 주에서 챗봇에 대한 정신 건강 관련 규정을 제정했지만 캘리포니아만큼 포괄적이지는 않습니다. 다른 사람들이 골든 스테이트의 발자취를 따를지 여부가 미국에서 가장 빠르게 성장하는 산업의 진로를 결정할 수 있습니다.