Washington HB 2225, 챗봇이 '나는 AI다'라고 먼저 밝혀야 한다

Washington HB 2225, 챗봇이 ‘나는 AI다’라고 먼저 밝혀야 한다

워싱턴 주가 3월 말 서명한 HB 2225 법안은 AI 챗봇과 사용자 사이 기본 규칙을 다시 쓴다. 사용자가 요청하거나 자신이 사람인지 물을 때, 챗봇은 반드시 AI임을 공개해야 한다. 그리고 사용자의 메시지에서 자해·자살 징후가 감지되면, 시스템은 즉시 위기 개입 서비스로 연결하도록 설계돼야 한다. 법은 2027년 1월 1일부터 시행된다.

이 법이 나온 맥락은 지난 1년 사이 급증한 AI 컴패니언{{ai-companion}} 앱과 상담 챗봇 이슈다. 미성년자 사용자가 AI와 대화 중 정서 위기에 노출된 사례가 여러 주에서 보도됐고, 워싱턴 주 의원들은 “플랫폼이 자발적으로 해결하기를 더 기다릴 수 없다”고 밝혔다. 뉴욕 S-3008C, 메인 주의 상담용 챗봇 금지법 논의와 맥이 닿아 있다.

긍정적 해석은 사용자 보호의 구체적 체크포인트가 생겼다는 것이다. 아동·청소년 보호 단체는 “그동안 챗봇이 ‘나는 친구야’라고 말하던 모호한 영역을 법이 정리했다”고 평가한다. 반면 업계에서는 AI 공개 의무{{ai-disclosure}}가 기술적으로 어느 수준까지 적용되는지에 대한 모호함을 문제 삼는다. Axios 보도에 따르면 일부 기업은 “대화 중간중간 AI임을 반복적으로 공개하면 제품 경험이 손상된다”고 주장한다. 위기 감지 알고리즘의 오탐·미탐 비율도 아직 독립 검증되지 않았다는 우려가 있다.

시행까지 남은 약 8개월 동안 각 플랫폼이 감지 알고리즘을 어떻게 구현하는지, 특히 오탐 시 사용자에게 미치는 영향을 어떻게 완화하는지가 관전 포인트다. 한국에서도 AI 윤리·안전 기본법이 2026년 1월 발효한 상태라, 비슷한 의무조항이 시행령에 추가될 가능성이 있다. 국내 챗봇·상담 서비스 운영사는 워싱턴 법의 구현 사례를 미리 들여다보는 편이 실무적으로 유리하다.


출처 및 참고 자료

함께 보면 좋은 글

해시태그
WashingtonHB 2225챗봇 공개AI 안전위기 개입