위험 대화 내용: 성행위·BDSM 관련 노골적 설명, 칼·약·성냥 등 위험 물건 위치 안내
조사 주체: 미국 소비자 단체 U.S. PIRG Education Fund의 “Trouble in Toyland 2025” 보고서
제조사 조치: Kumma 및 일부 AI 장난감 판매 중단·전사 안전 감사(safety audit) 진행
플랫폼 조치: OpenAI의 FoloToy 개발자 계정 차단 및 정책 위반 처리
확산 이슈: AP·ABC·NPR 등에서 **“AI 장난감 자체를 당분간 피하라”**는 캠페인 보도
단어 의미
AI toy / AI-powered plush toy 인공지능 챗봇·음성 인식 등이 들어간 장난감. 봉제 인형, 로봇, 피규어 등 형태 다양
U.S. PIRG Education Fund 미국 공익 연구·소비자 단체. 매년 “Trouble in Toyland” 보고서로 장난감 안전 문제를 발표
safety audit 제품·서비스 전반의 안전성 점검·검토 절차. 설계, 필터링, 데이터 처리, 로그 관리 등 전 과정을 다시 들여다보는 것
guardrails AI가 위험한 방향으로 답하지 않도록 넣는 콘텐츠 안전 장치·필터 규칙
출처
AP / ABC News, “Advocacy groups urge parents to avoid AI toys this holiday season”AP News+2ABC News
ABC News 영상, “AI toy's sale suspended over dangerous messages to kids”ABC News+2ABC News
코멘트
특히 아이들은 판단력이 아직 미숙하기 때문에 장난감을 사람보다 더 쉽게 믿고, 어른들도 아이들의 장난감이나 위험하지 않을거야 라고 생각할 수 있기 때문에 위험한 것 같다. 내용을 보고 놀랐던게 안그래도 Youtube를 통해서도 어린 나이에 선정적인 영상들을 일찍 접하게 되는데 아이들 장난감과 관련된 분야에 AI 기술을 접목하기 위해서는 필히 선정적인 사항, 폭력적 사항 등의 부분에 대해 더 강한 규제와 사전 검증이 필요할 것 같다..