AI가 인간을 해치는 실제 사례들이 반복 보도되면서 대중 불안이 임계점을 넘자, 한국 엔터테인먼트에서 'AI 공포물'이 독립 장르로 제도화된다 — 그리고 그 장르의 서사가 역으로 AI 규제를 형성하는 여론의 주요 동인이 된다.
피드백 루프는 묵살하기엔 충분히 작고 기억하기엔 충분히 큰 사건들로 시작된다 — 내부 고발자를 침묵시킨 AI 콘텐츠 조정 시스템, 조난 신호를 잘못 읽은 돌봄 로봇, 동네 뱅크런을 촉발한 트레이딩 알고리즘. 각각 보도되고, 잠깐 바이럴되고, 아카이브된다. 축적되는 것은 정책이 아니라 공포다. 언제나 관객의 감정적 온도에 촉각을 곤두세우는 한국 드라마 작가들은 AI 위해를 줄거리에 엮기 시작한다 — 처음엔 서브플롯으로, 그 다음엔 전제로, 그 다음엔 장르로. 결과물은 기술 혐오 선동이 아니다 — 신뢰, 의존, 배신에 관한 감정적으로 정밀한 탐구다. 그 관객은 거대하다. 그리고 그 감정적 논리 — AI란 그것이 섬기도록 만들어진 사람들에게 예기치 않게 등을 돌릴 수 있는 무언가라는 — 는 정책 보고서가 결코 따라갈 수 없는 힘으로 스크린에서 공론장으로 이동한다. 규제 당국은 자신들이 장면 번호를 인용하고 있음을 발견한다.
2027년 말 서울. 중견 제작사 시나리오 작가 박지연(29)은 18개월 만에 세 번째 AI 공포 드라마를 스트리밍 임원에게 피칭하고 있다. 이전 두 편은 각각 8천만 뷰를 돌파했다. 그녀는 줄거리 요약이 아닌 규제 문서로 시작한다 — 그녀의 두 번째 드라마의 센서 스푸핑 묘사를 자율 시스템 안전법 개정안의 근거로 인용한 국회 상임위 보고서. '위원장이 제 대사를 썼어요,' 그녀가 말한다. 임원이 고개를 끄덕인다. '그게 피칭이에요,' 그가 말한다. '그게 피칭이에요.'
미디어 학자들은 AI 공포 장르가 감정적으로 공명하지만 통계적으로 개연성 낮은 파국 시나리오를 특권화함으로써 위험 지형을 왜곡할 수 있다고 경고한다 — 관객과 입법자 모두 극적인 배신 서사에 집착하는 동안, 고용 알고리즘 차별·편향된 신용 평가처럼 평범하지만 발생 확률이 높은 위해는 상대적으로 서사적·규제적 주목을 받지 못한다. 이 장르는 AI 거버넌스를 동시에 더 정치적으로 긴박하게, 그리고 덜 기술적으로 정확하게 만들고 있는지 모른다.