← 미래 목록으로
near dystopian A 4.67

사설 방패: 안전이 구독 서비스가 된 날

반복되는 스토킹 살인이 사후 대응에 머무르는 국가 치안의 한계를 드러내면서, 민간 AI 기반 위협 예측 및 물리적 차단 서비스가 병렬적 보안 시장을 형성하고 국가의 공공 안전 독점 원칙이 흔들린다.

Turning Point: 2027년 11월, 서울 기반 스타트업 '이지스AI'가 구독자 기반으로 예측 경보와 계약 보안 대응을 통해 23건의 물리적 충돌을 방지했다는 데이터를 공개한다 — 같은 분기에 경찰 보호명령이 전국적으로 4건의 스토킹 관련 살인을 막지 못했다.

왜 시작되는가

또 한 건의 스토킹 살인이 헤드라인을 장악한다. 피해자는 경찰에 신고하고, 보호명령을 받고, 제도가 요구하는 모든 것을 했다. 제도는 어쨌든 실패했다. 슬픔과 분노의 물결이 뒤따른다. 이 순간에 이지스AI가 등장한다 — 구독 서비스를 제공하는 스타트업이다. AI 알고리즘이 통신 패턴, 위치 데이터, 소셜 미디어 활동, 공공 기록을 분석하여 위험 고조 가능성을 예측한다. 위험도가 임계치를 넘으면 수 분 내에 계약된 민간 보안 요원을 출동시킨다. 서비스 비용은 월 29만 원 — 헬스장 회원권 정도의 가격이다. 6개월 내에 18만 명이 가입하며, 대다수가 20대에서 40대 여성이다. 경찰청은 민간 보안이 시민을 보호할 국가의 의무를 훼손한다고 반대한다. 헌법학자들은 안전이 비용을 지불하는 사람만 누릴 수 있는 상품이 되었는지 논쟁한다. 이지스AI의 투자자들은 조용히 투자를 배로 늘린다. 집단소송이 이 서비스가 불법 사설 경찰 활동에 해당한다고 주장한다. 법원은 판결을 미룬다. 그사이 구독자 수는 40만을 넘어간다.

어떻게 전개되는가

  1. 피해자가 유효한 경찰 보호명령을 보유하고 있음에도 발생한 고위 스토킹 살인 사건이 국가적 분노와 국가 보호 능력에 대한 신뢰 위기를 촉발한다
  2. 벤처 투자를 받은 스타트업이 통신 메타데이터, 위치 패턴, 행동 신호를 통합하여 구독자의 실시간 위험 점수를 생성하는 AI 위협 예측 플랫폼을 출시한다
  3. 이 서비스가 인가된 민간 보안 업체와 제휴하여 예측 위험이 임계 수준을 넘을 때 신속한 물리적 대응을 제공함으로써 사실상의 사설 보호 병력을 구성한다
  4. 구독자 데이터가 경찰 보호명령에만 의존하는 비구독자 대비 물리적 충돌의 통계적으로 유의미한 감소를 보여주고, 회사가 이 비교 데이터를 공개한다
  5. 경찰청과 시민자유 단체가 동시에 서비스의 합법성에 이의를 제기하지만, 서비스에 대한 대중 수요가 계속 급증하면서 입법 조치가 교착 상태에 빠진다

사람이 체감하는 장면

2028년 1월 어느 화요일 새벽 3시 17분, 분당에 사는 31세 그래픽 디자이너 이은지가 외운 진동 패턴에 잠을 깬다 — 짧게 세 번, 길게 두 번. 이지스AI 앱이 주의 경보를 보여준다 — 전 남자친구의 휴대폰이 이번 주 세 번째로 자정에서 새벽 4시 사이에 그녀의 아파트 800미터 이내에서 감지되었다. 메시지가 뜬다: '보안 대응팀 통보 완료. 도착 예정 6분. 실내에 머무르세요. 녹화 활성화.' 밖에서 차가 서는 소리가 들린다. 보안팀인지 그인지 알 수 없다. 알고 있는 것은, 서랍 속 경찰 보호명령서가 단 한 번도 새벽 3시에 그녀의 창문 밖에 차를 나타나게 한 적이 없다는 것이다.

반론

국가의 안보 독점은 언제나 실제보다는 이상에 가까웠다. 경찰은 어디에나 있을 수 없고, 보호명령은 가해자의 준수 의지에 의존하는 종이 한 장이다. 민간 기술이 국가가 할 수 없는 폭력을 진정으로 예측하고 예방할 수 있다면, 원칙적으로 이에 반대하는 것은 제도적 대칭을 위해 예방 가능한 죽음을 수용하는 것이다. 진짜 스캔들은 민간 서비스가 존재한다는 것이 아니라, 공공 시스템의 실패가 그에 대한 수요를 만들었다는 것이다. 올바른 대응은 이지스AI를 금지하는 것이 아니라, 그 역량을 지불 능력과 관계없이 모든 사람이 이용할 수 있는 공공 서비스로 만드는 것이다.