정부가 위험한 AI 공급업체를 안정적으로 금지할 수 없다는 사실을 깨닫자, 규제는 실제 운용 중인 모델을 지속적으로 공개 등급화하는 체제로 진화한다.
국가는 의심스러운 AI 공급업체를 영구 배제할 수 있다는 환상을 버리고, 감독된 공존을 위한 운영체계를 구축한다. 병원, 학교, 항만, 세무기관은 서로 다른 상용 모델을 쓸 수 있지만, 모든 배치는 공공 대시보드와 자동 스트레스 테스트로 텔레메트리를 전송한다. 규제는 극적인 금지 조치보다 인프라적 성격을 띠게 된다. 전면 금지는 줄고, 지속 등급, 버전 추적, 사고 공개, 주 단위로 바뀌는 사용 제한이 중심이 된다. 시민들은 AI 정책에서 드문 것을 얻게 된다. 시스템이 시간에 따라 실제로 어떻게 행동하는지 보이는 기록이다.
밤 9시 15분, 로테르담의 한 병원 야간 행정 담당자가 응급 분류 모델을 배정하기 직전 멈춰 선다. 벽면 화면에는 승인된 두 시스템이 초록색으로, 세 시간 전 약물 오류 급증 이후 재검토 중인 한 시스템이 황색으로 표시돼 있다.
상시 감사는 특히 모든 모델 보조 판단을 설명해야 하는 현장 노동자들에게 상시 감시로 변질될 수 있다. 대중을 보호하는 그 투명성이 이미 지친 기관 내부에서는 끝없는 모니터링을 일상화할 수도 있다.
요즘 위험한 모델을 막는 방식이 바뀌고 있죠. 퇴출 공지보다 실시간 점수가 먼저 붙습니다. 기준이 금지에서 관측으로 이동하는 겁니다. 미국 연방 조달 항의는 2024 회계연도에 1803건이었고, 인용 비율은 52퍼센트였습니다. 금지 명단은 소송과 기존 배치 앞에서 자주 흔들렸죠. 그래서 기관들은 한 번 통과시키는 인증보다, 여러 모델을 계속 비교 감시하는 공용 감시판에 돈을 넣기 시작합니다. 이 점수는 병원만 보지 않습니다. 보험료, 조달 우선순위, 시민 신뢰까지 같이 움직이죠. 밤 9시 15분에 경고 하나가 뜨면, 현장 노동자 재량보다 대시보드 해명이 먼저 요구되는 구조가 굳어집니다. 투명성은 분명 늘어납니다. 그런데 그 투명성이 현장 전체를 상시 평가로 바꾼다면, 우리는 안전과 재량 중 어디에 더 무게를 둘까요.