AI 시스템이 메타인지를 갖추면서, 병원과 보험사는 임상 에이전트가 자신의 불확실성을 드러내고 위험한 작업을 거부하며 해가 발생하기 전에 도움을 요청하도록 요구하기 시작한다.
돌파구는 더 높은 지능이 아니라 훈련된 자기 의심이다. 임상 AI는 아는 척을 멈추고, 데이터 상태가 나쁘거나 증거가 충돌할 때 자신이 한계를 넘었다고 표시하기 시작한다. 병원은 멈춤, 인계, 인간이나 전문 모델에 대한 추가 자문 요청이 가능한 에이전트를 중심으로 업무 흐름을 다시 설계한다. 어떤 순간에는 더 느려지지만 전체적으로는 더 안전해진다. 조용한 오류와 확신에 찬 환각이 줄어들고, 신뢰할 만한 지능은 언제 진행하지 말아야 하는지도 알아야 한다는 기대가 새로운 기준이 된다.
피닉스의 한 응급실에서 오전 2시 13분, 야간 근무 간호사는 분류 진료 에이전트가 스스로 권고를 중단하고 약물 충돌을 표시한 뒤 주문이 내려가기 전에 인간 약사를 호출하는 장면을 지켜본다.
거부하도록 훈련된 시스템은 지나치게 방어적으로 변할 수도 있다. 재정이 부족한 진료소에서는 끊임없는 상향 이관이 진료를 늦추고 인력을 소진시키며, 인간 백업을 감당할 수 있는 병원과 그렇지 못한 곳의 격차를 더 벌릴 수 있다.
요즘 병원에선 기준이 조금 바뀌고 있죠. 더 똑똑한 인공지능이 답은 빨리 냅니다. 그런데 멈출 줄 아는 인공지능이 더 높은 점수를 받기 시작했죠. 이유는 단순하죠. 가장 큰 사고가 틀린 답보다 멈추지 않는 답에서 나오기 때문입니다. 추론 비용은 2년 새 280배 넘게 떨어졌습니다. 그래서 병원은 정확도보다 멈춤 신호를 봅니다. 인계 로그도 같이 보기 시작했죠. 의사가 개입한 기록이 있어야 책임도 나눌 수 있거든요. 이 기준은 응급실 밖으로도 번집니다. 약국과 보험 심사도 같은 방식을 따르겠죠. 인력이 부족한 곳일수록 자동화는 늘죠. 반대로 멈출 권한을 설계할 여력은 더 줄어듭니다. 그래서 조직 간 차이도 커지겠죠. 이제 유능함의 기준은 속도가 아니죠. 언제 멈추고 누구에게 넘길지 아는 능력이 새 표준이 됩니다. 당신은 이런 기준을 더 신뢰하십니까?