의료 AI가 일상 진료에 충분히 신뢰될수록, 가장 치열한 정치적 갈등은 정확도에서 벗어나 그 오류가 불균등하게 분포할 때 누가 비용을 부담할지로 이동한다.
의료 AI를 둘러싼 공적 논쟁은 성능 그래프로 시작하지만 결국 분배 정치로 끝난다. 시스템이 전체적으로 충분히 잘 작동하기 시작하면 사람들은 그것이 인상적인지보다 누구의 위음성이 용인되는지, 누구의 이의신청이 더 빨리 처리되는지, 자동 위험 표식 이후 누구의 보험료가 오르는지를 묻기 시작한다. 이런 절충을 조정하기 위해 규제기관, 병원, 보험사, 환자단체 사이에 새로운 위원회가 등장한다. 표면적으로는 기술이 아니라 사회 차원에서 안전을 정렬하려는 장치지만, 실제로는 통계적 피해가 계급, 지역, 협상력의 언어로 번역되는 공간이 된다.
비 내리는 목요일, 맨체스터의 한 학교 비서는 승인된 모델이 자신의 암 경보를 낮게 조정한 기록이 담긴 출력물 폴더를 들고 심판실 밖에 앉아 있다. 안에서 변호사들이 따지는 것은 그 시스템이 전반적으로 작동하는지가 아니라, 허용된 오류 구간의 반대편에 놓인 그녀에게 누가 책임을 지는가이다.
한쪽에서는 피해 배분을 명시하는 것이 숨겨진 절충을 드러내고 다툴 수 있게 만든다는 점에서 진전이라고 본다. 다른 쪽에서는 사회가 예방 가능한 불의를 행정 범주 속에 써 넣고 그것을 공정성이라 부르며 정상화한다고 본다.
요즘 병원보다 먼저 점수를 받는 사람이 늘고 있죠. 의료 인공지능이 퍼질수록 쟁점은 진단보다 오진의 비용 배분으로 옮겨갑니다. 스웨덴 유방촬영 시험이 있었습니다. 인공지능 보조 판독은 천 명당 6.1건을 더 찾았죠. 수치는 좋아졌습니다. 그런데 남는 질문은 성능이 아니죠. 그 바깥으로 밀린 사람의 비용을 누가 계약서에 적느냐입니다. 평균보다 면책 조항이 먼저 움직이는 거죠. 이 흐름은 병원 밖으로 번집니다. 보험료와 예약 순서가 먼저 바뀝니다. 복약 알림도 위험 점수에 맞춰 움직이죠. 질병 관리보다 점수 소유권이 더 큰 기준이 됩니다. 이의제기 속도도 경쟁력이 되는 거죠. 이제 의료의 경쟁은 정확도만으로 끝나지 않죠. 허용된 피해를 공정이라 부를 때, 당신은 어느 계약 앞에 서게 될까요.