문서 처리 AI가 금융·행정 접근의 관문이 되면서, 모델 편향이 대출 심사와 복지 수급 결정을 체계적으로 왜곡하고 있음이 밝혀지자, 정부들은 알고리즘 감사를 회계감사만큼 법적으로 의무화한다.
금융과 행정의 종이에서 디지털로의 전환은 중립적이어야 했다 — 주관적인 담당자를 객관적인 시스템으로 대체하는 것. 문서 AI가 학습 데이터의 편향을 물려받고 증폭시키며 체계화했다는 발견이 그 가정을 다시 쓴다. OCR 모델은 비라틴 계열 문자를 더 자주 잘못 인식한다. 과거 승인 내역으로 학습된 신용도 모델은 역사적 차별을 인코딩한다. 과거 지급 내역으로 학습된 복지 자격 시스템은 과거의 배제를 재현한다. 이것들은 전통적 의미의 오류가 아니다 — 모델은 정확히 학습된 대로 행동한다. 하지만 학습된 것이 부당하다. 알고리즘 감사 의무화는 그 제도적 응답으로 등장한다 — AI 채택을 늦추기 위해서가 아니라, 그 편향을 가시적으로, 시정 가능하게, 법적으로 책임지게 만들기 위해. 규제 부담으로 시작된 것이 10년에 걸쳐 새로운 전문직 인프라로, 그리고 새로운 형태의 정의로 진화한다.
2031년 프랑크푸르트. 권유나 박사(41)는 지역 은행의 모기지 승인 AI를 검토하기 위해 계약된 4인 알고리즘 감사팀을 이끌고 있다. 그녀는 주요 신분증이 EU 역외에서 발급된 신청자 세그먼트에 대한 모델의 혼동 행렬을 보고 있다 — 전체 신청자의 11%를 차지하지만 거절 신청의 34%를 차지하는 세그먼트. 격차는 알고리즘의 의도에 있지 않다. 악성 코드는 없다. 그것은 30년간의 차별적 대출을 충실히 인코딩한 학습 세트의 역사적 승인률에 있다. 그녀는 시정 명령 초안을 작성하기 위해 노트북을 연다. 은행 법무팀은 이미 방 안에 있다. 이것이, 그녀는 생각한다, 정의가 느리고 절차적이고 완전히 필요할 때의 모습이다.
일부 비평가들은 알고리즘 감사 의무화가 공식 결정 시스템에 집중함으로써 비공식 AI 사용을 감사 범위 밖에 두는 컴플라이언스 형식주의를 만들어낸다고 주장한다 — 초기 평가 초안 작성에 비규제 AI 어시스턴트를 사용하는 대출 담당자, 또는 추천 전에 상업적 LLM에 쿼리하는 복지 담당 공무원은 감사 범위 밖에서 운영된다. 의무 감사가 공식 파이프라인을 정화하는 동안, 편향의 실제 지점은 비규제 인접 도구로 이동했을 수 있다.