고도 AI가 기술적 새로움이 아니라 사회적 영향 기준으로 규제되면서, 가장 강력한 모델은 승인된 기관만 직접 운용할 수 있는 허가형 공공 인프라가 된다.
이것은 AI를 죽이는 것이 아니라 일부를 도시화한다. 은행, 병원, 교통기관, 법원은 감사 가능한 인터페이스를 통해 강화된 모델에 접근하고, 일반 소비자 계층은 의도적으로 더 약한 상태로 남는다. 그 결과 도입은 느려지지만 대형 사고는 줄고, 연산 배분을 둘러싼 새로운 정치가 생긴다. 시민들은 이제 모델 접근권을 물, 철도, 전기처럼 공정성, 신뢰성, 공적 의무의 문제로 논하기 시작한다.
로테르담의 정오 직후, 한 병원 운영 관리자가 폭염 중 지역 의료 모델의 대기열 예측을 보여 주는 벽면 화면을 바라본다. 그녀는 모델을 직접 바꿀 수는 없지만, 예측이 이주민 거주 지역을 과소 반영하기 시작하자 공익위원회 대시보드로 긴급 이의를 제기할 수 있다.
AI를 인프라로 다루면 무책임한 배치를 막고 이전에는 불투명했던 시스템에 책임성을 심을 수 있다. 그러나 동시에 대형 기관 안에 권력을 얼려 버려 혁신을 늦추고, 작은 공동체를 허가권자가 제공하는 서비스 등급에 종속시킬 위험도 있다.
요즘 가장 강한 AI는 앱이 아니라 허가증으로 배분되는 인프라가 이미 되고 있죠. 기준이 성능에서 접근권으로 이동하는 겁니다. 대형 사고가 몇 번 지나가자 기준이 바뀝니다. 병원과 교통은 공개형보다 허가형 모델을 먼저 붙이죠. 세계경제포럼은 2030년까지 일자리 22%가 재편된다고 봤습니다. 기관은 공동 구매로 거대 모델을 묶어 들입니다. 강한 모델이 서비스보다 면허에 가까워지는 겁니다. 정오의 병원 운영 매니저는 폭염 예측 화면을 봅니다. 이주민 밀집 구역이 덜 잡혀도 모델은 못 바꾸죠. 대신 공공 대시보드에 이의를 넣습니다. 현장 판단은 남지만 수정 권한은 위로 올라갑니다. 사고는 줄 수 있죠. 대신 누가 그 모델의 문을 여는지에 따라 서비스의 질도 달라지겠죠. 편리함과 접근권, 우리는 뭘 택하게 될까요.