고도 AI가 통제된 전략 인프라처럼 취급되면서 결정적 경쟁은 모델 크기에서 검사권, 접근 등급, 조약 집행으로 이동한다.
최전선 AI는 더 이상 일반 소프트웨어처럼 유통되지 않는다. 그것은 면허, 검증된 시설, 수출 통제, 조약 감시가 겹겹이 얽힌 체제 안에 놓인다. 국가는 누가 누구를 검사할 수 있는지, 어떤 연구소가 더 높은 성능 접근권을 받을 수 있는지, 안전 주장과 비밀 유지가 어디까지 공존할 수 있는지를 두고 협상한다. 그 결과는 깔끔한 독점이 아니라, 가장 위험한 모델에 대한 접근이 국가술의 지렛대가 되는 촘촘한 외교 질서다.
비 오는 10월 저녁의 제네바. 나이로비 출신 전기공학자는 금속 배지를 재킷에 단 채 보안 청문회장 밖에서 기다린다. 안에서는 지역 백신 연구에 필요한 화학 모델에 그녀의 연구소가 임시 접근권을 받을 수 있는지를 두고 대표단이 언쟁 중이다.
엄격한 통제는 무모한 공개를 늦출 수 있지만, 과학적 권력을 부유한 국가와 기존 대기업 안에 가둘 수도 있다. 검사 체제가 신뢰가 아니라 배제의 도구가 되면, 안전의 언어는 새로운 기술 계급제로 굳어질 수 있다.
요즘 AI는 성능보다 통과 여부로 갈립니다. 한번 사고가 나면, 모델은 도구보다 검사 대상이 되죠. 기준이 바뀌는 겁니다. 국가는 학습 이력과 칩 인증, 외부 감사를 한데 묶습니다. 미국 병원 환자용 앱 공개 연동도 빨랐죠. 2021년 68%였고, 2023년엔 83%였습니다. 이제 상위 모델 경쟁은 성능보다 검사 통과 순서로 옮겨갑니다. 허가를 가진 쪽이 먼저 시장을 엽니다. 변화는 연구실 밖으로도 번집니다. 논문과 진료 기록, 행정 문서는 긴 문장보다 구조화 묶음으로 바뀌죠. AI가 바로 읽고 검사하기 쉬운 형태가 표준이 됩니다. 그러면 저자보다 스키마 설계자와 근거 추적 담당자의 권한이 커집니다. 지식을 많이 가진 사람보다, 접근 권한을 가진 사람이 앞서게 됩니다. 이 검사는 신뢰의 장치일까요, 새로운 문지기일까요.