AI 안전 경쟁이 생물안보와 화학 악용까지 확장되면서 최상위 모델 접근은 위험물 취급과 비슷한 면허 체계에 묶인다.
AI 기업들은 더 이상 안전을 좁은 소프트웨어 문제로 다루지 않는다. 이들은 생물학자, 화학자, 수출통제 변호사, 위기 대응 인력을 상시 내재화한 조직으로 바뀌고, 정부는 이런 체계를 갖춘 뒤에야 고성능 시스템 배포를 허용한다. 일반 사용자는 여전히 유용한 조수를 쓰지만, 가장 강력한 모델은 단계별 권한, 감사 로그, 목적 제한 접근 뒤에 놓인다. 그 결과 더 안전하지만 더 불평등한 AI 질서가 형성되고, 연구의 자유는 승인된 기관 안에서만 주로 유지된다.
보스턴의 한 병원 연구동, 오전 6시 40분. 한 박사후연구원이 모델 접근 창이 열리기를 기다린다. 그는 출입증을 찍고 실험 목적을 컴플라이언스 단말기에 말한 뒤, 다른 층의 지도교수가 공동 승인하자 비로소 초록 불이 켜지는 것을 본다.
이 체계는 무모한 개방을 줄이지만, 동시에 발견의 기회를 부유한 국가와 대형 기관에 집중시킨다. 비판자들은 면허 층위가 과학의 위계를 굳히고 저예산 혁신을 늦추며, 정부가 비주류 연구를 안보 위험으로 규정하는 편리한 도구가 된다고 말한다.
요즘 강한 인공지능을 쓰는 사람의 범위가 줄고 있죠. 위험 관리가 아니라, 질문 권한의 재편이 이미 시작된 겁니다. 정부와 대형 기관은 상위 모델을 면허형 자원처럼 묶습니다. 보스턴의 한 연구자는 오전 6시 40분에 출입합니다. 배지와 공동승인을 거쳐야 실험 창이 열리죠. 기업 현장도 비슷합니다. 반복 지식노동의 30~50%가 이미 넘어갑니다. 그 빈자리를 인공지능 보조가 메우는 거죠. 이 흐름은 대학과 병원으로도 번집니다. 작은 연구실도 같은 규칙을 따르게 되죠. 접근 격차도 커집니다. 승인 기록과 감사 로그가 새 권력이 됩니다. 독립 연구자는 보험과 대기 시간부터 감당해야 하죠. 더 안전해질수록 질문할 수 있는 사람은 적어집니다. 위험은 줄겠죠. 대신 상상력의 면허화는 커집니다. 우리는 무엇을 지키고 있는 걸까요.