사회는 AI 안전을 매우 신뢰하게 되지만, 그 안전을 독립적으로 검증할 능력은 동시에 증발한다.
책임 있는 개발이라는 수사는 안심을 준다. 가장 큰 기업들은 자신들만이 안전하게 만들 규모와 인재, 규율을 갖췄다고 말한다. 시간이 지나며 그 주장은 자기실현적 제도 설계가 된다. 공공 감시 기관은 연산 자원, 벤치마크 데이터, 모델 내부 정보에 접근하지 못하고, 독립 연구자들은 공개 범위가 제한된 기업 펠로십으로 흡수된다. 중대한 실패는 여전히 발견되지만 대개 배포 이후 학교, 병원, 법원, 콜센터에서 사용자가 문제를 마주친 뒤에야 드러난다. 안전은 사라지지 않는다. 다만 사유화되고, 늦어지며, 외부에서 검증 불가능해진다.
비 오는 화요일의 보스턴. 한 박사과정 학생이 거의 비어 있는 대학 연구실에 앉아 탈락한 연구비 포털을 새로고침하며, 이제 자신의 팀이 비용 때문에 시험해 볼 수조차 없는 모델 행동을 보여 주는 병원 사고 보고서를 읽는다.
중앙집중식 안전 프로그램은 방법론을 표준화하고, 사고 대응을 빠르게 하며, 위험한 능력의 무분별한 공개를 막을 수 있다. 기업과 공공기관의 공동 연구소가 실제 돌파구를 만들 가능성도 있다. 문제는 구조적 의존이다. 의미 있는 모든 시험이 기업 접근권을 필요로 하게 되는 순간, 공적 안심은 검증의 실천이 아니라 신뢰의 의식으로 변한다.
요즘 병원과 학교에서 AI 사고 발견이 늦어지고 있죠. 기술이 좋아져서만은 아닙니다. 먼저 검증하던 곳이 먼저 줄고 있기 때문입니다. 예전엔 대학과 공공 연구실이 위험을 먼저 시험했죠. 그런데 2024년, 미국 연방기관의 AI 규제는 59건으로 늘었습니다. 문제는 검증 기준이 공적 실험보다 기업 설명에 더 기울었다는 점입니다. 독립 랩은 흩어졌고, 테스트는 허가 산업이 되어갑니다. 이 여파는 연구실 밖으로 바로 번집니다. 병원 기록 누락, 판결 보조 오류가 출시 뒤에야 드러나죠. 학교와 콜센터에선 분류 실수가 사고 뒤에 확인됩니다. 안전 규칙은 남아도, 공공 검증 능력은 얇아집니다. 경보 장치는 여전히 달려 있습니다. 다만 울리는 시점이 늦어지는 거죠. 더 빠른 배포와 느린 검증 사이에서, 무엇을 더 믿게 될까요.