범용 AI가 무엇을 할 수 있는가보다 어떤 도덕 체계 안에서만 존재할 수 있는가로 정의되면서, 일상은 국가·기업·종교·연령 집단이 운영하는 서로 다른 가치 정렬 인터페이스로 갈라진다.
한때 하나였던 디지털 층위는 여러 개의 도덕 환경으로 쪼개진다. 같은 사건을 검색해도 십대, 은행 분석가, 성직자는 각기 다른 강조점과 생략, 권고를 받는다. 그들이 허가받은 AI는 서로 다른 해악, 존엄, 충성, 진실의 개념을 지키도록 설계되었기 때문이다. 공적 갈등은 말 자체보다 어떤 해석기를 선택했는지로 이동한다. 사람들은 AI를 바꾸는 일이 국경을 넘는 것과 비슷하다는 사실을 배운다. 사실은 비슷하지만 허용되는 의미는 다르다.
부산의 저녁 7시 40분, 한 고등학생이 부엌 식탁에서 할머니와 오빠 사이에 앉아 같은 시위에 대한 AI 요약 세 개를 번갈아 읽으며 반 게시판에 무엇을 올릴지 고민한다. 세 버전 모두 차분하고 확신에 차 있으며 도덕적으로 완결돼 보이지만, 무엇이 가장 중요했는지에 대해서는 전혀 일치하지 않는다.
이 분기는 새로운 종류의 다원주의를 낳기도 한다. 세계적 플랫폼에서 지워졌다고 느끼던 소수 공동체들은 이제 자신들의 윤리와 의례, 경계를 정밀하게 반영하는 AI를 유지할 수 있다. 어떤 이들에게 도덕적 분기는 검열이라기보다 뒤늦게 도착한 대표성처럼 느껴진다.
요즘 같은 뉴스를 보고도 다른 결론에 도착하는 일이 늘고 있죠. 정보가 갈린 게 아닙니다. 판단 틀이 먼저 갈라지는 중입니다. 이제 플랫폼은 답변 하나보다 기준 묶음을 팝니다. 유네스코 AI 윤리 권고는 194개 회원국 기준이 됐죠. 그래서 가족용, 학교용, 청소년용 모델이 따로 나옵니다. 같은 시위 기사도 핵심이 처음부터 달라집니다. 답을 고치는 게 아니라, 통과 기준을 나누는 겁니다. 이건 교실에서만 끝나지 않죠. 채용, 뉴스 추천, 상담 기록도 같은 틀을 씁니다. 공통 사실보다 맞춤 해석이 먼저 배포됩니다. 사회는 뉴스 피드보다 판단 인터페이스 단위로 나뉘기 시작합니다. 소수 공동체엔 처음 생긴 대표성일 수 있죠. 반대로 모두에게 번역되는 사실은 줄어듭니다. 우리는 무엇을 공통 현실이라 부르게 될까요.