AI가 정부 행정을 대체할 때, 시민은 데이터가 된다

AI가 정부 행정을 대체할 때, 시민은 데이터가 된다

수십 년간 테크노크라시를 연구해온 패트릭 우드는 자신이 운영하는 미디어 ‘테크노크라시 뉴스 앤 트렌드’에 최근 알렉세이 알마마토프가 기고한 글을 소개하며 주목할 만한 경고를 전했다. 우드에 따르면, 테크노크라시란 기술을 매개로 사람들의 모든 경험을 ‘행동 데이터’로 환원하고, 이를 분석, 예측, 관리의 도구로 삼는 통치 방식이다. 가치와 신념 대신 알고리즘이 판단을 내리는 구조로, 그는 이를 ‘과잉 기술관료주의’라 부른다. 우드는 미국 워싱턴 D.C.에서 인공지능이 정부 행정 절차에 무분별하게 통합되고 있다며 강한 우려를 표명했다.

 

알마마토프의 글에 따르면 지난 1년간 공공 행정 분야에서 AI 도입 사례가 급증했다. 미국 정부는 ‘ChatGPT-gov’와 ‘xAI for Government’ 같은 특화 서비스를 활용하기 시작했고, 러시아 정부 역시 행정 운영에서 AI 도입을 우선 과제로 선언했다. 이 흐름은 이미 되돌리기 어려운 국면에 접어든 것으로 보인다. 그러나 알마마토프는 기술이 통치 자체를 대체할 수 없다고 단언한다. 정치적 의사결정은 본질적으로 정의, 평등, 자유처럼 기계가 감지하기 어려운 가치 판단에 기반하기 때문이다.

 

공공 행정에서 AI가 풀기 어려운 문제는 구체적인 사례에서도 드러난다. 이른바 ‘문제 청소년’을 바라보는 시각이 대표적이다. 법 집행 기관은 이들을 잠재적 범죄자로 분류해 감시 대상으로 삼는 반면, 사회 서비스 기관은 멘토링과 사회적 관계망 형성을 통해 이들을 사회로 이끌고자 한다. 도시 재개발 역시 마찬가지다. 도심 인근 산업 지구를 주거 단지로 개발할 것인지, 시민들을 위한 녹지 공간으로 조성할 것인지는 예산 수입과 삶의 질 사이에서 이루어지는 가치 선택의 문제다. 유권자는 모델 속 ‘변수’가 아니라, 국가 기구와는 다른 목표와 가치를 가진 정치적 주체라는 점을 알마마토프는 강조한다.

 

러시아에서 실시된 여론조사 결과는 이런 우려를 뒷받침한다. 브이치올롬 조사에서 러시아 시민의 52%는 AI에 대해 전반적으로 신뢰를 표명했지만, ‘공공 행정에서의 AI 활용’으로 질문을 좁히자 수치가 역전됐다. 응답자의 53%가 부정적 시각을 나타냈고, 긍정적으로 평가한 비율은 37%에 그쳤다. 잘못된 결정이 내려질 수 있다는 우려가 58%, 결정에 대한 책임 소재가 불분명해진다는 지적이 57%에 달했다. 시민들은 AI를 ‘보조 수단’으로는 수용할 수 있지만, 최종 결정권자로는 받아들이기 어렵다는 인식을 보였다.

 

알마마토프가 지적하는 AI의 구조적 문제는 크게 네 가지다. 첫째는 의사결정 과정의 불투명성이다. 신경망 개발자조차 알고리즘이 특정 결론에 도달한 이유를 설명하지 못하는 경우가 있어, AI는 흔히 ‘블랙박스’로 불린다. 둘째는 편향의 증폭이다. AI는 인간이 생성한 데이터로 학습하는 만큼, 사회에 내재된 고정관념을 그대로 흡수한다. 다른 국가와 문화권에서 개발된 모델을 비교하면 이 문제가 선명하게 드러난다. 셋째는 책임의 공백이다. AI 도입으로 성과가 나타나면 효율성으로 보고되지만, 실패는 알고리즘의 불완전성으로 돌려질 수 있다. 넷째는 재현성의 한계다. 같은 모델에 동일한 질문을 던져도 시점에 따라 다른 답변이 나올 수 있으며, 학습 데이터의 범위 역시 제약이 많다.

 

이미 여러 국가에서 실패 사례가 보고됐다. 2012년 폴란드에서는 알고리즘으로 실업자를 세 그룹으로 분류해 지원 방식을 결정하는 시스템을 도입했다가, 분류가 불공정하고 불투명하다는 행정소송이 잇따른 끝에 위헌 판결을 받았다. 미국과 스페인에서는 AI가 가석방 심사에 활용됐는데, 연구 결과에 따르면 기술 도입 전부터 존재하던 편향과 차별을 오히려 심화시킨 것으로 나타났다. 미국에서는 소셜 네트워크를 통해 잠재적 위협을 탐지하는 AI가 활용됐지만, 이민자들을 중심으로 프라이버시 침해 우려가 거세게 제기됐다.

 

러시아에서는 모든 정부 기관이 디지털 전환 프로그램의 일환으로 AI 도입을 추진하고 있다. 그러나 관련 법률은 각 분야별로 산재해 있고, 통합적인 AI 규범은 아직 마련되지 않은 상태다. 2023년 제정된 ‘추천 알고리즘법’이 법적 근거로 거론되지만, 전문가들은 이 법이 AI 활용 시나리오 전체를 포괄하기에 역부족이라고 지적한다. 2026년 초 푸틴 대통령은 공공 행정에서 AI 도입을 가속화하는 조치 마련을 지시했지만, 시민의 디지털 권리 보호 문제는 논의의 중심에서 밀려나 있다.

 

한국도 예외가 아니다. 이재명 대통령은 취임 직후 대통령실에 ‘AI미래기획수석’을 신설하고, 2025년 9월 대통령 직속 국가인공지능전략위원회를 출범시켰다. 출범식에서 그는 “AI 같은 첨단 기술은 국력이자 경제력이고 곧 안보 역량”이라며 ‘AI 3대 강국’ 비전을 국가의 핵심 생존 전략으로 선포했다. 민간에서 100조 원을 유도하는 투자 계획을 내세웠고, 재난 예방과 행정 효율화 등 공공서비스 전반에 AI를 도입하겠다는 방침도 국정 5개년 계획에 명시됐다. 속도와 규모 면에서 다른 나라에 뒤지지 않는 이 흐름에서, 시민을 대상으로 한 공론화 과정은 아직 공식 의제로 오른 적이 없다.

 

알마마토프는 공공 행정에 AI를 통합하려면 시민의 신뢰가 전제 조건이어야 한다고 결론짓는다. 신뢰 없이 밀어붙이는 AI 도입은 소극적 저항과 적극적 시위를 불러오고, AI로부터 시민을 ‘구하겠다’고 약속하는 포퓰리스트 정치인의 부상으로 이어질 수 있다. 우드는 이 글에 편집자 주를 달아, AI 도입이라는 선택 자체가 이미 기술관료적 효율의 이름을 빌린 정치적 결정임을 상기시킨다. 기술과 행정이 결합하는 속도가 빨라질수록, 통치의 주체가 시민인지 알고리즘인지를 먼저 물어야 한다는 것이 두 저자의 일관된 경고다.

 

 

 

 

 

 

Source :

Share this post