AI Ethics

팰런티어 AI, 영국 경찰 수백 명 비리 수사

AI가 챗봇과 이미지 생성기에만 쓰인다고 생각할 때쯤, 런던 경찰이 팰런티어 도구를 도입했고, 순식간에 수백 명의 경찰관이 집중 감시 대상이 됐다. 결과는... 적어도 '계몽적'이라고 할 수 있다.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
경찰 배지와 돋보기를 연결하는 스타일리시한 디지털 네트워크 이미지.

Key Takeaways

  • 메트로폴리탄 경찰이 팰런티어 AI 도구를 사용하여 수백 명의 경찰관을 다양한 형태의 비위 혐의로 조사했습니다.
  • 조사 결과, 재택근무 규정 위반, 부패부터 심각한 범죄 혐의까지 다양한 문제가 드러났습니다.
  • 논란이 많은 AI 기술 사용은 데이터 프라이버시와 감시에 대한 윤리적 질문을 제기합니다.
  • 이번 배포는 AI가 기관 운영 및 감독을 위한 기반 플랫폼으로서의 역할을 점점 더 키우고 있음을 보여줍니다.

모두들 AI의 가장 큰 영향력이 창의적인 분야, 코딩을 짜거나 기이한 예술 작품을 생성하는 데 있을 거라고 생각했다. 우리는 디지털 뮤즈를 기대했지, 경찰 데이터베이스를 염탐하는 디지털 복도 감시원을 예상하진 못했다.

하지만 중요한 건 이게 단순히 경찰 업무에 관한 게 아니라는 점이다. 이건 하나의 신호다. AI가 우리가 ‘사용하는’ 도구를 넘어, 아예 조직 전체가 작동하는 근본적인 레이어가 되는 미래를 엿볼 수 있게 해준다. 인터넷 자체와 같다고 생각하면 된다. 갑자기 정보가 캐비닛 안에만 있는 게 아니었다. 연결되고, 접근 가능했으며, 때로는 우리가 상상도 못 한 방식으로 발견될 수 있다는 것을 알게 되었다. 이런 맥락에서 팰런티어의 AI는 번개처럼 빠르고 모든 것을 보는 감사관 역할을 하며, 메트로폴리탄 경찰이 이미 가지고 있던 방대한 기존 데이터를 샅샅이 훑어 패턴, 이상 징후, 그리고 잘 알려진 대로, 나쁜 행동을 찾아낸다.

정말이지 관료적인 심장을 가진 메트로폴리탄 경찰은 팰런티어 AI 도구를 사용하고 있었고, 불과 일주일 만에 수백 명의 경찰관이 온갖 종류의 비리를 저지르는 것을 우연히—혹은 더 정확하게는 발굴했다. 재택근무 수당을 엉터리로 청구하는 것부터 시작해서… 좀 더 심각한 부패, 성폭행, 심지어 권력 남용과 관련된 혐의까지 말이다. 이건 그야말로 디지털 빗자루질이다.

여기서 흥미로운 사실 하나. 부패가 가장 많은 부분을 차지했다. 98명의 경찰관이 IT 시스템을 조작하여 개인적인 이득을 취한 혐의로 징계 평가를 받고 있다. 여기서 멈추지 않는다! 또 다른 500명의 경찰관은 비슷한 위반 사항에 대해 예방 통지(prevention notices)를 받았다. 반천 명 가까운 사람들이 근무 교대에 대해 엄중한 디지털 훈계를 받은 셈이다.

그리고 ‘재택근무’ 규칙 위반자들은? 오, 그들도 여기 있다. 경감(chief inspectors)부터 총경(chief superintendents)까지, 즉 고위직들이! 42명의 고위 경찰관들이 심각한 규정 위반 혐의로 조사를 받고 있는데, 본질적으로는 집에 뒹굴거리고 있었으면서도 사무실에 출근한 것처럼 거짓말을 한 것이다. 메트로폴리탄 경찰의 규칙은 명확하다: 80% 출근. 명백히, 그 지침은 일부에게는 그저 ‘부드러운 제안’에 불과했다.

프리메이슨 파문

하지만 잠깐, 더 있다! 이 소프트웨어는 경찰 내부의 투명성 강화를 위해 의무화된 프리메이슨 회원 자격 신고를 누락한 경찰관들도 찾아냈다. 12명의 경찰관이 소속 사실을 비밀로 유지한 혐의로 중징계(gross misconduct) 혐의를 받고 있다. 또 다른 30명은 예방 통지를 받았다. 마치 이 AI 도구가 비밀을 찾아내는 디지털 점쟁이 같다.

이 모든 사건은 플랫폼의 전환을 외치고 있다. 단순한 업그레이드가 아니라, 기관이 운영하고, 감시하고, 스스로를 바로잡는 방식의 근본적인 변화다. 메트로폴리탄 경찰서장인 마크 롤리는 범죄자들이 적응하는 만큼 경찰도 그래야 한다고 말하며 이를 강조한다. 그는 이를 필요한 현대화, 비위 행위에 맞서고 기준을 높이는 방법으로 설명한다. 그는 대다수의 경찰관이 성실하게 복무하고 있으며, 썩은 사과가 제거되는 것을 볼 자격이 있다고 주장한다. 그의 발언은 이런 감정을 잘 담고 있다:

“이는 메트로폴리탄 경찰이 기술, 데이터, 그리고 강화된 법적 권한을 활용하여 비위 행위에 맞서고, 기준을 높이며, 우리 지역 사회가 기대하는 대로 우리의 기초를 바로잡는 것입니다.”

디지털 대청소처럼 들리지 않는가? 하지만 여기서 내 눈썹이 치켜 올라가기 시작한다.

이건 정말 신뢰를 위한 것인가, 아니면 단순한 데이터 수집인가?

팰런티어는 당연히 개인 정보 보호를 최우선으로 하는 접근 방식으로 유명한 회사가 아니다. ICE 및 도널드 트럼프의 이민 프로그램과의 관계, 이스라엘 군과의 연계는 긴 그림자를 드리운다. 심지어 의원들은 NHS와의 3억 3천만 파운드 계약을 파기해야 한다고까지 촉구했다. 따라서 메트로폴리탄 경찰이 이 AI가 ‘신뢰 구축’에 도움이 된다고 말할 때, 이는 마치 늑대가 양의 탈을 쓴 것처럼 느껴진다. 그들은 논란이 많은 기술 회사의 도구로 자체 직원을 엄격하게 감시함으로써 신뢰를 구축하고 있는 걸까, 아니면 단순히 데이터 감시의 힘을 과시하고 있는 걸까? 그 경계는 순식간에 흐릿해질 수 있으며, 화려한 신기술에 현혹되어 윤리적 함의를 잊지 않도록 하는 것이 중요하다.

이것은 단순히 나쁜 경찰을 잡는 문제가 아니다. 데이터가 너무 많은 데이터는 얼마인지, 그리고 누가 ‘나쁜 행동’과 점점 더 복잡해지는 규칙의 미묘한 편차를 결정하는지에 관한 것이다. 메트로폴리탄 경찰은 본질적으로 “우리는 이 모든 데이터를 가지고 있고, 이제 그것을 이해할 수 있는 도구가 생겼다”고 말하고 있다. 하지만 그 도구가 바깥을 향할 때는 어떻게 될까? 이 구현은 그 잠재력에 대한 흥미롭지만, 다소 불안한 미리 보기다.

마치 거대한 돋보기를 만들었고, 먼저 자신들의 진영에 비추는 것과 같다. 이것이 책임감 있는 자치인지, 아니면 벌어질 준비가 된 권력 찬탈인지, 오직 시간과 추가적인 조사가 말해줄 것이다. 지금으로서는 AI가 더 이상 개념이 아니라, 우리 기관의 근간을 더 나은 방향으로, 혹은 잠재적으로 더 나쁜 방향으로 바꾸고 있는 강력하고 실질적인 힘이라는 것을 똑똑히 상기시켜 준다.


🧬 관련 통찰

자주 묻는 질문

팰런티어 AI 도구는 정확히 무엇을 했나요?

팰런티어 AI 도구는 메트로폴리탄 경찰이 경찰관에 대한 기존 데이터를 분석하여, 사소한 규칙 위반부터 심각한 범죄 혐의에 이르기까지 잠재적인 비위 또는 범죄 활동을 나타내는 패턴과 이상 징후를 식별하는 데 사용되었습니다.

이 작업을 위해 팰런티어가 선택된 이유는 무엇인가요?

팰런티어의 기술은 복잡한 데이터 분석 및 통합을 위해 설계되었으며, 이를 통해 대량의 정보를 분석하여 조직 내 특정 행동이나 규칙 위반을 식별하는 데 적합합니다.

이 AI 도구가 대중 감시에 사용될까요?

이 특정 사례는 내부 경찰 조사에 초점을 맞추었지만, 팰런티어는 다양한 정부 감시 프로젝트에 참여해 왔습니다. 메트로폴리탄 경찰 역시 이전에 범죄 수사에 AI를 사용하는 방안을 모색한 바 있어, AI가 경찰 업무에 채택되는 전반적인 추세를 보여줍니다.

Written by
Aisha Patel

Former ML engineer turned writer. Covers computer vision and robotics with a practitioner perspective.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by The Guardian - AI