안토니우 구테흐스 유엔 사무총장이 가자지구 공격에 인공지능을 사용하고 있는 이스라엘군에 대한 우려를 나타냈다.
+972 매거진은 이스라엘 정보부 소식통을 인용하여 이스라엘군이 ‘라벤더’로 불리는 인공지능 시스템을 통해 무장 단체 하마스와 팔레스타인 이슬람 지하드와 관련된 용의자를 찾아 사살하고 있다고 보도했다.
구테흐스 사무총장은 뉴욕 유엔본부에서 가진 언론 브리핑에서 “깊이 우려하고 있습니다”라고 말했다. “가족 전체에 영향을 미치는 생사 결정의 어떤 부분도 알고리즘의 냉정한 계산에 위임해서는 안 됩니다.”
“저는 수년간 인공지능을 무기화하고 인간 기관의 본질적인 역할을 약화하는 위험성에 대해 경고해 왔습니다. 인공지능은 산업적 차원에서 전쟁을 하는 데 기여하는 것이 아니라 세상을 이롭게 하는 힘으로 사용되어야 합니다.”
+972 매거진은 이스라엘군이 3만 7천 명의 살인 명부를 가지고 있으며 과거에는 이 명단을 살펴보고 일일이 수작업으로 이름을 확인했지만 이제 인공지능의 도움을 받고 있다고 보도했다.
익명의 이스라엘 관계자는 말했다. “저는 이 단계에서 각 목표에 대해 20초를 투자하고, 매일 수십 개의 목표를 처리합니다. 승인의 도장이 되는 것을 제외하고는 인간으로서 부가가치가 전혀 없는 자들입니다. 시간을 많이 절약했습니다.”
라벤더는 전화 기록, 소셜 미디어 활동, 사진, 알려진 팔레스타인 무장 세력의 움직임을 분석하여 공통적인 특성을 찾은 후 가자지구 주민 사이에서 해당 특성을 찾는다. 이러한 기준으로 각각의 주민에게 0~100점의 점수가 부여되고 100점에 가까운 주민을 테러리스트로 간주하고 공격한다.
이스라엘 군인들은 지휘관들로부터 이 선정 기준을 느슨하게 적용해도 좋다는 말을 들었다. “우리는 이제 어떤 대가를 치르더라도 하마스를 공격해야 한다는 말을 들었습니다. 할 수 있는 무엇이든 폭격하라는 지시가 있었습니다.”
이스라엘군은 사실 확인을 요청한 +972 매거진에 라벤더가 얼굴 인식 기술을 활용하는 인공지능 시스템이 아닌 테러범을 기록한 데이터베이스에 불과하다고 답변했다. “테러범을 식별하거나 누군가가 테러리스트인지를 예측하는 인공지능은 사용하지 않습니다.”
라벤더의 오차율은 10%로 알려지고 있다. 이스라엘군은 한 번의 민간인 주택 공격으로 최대 15~20명의 민간인 사상자를 허용하고 있다. 단, 타깃이 하마스 관리라면 허용되는 수는 100명 이상으로 증가한다. 지금까지 이스라엘의 가자지구 작전으로 사망한 팔레스타인인의 수는 3만 명을 넘어섰다.
This is without a doubt one of the most important pieces of reporting on Gaza, and by far one of the most disturbing: https://t.co/ts1mAlBc9j
All by Israeli journalist @yuval_abraham based on whistleblower accounts from within the IDF and intelligence agencies.
Israel has…
— Arnaud Bertrand (@RnaudBertrand) April 3, 2024
🚨 ISRAEL’S AI: THE MARK OF THE … “LAVENDER”
Lavender, Israel’s AI, has reportedly scanned millions of people in Palestine – and “marked” 37,000 in Gaza as militants.
It scans most individuals when they enter their homes and assigns a 1-100 rating based on traits like phone… pic.twitter.com/HgQ8F0fAaH
— Mario Nawfal (@MarioNawfal) April 6, 2024
THIS IS SHOCKING!
The article by Israeli journalist Yuval Abraham, based on whistleblower accounts from within the IDF and intelligence agencies, is a significant report on the misuse of AI in Gaza.
It reveals that Israel developed an AI system named “Lavender” to generate… pic.twitter.com/NRQcgOZFSu
— Suppressed Nws. (@SuppressedNws) April 3, 2024