인공지능(AI)을 무기 및 감시 도구 개발에 사용하지 않는다는 금지 조항을 삭제하기로 한 구글의 결정에 대해, 매트 마흐무디Matt Mahmoudid 국제앰네스티 인공지능 및 인권 연구원 겸 고문은 이렇게 말했다.
“자사의 AI 프로그램이 인권 침해에 일조할 만한 방식으로 사용되어서는 안 된다는 원칙을 수년간 유지해 온 구글이 이렇게 위험한 선례를 남기기로 결정한 것은 부끄러운 일이다. 앰네스티는 오랫동안 AI가 사회 통제와 대규모 감시 및 차별의 수단으로 이용될 때 일어날 인권 침해의 가능성을 기록해왔다.”
“AI 기반 기술은 막대한 규모의 감시와 치명적인 살해 시스템의 강화를 부추기며 대대적인 인권 침해와 기본적인 사생활권에 대한 침해를 초래할 수 있다. AI 무기에 관한 금지 조항을 삭제한 이번 결정으로, 구글은 대규모 감시, 반자동 ‘징후 타격’*을 위해 개발된 드론, 살해 여부를 더 신속히 결정하는 표적 생성 소프트웨어 등의 기술을 강화시키는 제품을 판매할 수 있게 되었다.”
“구글은 AI 원칙에 대한 최근의 결정을 시급히 철회하고, 심각한 인권 침해를 일으킬 수 있는 시스템을 개발 및 판매하지 않겠다는 뜻을 다시 한번 확실히 밝혀야 한다.”
“더불어 국가 행위자들은 이러한 기술 배치를 인권 원칙에 따라 규율하는 구속력 있는 규정을 마련해야 한다. 테크 기업들이 영속화하는 자율 규제라는 허울에 빠지지 않고, 인권을 보호하기 위한 강력한 법안을 시급히 제정해야 한다.”
배경
2월 4일 화요일, 구글은 무기 및 감시 시스템 등 ‘전반적인 피해를 초래하는’ 기술과 ‘널리 인정되는 국제법과 인권 원칙을 위반하는 목적을 띤 기술’을 추구하지 않겠다는 원칙을 자사 웹사이트에서 삭제했다. 구글은 이러한 변화를 옹호하면서, ‘국가 안보를 지원하는’ AI 개발을 위해 기업과 정부가 협력할 필요가 있다고 해명했다.
국제앰네스티는 AI 기반 안면 인식 시스템이 인종차별적인 치안 활동을 증폭시키고, 집회 시위 권리를 위협하는 양상을 기록한 보고서를 발표한 바 있다.
2019년에 발표한 보고서에서 국제앰네스티는, 구글의 감시 기반 사업 모델이 본질적으로 사생활권과 양립할 수 없으며 의견과 표현의 자유, 사상의 자유 및 평등권과 비차별권 등 여러 권리에 위협을 가한다는 사실을 밝혔다.
*징후 타격(signature strike): 공격 목표인 개인이나 집단의 신원을 확인하지 않은 채 수상한 행동 패턴만을 근거로 실행하는 공격