
[시큐리티팩트=최석윤 기자] 메타(Meta)가 인공지능(AI) 기반 자동화를 통해 인간이 주도하던 제품 위험 평가를 단계적으로 폐지하고 있다. 이는 페이스북, 인스타그램, 왓츠앱을 소유한 거대 기술 기업 메타가 제품 업데이트 및 기능의 잠재적 위험을 평가하는 방식에 중대한 변화를 예고한다. 한때 내부적으로 '개인정보 보호 및 무결성 검토'로 불리며 새로운 기능이 사용자 개인 정보를 침해하거나 유해한 콘텐츠를 조장하고 어린 사용자를 위험에 빠뜨리지 않도록 방지했던 인간 검토자 팀의 역할이 이제 AI로 대체되는 것이다.
2일(현지시각) 인디아 투데이는 미국 공영 라디오 방송국 NPR(내셔널 퍼블릭 라디오)이 입수한 내부 문서를 통해, 머지않아 메타의 위험 평가 업무 중 최대 90%를 인간 대신 AI가 처리할 것이라고 밝혔다.
이러한 자동화는 알고리즘의 변화, 새로운 공유 옵션, 청소년 안전 및 AI 윤리와 관련된 기능에도 적용될 예정이다. 즉, 메타가 제품을 개발하는 데 사용하는 것과 동일한 AI 도구가 이제 최소한의 인적 개입으로 잠재적 위험을 판단하는 데 활용된다. 메타는 이러한 변화가 제품 개발 속도를 획기적으로 높일 것으로 기대한다. 개발자들은 신제품에 대해 작성하는 설문지를 기반으로 거의 즉각적으로 AI가 생성한 피드백을 받게 되며, AI 시스템은 잠재적인 위험을 표시하고 이를 완화하기 위한 요구 사항을 설정한다. 팀은 출시 전에 AI가 제시한 요구 사항을 충족했는지 확인해야 한다.
메타는 인간이 여전히 '복잡하거나 새로운 사례'를 검토할 것이며, 위험이 낮은 결정만이 자동화될 것이라고 주장한다. 또한 자동화를 통해 인간 검토자들이 더 심각하거나 모호한 콘텐츠 조정 문제에 집중할 수 있다고 덧붙였다.
이러한 변화는 메타가 AI 활용을 전반적으로 확대하고 있는 시점에서 나타났다. 마크 저커버그 CEO는 향후 12개월에서 18개월 이내에 메타의 AI 노력, 특히 '라마(Llama)' 모델 코드 대부분이 AI 자체에 의해 작성될 것이라고 밝혔다. 그는 회사 AI 에이전트가 이미 테스트를 실행하고, 버그를 발견하며, 일반 개발자보다 더 나은 코드를 생성할 수 있다고 주장했다. 저커버그는 또한 메타가 소프트웨어 개발 도구에 완전히 통합된 내부용 전문 AI 에이전트를 구축하고 있으며, 이는 범용 소프트웨어 엔지니어링이 아닌 AI 분야의 연구 개발을 지원하도록 맞춤화될 것이라고 강조했다.
메타의 AI 수용은 기술 산업 전반의 광범위한 추세를 반영한다. 구글 순다르 피차이 CEO는 현재 AI가 회사 코드 30%를 작성한다고 말한다. OpenAI 샘 알트만 CEO는 일부 회사에서는 모든 코드 절반이 AI에서 생성된다고 주장하며, 앤트로픽(Anthropic) CEO 다리오 아모데이(Dario Amodei)는 2025년 말까지 거의 모든 코드가 AI에 의해 작성될 것이라고 예측한다. 이는 콘텐츠 보안뿐만 아니라 소프트웨어 개발 전반에서 AI 역할이 기하급수적으로 확대될 것임을 시사한다.

메타는 AI가 내린 결정을 감사하고 있으며, 유럽연합(EU) 디지털 서비스법(Digital Services Act)에 따라 더 엄격한 규칙에 구속되는 EU 운영은 보다 인간 주도적인 검토 시스템을 유지할 것이라고 밝혔다. 그러나 내부자들은 전 세계적으로 대부분의 위험 결정이 이미 알고리즘에 넘겨지고 있다고 우려를 표한다.
보고서에 따르면 현재 메타 직원은 '제품 팀에 권한을 부여'하고 '의사 결정을 단순화하는 것'이 목표라고 말한다. 그러나 그들은 인간의 감독을 제거하는 것의 결과는 심각할 수 있다고 경고했다. 한 직원은 "우리는 일이 어떻게 잘못될 수 있는지에 대한 인간적인 관점을 제공합니다. 그것은 잃어버리고 있습니다"라고 지적했다. 이는 AI 효율성에도 불구하고, 복잡한 사회적 맥락이나 미묘한 윤리적 판단이 필요한 영역에서 인간의 개입이 필수적이라는 시각을 대변한다.
AI 보안 직무에 다른 기업들은 어떻게 운영하고 있을까?
메타처럼 콘텐츠 보안 직원을 AI로 대체하려는 움직임은 기술 발전과 비용 효율성이라는 두 가지 동인에 의해 주도된다. 다른 주요 기술 기업들도 유사한 방식으로 AI를 보안 및 콘텐츠 조정 프로세스에 통합하고 있지만, 접근 방식과 대체 비율에는 차이가 있다.
구글은 유튜브 등 플랫폼에서 'AI 기반 콘텐츠 조정 도구'를 적극적으로 활용한다. AI는 유해하거나 정책을 위반하는 콘텐츠를 자동으로 식별하고 플래그를 지정하여, 대부분의 삭제를 AI가 처리한다. 그러나 복잡하거나 경계선에 있는 콘텐츠, 또는 논란의 여지가 있는 사안에 대해서는 여전히 수많은 '인간 검토자들'이 최종 결정을 내린다. 구글은 AI가 인간 검토자들의 효율성을 높이는 '지원 도구' 역할에 더 가깝다고 강조하며, 인간 전문성과 판단이 여전히 중요함을 인식하고 있다.
틱톡 역시 방대한 콘텐츠 양 때문에 'AI를 통한 1차 검열'이 필수적이다. AI가 유해 콘텐츠를 먼저 걸러내지만, 논란의 여지가 있는 영상이나 사용자 신고가 많은 콘텐츠는 전 세계에 흩어진 수많은 '인간 검토자들'에게 전달된다. 틱톡은 급변하는 트렌드와 지역별 문화적 맥락을 이해하기 위해 인간의 판단을 완전히 배제하기 어렵다는 입장이다. 하지만 AI의 역할은 점차 확대되는 추세다.
X는 일론 머스크 인수 이후 비용 절감을 위해 많은 인력을 감축했으며, 이는 AI 기반의 콘텐츠 조정 의존도 증가로 이어졌다. 그러나 이로 인해 가짜 뉴스나 유해 콘텐츠가 증가했다는 비판도 받았다. X는 AI와 자동화 도구를 활용하여 스팸, 봇 계정, 일부 유해 콘텐츠를 처리하지만, 표현의 자유와 안전 사이 균형을 맞추기 위해 여전히 인간 개입이 필요하다는 점을 인지하고 있다.
마이크로소프트는 자사 다양한 플랫폼(Bing, Xbox 등)에서 AI를 활용하여 콘텐츠 안전을 강화하고 있다. 특히 'AI 윤리 및 책임 있는 AI 개발'에 중점을 두며, AI 시스템이 편향되거나 유해한 결과를 초래하지 않도록 인간 전문가의 감독과 피드백을 중요하게 여긴다. 콘텐츠 검토 과정에서 AI의 효율성을 높이면서도 인간의 윤리적 판단이 개입되는 하이브리드 모델을 지향한다.

이처럼 다른 기업들도 AI를 활용하여 콘텐츠 보안 및 위험 평가 프로세스를 효율화하고 있지만, 메타가 밝힌 '90% AI 처리'는 업계 최고 수준으로 보인다. 대부분 기업들은 AI를 인간 작업을 보조하고 효율성을 높이는 도구로 활용하는 반면, 메타는 AI가 직접적인 의사결정의 상당 부분을 담당하도록 전환하려는 대담한 시도를 하고 있다. 이는 AI 기술에 대한 메타의 강력한 신뢰와 함께, 인력 감축 및 비용 절감이라는 경영 목표가 복합적으로 작용한 결과로 풀이된다.
메타의 이러한 움직임은 효율성 증대라는 긍정적인 측면과 함께, AI 오작동, 복잡한 윤리적 문제 판단의 한계, 그리고 인간 일자리 감소라는 부정적인 측면을 동시에 안고 있다. 특히, "우리는 일이 어떻게 잘못될 수 있는지에 대한 인간적인 관점을 제공합니다. 그것은 잃어버리고 있습니다"라는 내부 직원의 경고는 AI 중심 콘텐츠 보안 시스템이 직면할 수 있는 가장 큰 과제를 보여준다.
미래에는 AI가 대부분의 반복적이고 명확한 콘텐츠 보안 업무를 처리하고, 인간은 AI 시스템의 감독, 복잡한 문제 해결, 윤리적 가이드라인 설정, 그리고 예측 불가능한 새로운 위협에 대한 대응과 같이 고차원적인 역할에 집중하는 형태로 진화할 가능성이 높다. 궁극적으로 기술 기업들이 AI의 효율성과 인간의 통찰력 및 윤리적 판단 사이에서 어떻게 균형점을 찾아갈지 지켜볼 필요가 있다.