
[시큐리티팩트=최석윤 기자] 인공지능(AI) 개발사 OpenAI가 AI 모델을 악용해 사이버 공격을 시도한 중국 연계 그룹 다수의 계정을 금지 조치했다고 8일(현지 시각) 사이버시큐리티뉴스가 보도했다. 특히 중국 정부와 연계된 해킹 그룹의 활동이 적발돼 충격을 주고 있다. 이 내용은 2025년 10월 발표된 OpenAI 보고서에 상세히 담겨 있다.
이번 조치는 AI 기술 남용을 막으려는 OpenAI의 지속적인 노력의 일환이다. OpenAI는 2024년 2월 이후 사용 정책을 위반한 40개 이상의 악성 네트워크를 이미 차단했다.
보고서의 핵심은 '사이버 작전 피싱 및 스크립트'라는 이름으로 명명된 중국 연계 그룹의 활동이다. 이들은 ChatGPT를 이용해 멀웨어 개발과 피싱 캠페인을 지원했다.
OpenAI 조사 결과, 이 계정 클러스터는 중화인민공화국(PRC)의 정보 요구 사항을 충족하는 사이버 작전과 일치하는 것으로 나타났다. 이들은 UNKDROPPITCH 및 UTA0388로 알려진 기존 위협 그룹과도 활동이 겹쳤다.
해커들은 새로운 공격 방식을 개발하기보다는 기존 전략의 속도와 효율성을 높이는 데 AI를 사용했다. 점진적인 효율성(incremental efficiency) 추구에 집중한 것이다.
해커들은 AI를 활용해 도구를 개발하고 디버깅했다. 이는 기존의 GOVERSHELL 및 HealthKick 같은 멀웨어와 구현 방식이 유사했다. 이들은 심지어 딥시크(DeepSeek) 등 다른 AI 모델까지 사용하며 추가 자동화 가능성을 연구했다.
이 그룹은 여러 언어로 문화적 맥락에 맞는 피싱 이메일을 작성했다. 대상 언어에는 중국어, 영어, 일본어가 포함되었다.
주요 표적은 대만의 반도체 부문, 미국의 학계 기관이었다. 또한 중국 정부에 비판적인 활동을 하는 단체들도 공격 대상에 포함됐다. 공격자들은 더 나은 피싱 이메일을 작성하여 코딩 주기를 단축하는 데 AI를 활용했다.

보고서는 중국 정부 기관과 연계된 다른 사용자들의 계정 중단 사례도 상세히 밝혔다. 이들은 감시 및 프로파일링 도구를 만들 목적으로 챗GPT를 사용하려 했다. 여기서 '프로파일링'은 AI 기술을 이용해 개인 정보를 모아 정치, 감시적 목적에 맞게 분류하고 표적화하는 시스템을 개발하는 것을 뜻한다.
금지된 한 사용자는 AI에게 '고위험 위구르 관련 유입 경고 모델' 제안서 초안 작성을 요청했다. 이 모델은 여행 예약 기록과 경찰 기록을 분석하도록 고안됐다.
또 다른 사용자는 소셜 미디어 조사를 시도했다. X(구 트위터), 페이스북, 레딧 등에서 '극단주의자'로 간주되는 정치적, 민족적, 종교적 콘텐츠를 검색하는 시스템을 설계하려 했다. 다른 사용자들은 중국 정부를 비판하는 사람들을 조사하거나 비판 계정의 자금 출처를 식별하려다 금지되었다.
이러한 조사 결과에 따라 OpenAI는 악의적인 활동과 관련된 모든 계정을 비활성화했다. 또한 광범위한 사이버 보안 노력을 위해 업계 파트너들과 '손상 지표(IoC)'를 공유했다.
손상 지표(IoC)는 컴퓨터 시스템이나 네트워크에서 보안 침해가 발생했다는 사실을 알려주는 모든 종류의 디지털 증거를 말한다. 해킹 등 공격이 발생했을 때, 보안 팀은 이 IoC를 수집하고 공유하여 다른 시스템이 같은 공격에 당하지 않도록 방어 체계를 구축한다.
OpenAI는 AI 모델 자체가 안전 장벽 역할을 하는 경우가 많다고 강조했다. 모델은 악성 코드 생성이나 익스플로잇 실행 등 직접적인 악의적 요청은 거부한다. 공격자들은 본질적으로 악의적이지 않은 "빌딩 블록(구성 요소)" 코드 조각을 생성하는 데 그쳤다.
보고서는 국가 후원 행위자들이 AI를 적극적으로 실험하고 있음을 시사한다. 그러나 주요 용도는 기존 작전을 강화하는 수준이다. OpenAI는 자사 도구가 악의적인 사이버 활동에 사용되는 것을 막기 위해 탐지 및 중단에 지속적으로 투자할 계획이다.