"블랙리스트" 메커니즘 및 보안 평가
10월 11일에 공개된 초안은 단일 주체에서 나온 것이 아니라 공동 작업이었다. 국가 정보 보안 표준화 위원회(National Information Security Standardization Committee)가 중국 사이버 공간 관리국(CAC), 산업 정보 기술부 및 여러 법 집행 기관의 중요한 의견을 받아 주도권을 잡았다. 이러한 다중 기관 참여는 AI 데이터 보안과 관련된 높은 이해관계와 다양한 고려 사항을 나타낸다.
생성 AI의 기능은 인상적이고 광범위하다. 텍스트 콘텐츠 제작부터 이미지 생성까지, 이 AI 하위 집합은 기존 데이터를 학습하여 새로운 원본 출력을 생성한다. 그러나 큰 힘에는 큰 책임이 따르기 때문에 이러한 AI 모델의 학습 자료로 사용되는 데이터에 대한 엄격한 확인이 필요하다.
제안된 규정은 대중이 접근할 수 있는 생성 AI 모델 훈련에 사용되는 데이터에 대한 철저한 보안 평가를 옹호하며 세심하다. 그들은 한 단계 더 나아가 콘텐츠에 대한 '블랙리스트' 메커니즘을 제안한다. 블랙리스트에 대한 기준은 정확하다. 즉, "불법적이고 유해한 정보가 5% 이상"으로 구성된 콘텐츠이다. 이러한 정보의 범위는 테러, 폭력을 선동하거나 국가 이익과 명예에 해를 끼치는 콘텐츠를 포착하는 등 광범위하다.
글로벌 AI 관행에 대한 시사점
중국의 규정 초안은 특히 기술이 더욱 정교해지고 널리 보급됨에 따라 AI 개발과 관련된 복잡성을 상기시키는 역할을 한다. 이 지침은 기업과 개발자가 혁신과 책임의 균형을 유지하면서 신중하게 행동해야 하는 세상을 제시한다.
이러한 규정은 중국에만 국한된 것이지만 그 영향력은 전 세계적으로 반향을 일으킬 수 있다. 이는 전 세계적으로 유사한 전략에 영감을 주거나 적어도 AI의 윤리 및 보안에 대한 더 깊은 대화를 촉발할 수 있다. 우리가 AI의 가능성을 계속 수용함에 따라 앞으로 나아갈 길은 관련된 잠재적 위험에 대한 예리한 인식과 사전 예방적인 관리를 요구한다.
중국의 이러한 계획은 보편적인 진실을 강조한다. 기술, 특히 AI가 우리 세계와 더욱 얽혀 감에 따라 엄격한 데이터 보안과 윤리적 고려의 필요성이 더욱 시급해지고 있다. 제안된 규정은 AI의 안전하고 책임감 있는 진화에 대한 더 넓은 의미에 대한 관심을 불러일으키는 중요한 순간이다.