뉴스는 여러 수준에서 놀랍다. 포럼에서 이러한 콘텐츠를 만드는 방법에 대한 팁을 서로 공유하고 있는 것으로 알려진 사회 최악의 행위자들이 폭력적이고 불법적인 판타지에 참여하기 위한 수단으로 급성장하는 기술을 파악하는 것을 본다.
이 최신 계시는 또한 AI가 방조하는 성적학대의 더 광범위하고 증가하는 경향이 뚜렸하다.
AI 기반 인터넷의 현실은 점점 더 명확해지고 있다. 그리고 그 현실은 어떤 경우에는 혼란스럽고 파괴적이다. The Washington Post 의 보고서 에 따르면 전문가들은 AI이미지생성기가 아동 성적학대 자료(CSAM)를 만들고 공유하는 데 사용되고 있음을 발견했다. 설상가상으로, 이 자료의 확산은 궁극적으로 법집행기관이 피해자를 돕기 어렵게 만들 수 있다. 비영리아동안전단체 Thorn의 데이터과학책임자인 Rebecca Portnoff는 WaPo 에 "알려진 피해자의 콘텐츠를 포함한 어린이 이미지가 이 정말 사악한 결과를 위해 용도 변경되고 있습니다." -지난 가을 이후 AI로 생성된 CSAM의 월간 성장이 두드러진다. "피해자 식별은 법집행기관이 위험에 처한 아동을 찾으려고 노력하는 건초 더미 문제의 바늘과 같습니다."라고 Portnoff는 계속했다. "이러한 도구의 사용 편의성은 현실감뿐만 아니라 중요한 변화입니다. 모든 것이 더 어려워집니다." 건초 더미의 바늘보고서에 따르면 대부분의 포식자는 Stability AI의 Stable Diffusion 모델과 같은 오픈소스이미지생성기를 사용하여 불안한 이미지를 생성하는 것으로 보인다. Stable Diffusion에는 올바른 노하우와 몇 줄의 코드가 있는 CSAM 필터를 포함하여 몇 가지 기본 제공 안전예방조치가 있지만 보고서에 따르면 이러한 필터는 쉽게 분해할 수 있다. 이러한 이미지를 식별하는 것은 어려울 수 있습니다. CSAM을 차단하기 위한 기존 시스템은 새로 생성된 이미지가 아닌 알려진 이미지의 확산을 감지하도록 구축되었다. 지옥의 층뉴스는 여러 수준에서 놀랍다. 포럼에서 이러한 콘텐츠를 만드는 방법에 대한 팁을 서로 공유하고 있는 것으로 알려진 사회 최악의 행위자들이 폭력적이고 불법적인 판타지에 참여하기 위한 수단으로 급성장하는 기술을 파악하는 것을 본다. 이 최신 계시는 또한 AI가 방조하는 성적학대의 더 광범위하고 증가하는 경향이 뚜렸하다. 합성 콘텐츠가 실제 세계에 해를 끼치는 방식에 대한 걱정스러운 예이다. 그리고 이 경우 그 피해는 사회에서 가장 취약한 사람들에게 가해진다. AI 및 성적 학대에 대해 자세히 알아보기: AI 초상화 앱에 문제가 있다. 동의 없이 사람들의 옷을 벗길 수 있다.
<저작권자 ⓒ 사단법인 유엔미래포럼 무단전재 및 재배포 금지>
|
많이 본 기사
최신기사
|