광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[MindPlex- AI는 자신이 아는 것을 잊기 시작할까? 모델 훈련에서 재귀의 위험] 연구자들은 "모델 붕괴"에 대해 경고한다. 생성된 데이터에 지나치게 의존하여 AI가 느리게 저하되는 것이다. 실제 데이터가 생성 모델이 인간과 같은 우위를 잃는 것을 막을 수 있을까?

https://magazine.mindplex.ai/will-ai-start-forgetting-what-it-knows-the-risks-of-recursion-in-model-training/

운영자 | 기사입력 2024/11/18 [00:00]

[MindPlex- AI는 자신이 아는 것을 잊기 시작할까? 모델 훈련에서 재귀의 위험] 연구자들은 "모델 붕괴"에 대해 경고한다. 생성된 데이터에 지나치게 의존하여 AI가 느리게 저하되는 것이다. 실제 데이터가 생성 모델이 인간과 같은 우위를 잃는 것을 막을 수 있을까?

https://magazine.mindplex.ai/will-ai-start-forgetting-what-it-knows-the-risks-of-recursion-in-model-training/

운영자 | 입력 : 2024/11/18 [00:00]

 

AI는 자신이 아는 것을 잊기 시작할까모델 훈련에서 재귀의 위험

 

AI 모델이 인간과 매우 흡사한 이유를 잊기 시작했을까연구자들은 "모델 붕괴"라는 교활한 문제에 대해 경고한다이는 모델에서 생성된 데이터에 대한 연속적인 세대의 학습을 통해 AI 시스템이 원래 학습 데이터에서 더 멀어져 성능과 안정성이 저하될 수 있는 프로세스이다.

 

서론

대규모 언어 모델(LLM) GPT 및 안정적 확산과 같은 생성 모델의 출현은 AI와 콘텐츠 생성을 재편했다채팅봇에서 고급 이미지 합성에 이르기까지 이러한 시스템은 놀라운 기능을 보여준다그러나 근본적인 문제가 있다이전 모델에서 생성된 데이터로 새 모델을 학습하면 "모델 붕괴위험이 커진다이 퇴화적 프로세스는 시간이 지남에 따라 AI 모델의 지속 가능성과 안정성에 대한 우려를 제기한다.

 

모델 붕괴 메커니즘

"모델 붕괴"라는 용어는 생성 모델이 점차 실제 데이터 분포특히 이 데이터의 "꼬리또는 바깥쪽 가장자리를 표현하는 능력을 잃는 퇴화적 프로세스를 설명한다이 문제는 두 가지 오류에서 비롯된다.

첫째통계적 근사 오류는 모델이 실제 데이터보다는 생성된 데이터에 점점 더 의존할 때 발생한다여러 세대에 걸쳐 원래 데이터 세트의 중요한 정보가 덜 표현되어 데이터 환경에 대한 왜곡된 관점으로 이어진다.

두 번째 요인인 기능적 근사 오류는 모델의 아키텍처가 원래 데이터의 복잡성을 포착하지 못할 때 발생한다신경망은 이론적으로 복잡한 함수를 모델링할 수 있지만단순화된 아키텍처는 종종 AI의 출력에 대한 과신으로 이어진다이러한 오류가 합쳐지면 피드백 루프가 생성되어 각 세대가 초기 데이터 분포에서 점차 벗어나게 된다.

 

모델 간 효과

연구자들은 모델 붕괴를 더 잘 이해하기 위해 가우시안 혼합 모델(GMM) 및 변분 자동 인코더(VAE)를 포함한 다양한 생성 모델에 미치는 영향을 조사했다.

GMM을 사용한 테스트 결과 이러한 모델은 처음에는 성능이 좋았지만 재귀적 학습의 2,000번째 세대에서는 원래 데이터를 표현하는 능력이 크게 저하되었다분산 손실로 인해 초기 분포가 상당히 잘못 표현되었다.

잠재 변수에서 데이터를 생성하는 VAE는 훨씬 더 두드러진 효과를 보였다. 20세대에 이르러 모델 출력은 단일 모드로 수렴하여 원래 데이터 세트의 다양한 특성을 놓쳤다. "꼬리"가 사라지는 것은 데이터 뉘앙스가 손실되었음을 시사한다.

 

대규모 언어 모델에 대한 의미

GMM  VAE에 대한 우려 사항이지만모델 붕괴는 사전 학습을 위해 광범위한 코퍼스에 의존하는 GPT, BERT  RoBERTa와 같은 LLM에 대해 훨씬 더 우려스럽다. Wikitext-2 코퍼스에서 미세 조정된 OPT-125m 언어 모델을 포함하는 실험에서 연구자들은 원래 데이터가 유지되지 않았을 때 불과 5세대 이내에 성능이 저하되는 것을 관찰했다모델의 이해도를 측정하는 복잡도 점수는 34에서 50 이상으로 증가하여 작업 정확도가 상당히 떨어졌음을 나타낸다원본 데이터의 10%만 보존했을 때성능은 10세대에 걸쳐 안정적으로 유지되어 잠재적인 대책임을 보여주었다.

완화 전략

연구자들은 이러한 퇴화 현상을 해결하기 위해 여러 전략을 제안한다세대를 거쳐 원본 데이터 세트의 하위 집합을 유지하는 것이 매우 효과적인 것으로 입증되었다정품 데이터의 10%만이 붕괴를 상당히 늦추고 정확성과 안정성을 유지하는 것으로 나타났다.

또 다른 접근 방식은 생성 중에 데이터 샘플링 기술을 개선하는 것이다중요도 샘플링이나 리샘플링 전략과 같은 방법을 사용하면 원본 데이터의 다양성과 풍부함을 유지하는 데 도움이 된다.

학습 중에 향상된 정규화 기술을 사용하면 모델이 생성된 데이터에서 과적합되는 것을 방지하여 조기 붕괴를 줄일 수 있다이러한 조치는 생성된 데이터 세트에서 학습한 경우에도 모델이 균형 잡힌 작업 이해도를 유지하는 데 도움이 된다.

 

결론

모델 붕괴는 생성 AI의 미래에 상당한 위험을 초래하여 장기적인 정확성과 신뢰성에 도전한다이를 해결하려면 실제 데이터 유지샘플링 기술 개선효과적인 정규화 구현과 같은 전략이 필요하다집중적인 연구와 완화를 통해 AI 모델은 적응성과 효과를 유지하여 미래에 귀중한 도구로 남을 수 있다.

 

 

 

 
인공지능, 생성 AI, 모델 훈련, 재귀 위험, 모델 붕괴 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
AI메타홈서비스 많이 본 기사
광고
광고