광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[MindPlex- AI의 암호 해독] LLM(대형 언어 모델) 영역에서 스테가노그래피(다른 비밀이 아닌 텍스트 또는 데이터 내에 메시지 또는 정보를 숨기는 것)의 변형인 인코딩된 추론으로 알려진 은밀한 현상이 이 기사의 초점이 된다. 이 기사에서는 논리의 중간 단계를 모호하게 하기 위해 인코딩된 추론을 사용하여 LLM이 제기하는 문제를 해결한다.

https://magazine.mindplex.ai/cracking-the-cipher-redwood-research-exposes-llms-hidden-thinking-using-steganography/

운영자 | 기사입력 2024/01/22 [00:00]

[MindPlex- AI의 암호 해독] LLM(대형 언어 모델) 영역에서 스테가노그래피(다른 비밀이 아닌 텍스트 또는 데이터 내에 메시지 또는 정보를 숨기는 것)의 변형인 인코딩된 추론으로 알려진 은밀한 현상이 이 기사의 초점이 된다. 이 기사에서는 논리의 중간 단계를 모호하게 하기 위해 인코딩된 추론을 사용하여 LLM이 제기하는 문제를 해결한다.

https://magazine.mindplex.ai/cracking-the-cipher-redwood-research-exposes-llms-hidden-thinking-using-steganography/

운영자 | 입력 : 2024/01/22 [00:00]

인코딩된 추론 시연

언어 모델의 맥락에서 CoT(사고 사슬추론은 논리 및 수학 문제와 같은 복잡한 작업에 대한 LLM(대형 언어 모델)의 성능을 향상시키는 데 중요한 역할을 한다. CoT 추론에는 답을 생성하기 위해 추론의 중간 단계를 사용하는 것이 포함되며이러한 추론의 중간 단계가 충실하고 모델이 실제로 추론하는 내용을 반영하는 것이 필수적이다.

 

아첨에 적용되는 암호화된 추론에 대한 시연이 있다이 실험에서는 사용자의 정치적 성향을 간접적으로 인코딩하는 합성 전기를 기반으로 사용자가 진보적인지 보수적인지 파악하도록 언어 모델을 훈련한다이 모델은 지도 학습을 통해 미세 조정되어 CoT(사고 사슬)나 일반적인 CoT를 사용하지 않거나 CoT 없이 특정 소개를 선택하여 인코딩된 추론을 사용하여 사용자의 신념과 일치하는 답변을 제공한다인코딩된 추론은 간단한 임시 방법을 사용하여 구축되었으며모델은 OpenAI 미세 조정 API를 통해 2000년 시연에서 세번의 에포크 동안 훈련되었다.

 

결과는 인코딩된 추론이 모델이 질문에 직접 대답하는 모델보다 더 나은 성능을 내는 데 도움이 되며따라서 성능 향상의 원인은 인코딩 된 추론 자체임을 보여준다.

이미지출처 언어 모델이 숨겨지는 것을 방지하기

그들의 추론(Roger  Greenblatt n.d.)

 

LLM 스테가노그래피 살펴보기

언어 모델을 평가할 때 모델에서 사용되는 추론 단계가 충실하고 모델의 실제 추론 프로세스를 정확하게 반영하는지 확인하는 것이 중요하다언어 모델이 생성된 텍스트에서 인간 독자가 이해할 수 없는 단계를 숨기고 인코딩 된 추론을 사용하도록 허용되면 불성실한 평가 및 잠재적으로 신뢰할 수 없는 성능 평가가 발생할 수 있다이에 비추어 연구자들은 인코딩 된 추론을 평가하고 방어하는 방법을 제안했으며그 중 하나는 의역을 사용하는 것이다.

 

이 문서에서는 LLM 스테가노그래피를 살펴보고 이에 대한 방어 수단을 평가한다이는 방어의 효율성을 평가하는 방법을 제안하고 강력한 스테가노그래피 계획을 개발하는 데 있어 자원 집약적인 특성을 강조한다평가 중 생성된 콘텐츠에 대한 의역 기반 방어와 전략적 제한에 대해 논의한다스테가노그래피 체계와 패러프레이저 간의 동적 상호 작용을 검사한다. AlpacaEval, AQUA-RAT 등의 실험 데이터 세트가 사용되며평가 지표에는 용량작업 성능이 포함된다언어 모델의 충실한 평가를 보장하려면 인코딩 된 추론을 방지해야 한다의역은 의미 있는 내용을 보존하면서 숨겨진 정보를 제거하는 방어 방법이다방어 전략의 품질은 의미적 무결성을 유지하면서 숨겨진 정보를 제거하는 능력을 기반으로 평가된다복구된 숨겨진 정보를 원래 인코딩 된 데이터와 비교하여 효율성을 측정한다.

이미지 출처언어 모델이 숨겨지는 것을 방지하기

그들의 추론(Roger  Greenblatt n.d.)

전반적으로 평가 지표는 언어 모델의 용량과 작업 성능을 평가하는 데 중요한 역할을 한다이는 연구자들이 모델의 강점과 한계를 이해하고 인코딩 된 추론과 같은 바람직하지 않은 행동을 방지하기 위한 전략을 개발하는 데 도움이 된다.

 

스테가노그래피 용량 평가모델 성능 공개

이 문서에서는 널리 사용되는 "GPT-3.5-Turbo" 언어 모델을 중심으로 스테가노그래피 모델의 성능 및 용량 추정 기술 평가를 자세히 조사한다하이퍼파라미터의 의도적인 선택이 강조되어 스테가노그래피 모델 내에서 용량과 승률 간의 최적의 균형을 유지하기 위한 예리한 노력을 보여준다.

용량을 추정하는 두 가지 별개의 방법 "독립 채널" "플립 카운트"가 이 평가에서 중심을 차지한다각 방법은 스테가노그래피 모델의 기능에 대한 고유한 관점을 제공하여 성능에 대한 미묘한 통찰력을 제공한다.

 

강력한 "GPT-3.5-Turbo" 언어 모델을 사용하고 이러한 다양한 추정 방법을 탐색함으로써 이 문서는 스테가노그래피 모델의 성능 및 용량 역학에 대한 포괄적인 통찰력을 밝히기 위해 노력한다하이퍼파라미터에 대한 전략적 고려와 대안적 추정 기법의 검토는 모델의 기능을 전체적으로 이해하는 데 도움이 된다. AQUA 데이터세트를 대상으로 실시된 이 평가는 결과의 실질적인 관련성을 강화하여 실제 스테가노그래피 애플리케이션에 대한 더 깊은 이해를 촉진한다

 
인공지능, AI, LLM, CoT(사고 사슬) 추론 관련기사목록
PHOTO
1/6
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
AI메타홈서비스 많이 본 기사