AI/etc

언어 모델을 사용한 인증된 추론

유로파물고기 2023. 6. 8. 09:38
반응형

https://arxiv.org/abs/2306.04031

 

Certified Reasoning with Language Models

Language models often achieve higher accuracy when reasoning step-by-step in complex tasks. However, their reasoning can be unsound, inconsistent, or rely on undesirable prior assumptions. To tackle these issues, we introduce a class of tools for language

arxiv.org

 

1. 언어 모델은 복잡한 작업에서 단계별로 추론을 할 때 종종 더 높은 정확도를 보입니다. 그러나 그들의 추론은 불완전하거나 일관성이 없거나 바람직하지 않은 이전 가정에 의존할 수 있습니다. 이러한 문제들을 해결하기 위해, 우리는 상태와 점진적인 제약 조건을 사용하여 생성을 안내하는 언어 모델을 위한 도구인 가이드를 소개합니다.

 

2. 모델이 자신의 생성을 도구가 제공하는 유효한 진술 집합에 제약하기 위해 가이드를 호출할 수 있습니다. 반대로, 모델의 선택은 가이드의 상태를 바꿀 수 있습니다. 우리는 어떻게 일반적인 논리 추론 시스템이 가이드로 사용될 수 있는지 보여주며, 이를 LogicGuide라고 부릅니다.

 

3. 자연어로 된 추론 문제를 주어진 경우, 모델은 LogicGuide에 대한 가정을 형식화하고 그 추론 단계가 타당함을 보장할 수 있습니다. PrOntoQA와 ProofWriter 추론 데이터셋을 사용한 실험에서 LogicGuide는 GPT-3, GPT-3.5 Turbo와 LLaMA의 성능을 크게 향상시켰고(정확도 향상 최대 35%), LogicGuide는 내용 효과를 크게 줄였습니다. 마지막으로, 우리는 자신의 추론에서 LLaMA 13B를 부트스트랩하는 것을 탐색하고 LogicGuide가 중요하다는 것을 발견했습니다: 자체 생성된 추론만 인증하도록 학습함으로써, LLaMA는 자신의 환영에서 배우는 것을 피하면서 자기 개선할 수 있습니다.