반응형
https://arxiv.org/abs/2306.04031
1. 언어 모델은 복잡한 작업에서 단계별로 추론을 할 때 종종 더 높은 정확도를 보입니다. 그러나 그들의 추론은 불완전하거나 일관성이 없거나 바람직하지 않은 이전 가정에 의존할 수 있습니다. 이러한 문제들을 해결하기 위해, 우리는 상태와 점진적인 제약 조건을 사용하여 생성을 안내하는 언어 모델을 위한 도구인 가이드를 소개합니다.
2. 모델이 자신의 생성을 도구가 제공하는 유효한 진술 집합에 제약하기 위해 가이드를 호출할 수 있습니다. 반대로, 모델의 선택은 가이드의 상태를 바꿀 수 있습니다. 우리는 어떻게 일반적인 논리 추론 시스템이 가이드로 사용될 수 있는지 보여주며, 이를 LogicGuide라고 부릅니다.
3. 자연어로 된 추론 문제를 주어진 경우, 모델은 LogicGuide에 대한 가정을 형식화하고 그 추론 단계가 타당함을 보장할 수 있습니다. PrOntoQA와 ProofWriter 추론 데이터셋을 사용한 실험에서 LogicGuide는 GPT-3, GPT-3.5 Turbo와 LLaMA의 성능을 크게 향상시켰고(정확도 향상 최대 35%), LogicGuide는 내용 효과를 크게 줄였습니다. 마지막으로, 우리는 자신의 추론에서 LLaMA 13B를 부트스트랩하는 것을 탐색하고 LogicGuide가 중요하다는 것을 발견했습니다: 자체 생성된 추론만 인증하도록 학습함으로써, LLaMA는 자신의 환영에서 배우는 것을 피하면서 자기 개선할 수 있습니다.
'AI > etc' 카테고리의 다른 글
언어 모델이 약한 에이전트를 가르칠 수 있습니까? 마음의 이론을 통해 학생들을 향상시키는 교사 설명 (0) | 2023.06.18 |
---|---|
Mind2Web: 웹용 제너럴리스트 에이전트를 향하여 (1) | 2023.06.18 |
OMNI: 인간의 흥미 개념 모델을 통한 개방성 (0) | 2023.06.07 |
트랜스포머의 길이 일반화에 대한 위치 인코딩의 영향 (0) | 2023.06.03 |
생각 복제: 인간의 생각을 모방하여 행동하면서 생각하는 법 배우기 (0) | 2023.06.03 |