반응형
https://arxiv.org/abs/2305.16867
1. 대규모 언어 모델(LLMs)이 사회를 변화시키고 다양한 응용 분야에 퍼지고 있습니다. 따라서 LLMs가 우리와 다른 에이전트와 자주 상호작용할 것입니다. 이에, LLMs가 상호작용적인 사회적 환경에서 어떻게 행동하는지 이해하는 것은 매우 중요한 사회적 가치를 가지고 있습니다.
2. 우리는 행동 게임 이론을 사용하여 LLM의 협력 및 조정 행동을 연구하는 것을 제안합니다. 이를 위해, 우리는 다른 LLMs (GPT-3, GPT-3.5, GPT-4)에게 상호작용하는 게임을 반복해서 플레이하게 하고, 다른, 인간과 유사한 전략과도 플레이하게 합니다. 우리의 결과는 LLMs가 이러한 작업에서 일반적으로 잘 수행되며, 지속적인 행동 특성을 발견합니다.
3. 두 플레이어-두 전략의 게임 세트에서 LLMs는 특히 자신의 이익을 중요하게 생각하는 게임에서 잘 해낸다는 것을 발견했습니다. 그러나, 조정이 필요한 게임에서는 최적이 아닌 행동을 보입니다. 이러한 결과는 LLM의 사회적 행동에 대한 이해를 풍부하게 하고, 기계를 위한 행동 게임 이론을 만드는 길을 열어줍니다.
'AI > etc' 카테고리의 다른 글
RWKV: 트랜스포머 시대를 위한 RNN 재창조 (0) | 2023.05.29 |
---|---|
자연어 기반 정신 사회의 마인드스톰 (0) | 2023.05.29 |
BiomGPT: 비전, 언어 및 멀티모달 작업을 위한 통합 및 제너럴리스트 Biomedic GPT (0) | 2023.05.29 |
Panda-GPT: 하나의 모델에서 지침까지 모두 따르세요. (0) | 2023.05.29 |
행동하기 전에 생각하기: 내부 작업 기억을 가진 의사 결정 트랜스포머 (0) | 2023.05.29 |