AI 89

OpenAI 프로세스 감독을 통한 수학적 추론 개선

최근 몇 년 동안 대규모 언어 모델은 복잡한 다단계 추론 수행 능력에서 크게 향상되었습니다. 그러나 최첨단 모델들조차 종종 '환각'이라고 불리는 논리적 오류를 만들어냅니다. 이러한 환각을 완화하는 것은 AGI(인공 일반 지능)를 구축하는 데 있어 중요한 단계입니다. 우리는 결과 감독법(최종 결과에 대한 피드백 제공) 또는 과정 감독법(사고의 연쇄에서 각 단계에 대한 피드백 제공)을 사용하여 환각을 감지하는 보상 모델을 훈련시킬 수 있습니다. 이전 연구에 이어, 우리는 MATH 데이터셋을 실험대로 사용하여 이 두 방법을 자세히 비교하였습니다. 우리의 발견은 과정 감독법이 결과에 의해 판단될 때조차 훨씬 더 좋은 성능을 보인다는 것입니다. 이와 관련된 연구를 장려하기 위해, 우리는 과정 감독법에 대한 전체 ..

AI/OpenAI 2023.06.01

LIV: 로봇 제어를 위한 언어-이미지 표현 및 보상

https://penn-pal-lab.github.io/LIV/ LIV LIV as Representation for Language-Conditioned BC We use LIV's frozen multi-modal representation as backbone for LCBC and achieve impressive performance (46% success rate, absolute ~30% better than the second best baseline) on a challenging real-world muli penn-pal-lab.github.io 설명: https://twitter.com/JasonMa2020/status/1663618652778942464 트위터에서 즐기는 Jason..

AI/etc 2023.05.31

생성 후 선택: World Knowledge가 안내하는 개방형 시각적 질문 답변

https://arxiv.org/abs/2305.18842 Generate then Select: Open-ended Visual Question Answering Guided by World Knowledge The open-ended Visual Question Answering (VQA) task requires AI models to jointly reason over visual and natural language inputs using world knowledge. Recently, pre-trained Language Models (PLM) such as GPT-3 have been applied to the task and shown to be arxiv.org 1. 개방형 시각 질문 응..

AI/etc 2023.05.31

PaLI-X: 다국어 비전 및 언어 모델 확장

https://arxiv.org/abs/2305.18565 PaLI-X: On Scaling up a Multilingual Vision and Language Model We present the training recipe and results of scaling up PaLI-X, a multilingual vision and language model, both in terms of size of the components and the breadth of its training task mixture. Our model achieves new levels of performance on a wide-range of arxiv.org PaLI-X라는 다국어 비전 및 언어 모델을 확대 규모로 훈련하..

AI/Google&DeepMind 2023.05.31

과거를 상상하여 미래를 추론

https://arxiv.org/abs/2305.17195 Inferring the Future by Imagining the Past A single panel of a comic book can say a lot: it shows not only where characters currently are, but also where they came from, what their motivations are, and what might happen next. More generally, humans can often infer a complex sequence of past and fut arxiv.org 1. 단일한 만화책 패널이 많은 정보를 전달할 수 있습니다: 그것은 캐릭터들이 현재 어디에 있는지 ..

AI/etc 2023.05.30

부분적으로 개인화된 연합 학습: 데이터 이질성의 저주 깨기

https://arxiv.org/abs/2305.18285 Partially Personalized Federated Learning: Breaking the Curse of Data Heterogeneity We present a partially personalized formulation of Federated Learning (FL) that strikes a balance between the flexibility of personalization and cooperativeness of global training. In our framework, we split the variables into global parameters, which are arxiv.org 1. 우리는 개인화의 유연성..

AI/etc 2023.05.30