AI/Google&DeepMind 29

세인레그 SXSW2024 전체 인터뷰 스크립트

리드 알베르가티: (소개) ... 저는 세마포의 기술 편집자인 리드 알베르가티입니다. 오늘은 Google DeepMind의 최고 AGI 과학자이자 공동 창립자인 셰인 레그와 함께합니다. 그는 인공 일반 지능(AGI)이라는 용어를 대중화시킨 인물입니다. ... 당신은 런던에서 계산 신경 과학을 공부하던 시절 데미스 허사비스를 만나 DeepMind를 공동 창립했습니다. 계산 신경 과학이 무엇이고, 어떻게 지금 하고 있는 일로 이어졌는지 설명해 주시겠어요? 셰인 레그: 사실 저는 계산 신경 과학자가 아니었고, 그 분야에서 일한 적도 없습니다. ... 제가 스위스에서 인공 지능에 대한 박사 과정을 밟고 있을 때 계산 신경 과학에 대해 조금씩 읽기 시작했습니다. ... 사람들이 계산 신경 과학에서 얻은 흥미로운 ..

AI/Google&DeepMind 2024.04.14

세인레그 SXSW2024 인터뷰 요약

https://schedule.sxsw.com/2024/events/PP135283 셰인레그는 AGI를 사람이 할 수 있는 다양한 인지 작업을 수행할 수 있는 인공 시스템으로 정의합니다. 세인레그는 2028년까지 AGI가 개발될 확률을 50%로 예측하며, 현재 딥러닝과 컴퓨팅 파워의 발전을 고려할 때 이 예측이 여전히 유효하다고 봅니다. 세인레그는 현재 AI 시스템이 인간 수준의 능력에는 미치지 못하며, 추론, 계획, 사실성 등에서 개선이 필요하다고 말합니다. AGI의 잠재적인 위험성으로는 오용, 목표 불일치, 사회적 영향 등이 언급됩니다. 그러나 레그는 AI 윤리 및 안전 연구가 활발해지고 있다는 점에 긍정적인 면을 봅니다. 기업 간의 AI 개발 경쟁은 빠른 발전을 이끌지만, 위험성을 간과할 수 있다는..

AI/Google&DeepMind 2024.04.13

Patch n' Pack: NaViT, 모든 종횡비 및 해상도를 위한 비전 트랜스포머

https://arxiv.org/abs/2307.06304 Patch n' Pack: NaViT, a Vision Transformer for any Aspect Ratio and Resolution The ubiquitous and demonstrably suboptimal choice of resizing images to a fixed resolution before processing them with computer vision models has not yet been successfully challenged. However, models such as the Vision Transformer (ViT) offer flexible sequ arxiv.org 1. 현재 컴퓨터 비전 모델에서 이..

AI/Google&DeepMind 2023.07.13

Focused Transformer: 컨텍스트 스케일링을 위한 대조 훈련

https://arxiv.org/abs/2307.03170 Focused Transformer: Contrastive Training for Context Scaling Large language models have an exceptional capability to incorporate new information in a contextual manner. However, the full potential of such an approach is often restrained due to a limitation in the effective context length. One solution to this issue arxiv.org 1. 대형 언어 모델은 새로운 정보를 문맥에 맞게 통합하는 뛰어난 ..

AI/Google&DeepMind 2023.07.07

Learning to Modulate pre-trained Models in RL

https://arxiv.org/abs/2306.14884 Learning to Modulate pre-trained Models in RL Reinforcement Learning (RL) has been successful in various domains like robotics, game playing, and simulation. While RL agents have shown impressive capabilities in their specific tasks, they insufficiently adapt to new tasks. In supervised learning, this arxiv.org 1. 강화 학습(RL)은 로봇 공학, 게임 플레이, 시뮬레이션 등 다양한 분야에서 성공적으로 ..

AI/Google&DeepMind 2023.06.27

대화형 AI 안전의 교차성: 베이지안 다단계 모델이 안전에 대한 다양한 인식을 이해하는 데 도움이 되는 방법

https://arxiv.org/abs/2306.11530 Intersectionality in Conversational AI Safety: How Bayesian Multilevel Models Help Understand Diverse Perceptions of Safety Conversational AI systems exhibit a level of human-like behavior that promises to have profound impacts on many aspects of daily life -- how people access information, create content, and seek social support. Yet these models have also shown..

AI/Google&DeepMind 2023.06.21

π2vec: Policy Representations with Successor Features

https://arxiv.org/abs/2306.09800 $\pi2\text{vec}$: Policy Representations with Successor Features This paper describes $\pi2\text{vec}$, a method for representing behaviors of black box policies as feature vectors. The policy representations capture how the statistics of foundation model features change in response to the policy behavior in a task agno arxiv.org 1. 이 논문은 행동의 특징 벡터로 블랙박스 정책을 표현하는..

AI/Google&DeepMind 2023.06.19