AI 89

일부 신경망은 인간처럼 언어를 배웁니다

https://www.quantamagazine.org/some-neural-networks-learn-language-like-humans-20230522/ Some Neural Networks Learn Language Like Humans | Quanta Magazine Researchers uncover striking parallels in the ways that humans and machine learning models acquire language skills. www.quantamagazine.org 뇌와 인공 신경망이 어떻게 학습하는지는 여전히 미스터리입니다. 그러나 최근의 연구는 인공 신경망과 인간이 언어를 배우는 방식이 유사할 수 있다는 놀라운 결과를 보여줍니다. 연구자들은 "b..

AI/etc 2023.05.29

IBM, 2033년까지 100,000큐빗 머신 목표

https://thequantuminsider.com/2023/05/23/ibm-aims-for-100000-qubit-machine-by-2033-pioneering-quantum-centric-supercomputing IBM Aims for 100,000-Qubit Machine by 2033, Pioneering 'Quantum-Centric Supercomputing' IBM is setting its sights on a 100,000-qubit quantum-centric supercomputer within a decade, according to a statement. thequantuminsider.com IBM이 2033년까지 100,000큐비트 규모의 양자 중심 슈퍼컴퓨터를 개발하는..

AI/etc 2023.05.29

샘 알트만의 모든 것에 대한 무어의 법칙

https://moores.samaltman.com/ Moore's Law for Everything We need to design a system that embraces this technological future and taxes the assets that will make up most of the value in that world–companies and land–in order to fairly distribute some of the coming wealth. moores.samaltman.com OpenAI CEO인 샘 알트만이 쓴 모든 것에 대한 무어의 법칙이라는 글입니다. - GPT-4 요약 Sam Altman이 작성한 "Moore’s Law for Everything"은 그의 ..

AI/OpenAI 2023.05.28

GPT-5는 AGI 일까

https://www.aitimes.com/news/articleView.html?idxno=150238 AGI 품은 'GPT-5' 연말 출시? - AI타임스 \'GPT-4\'가 나온 지 한 달도 지나지 않아 한 개발자가 트위터에 \'GPT-5\' 출시를 예측하는 글을 올려 눈길을 끌고 있다.이와 관련 디지털트랜드는 28일(현지시간) 스치 첸이라는 개발자가 트위터에 \ www.aitimes.com 기사에 의하면 올해 12월 gpt5 교육을 완료할 예정이며 그것이 AGI를 달성할 것으로 기대한다고 한다. 기사가 참이라면 올해 12월에 GPT-5 교육을 완료한다고 하니 올해 GPT-5가 출시되기는 어렵겠으나 나도 GPT-5를 AGI로 정의될 수 있을 것이라고 본다. GPT-5가 빠르게 발표되길 바라지만 어쩌..

AI/OpenAI 2023.05.28

Getting ViT in Shape 컴퓨팅 최적화 모델 설계를 위한 확장 법칙

https://arxiv.org/abs/2305.13035 Getting ViT in Shape: Scaling Laws for Compute-Optimal Model Design Scaling laws have been recently employed to derive compute-optimal model size (number of parameters) for a given compute duration. We advance and refine such methods to infer compute-optimal model shapes, such as width and depth, and successfully implement arxiv.org 1. 컴퓨트 최적화 모델 형태 유추: 최근에는 주어진 ..

AI/Google&DeepMind 2023.05.28

Flan-MoE: 전문가가 거의 혼합되지 않은 확장명령 미세조정 언어모델

https://arxiv.org/abs/2305.14705 Flan-MoE: Scaling Instruction-Finetuned Language Models with Sparse Mixture of Experts The explosive growth of language models and their applications have led to an increased demand for efficient and scalable methods. In this paper, we introduce Flan-MoE, a set of Instruction-Finetuned Sparse Mixture-of-Expert (MoE) models. We show that naiv arxiv.org 1. 이 논문에서는 ..

AI/Google&DeepMind 2023.05.28

초지능의 거버넌스

https://openai.com/blog/governance-of-superintelligence Governance of superintelligence Now is a good time to start thinking about the governance of superintelligence—future AI systems dramatically more capable than even AGI. openai.com 해당 블로그 게시물은 인공지능의 미래 발전에 대해 논의하며, 특히 "초지능(Superintelligence)"에 대한 거버넌스에 대해 깊이 이야기하고 있습니다. 이 게시물에서는 초지능이 인간의 전문성을 능가하고, 오늘날 가장 큰 기업들만큼이나 많은 생산활동을 수행할 수 있는 미래의 AI ..

AI/OpenAI 2023.05.28

제프리 힌튼(Geoffrey Hinton)의 지능에 이르는 두 가지 길

https://twitter.com/CSERCambridge/status/1661777454212546561?s=20 트위터에서 즐기는 Centre for the Study of Existential Risk “Geoffrey Hinton's lecture will be starting in about 10 minutes. "Two Paths to Intelligence" has already filled up the lecture theatre here. Follow along with us for the key insights! Organised along with @LeverhulmeCFI, @Cambridge_Eng, and @CSERCambridg twitter.com 제프리 힌튼은 이제 역전파..

AI/etc 2023.05.28