AI/OpenAI

초지능의 거버넌스

유로파물고기 2023. 5. 28. 21:17
반응형

https://openai.com/blog/governance-of-superintelligence

 

Governance of superintelligence

Now is a good time to start thinking about the governance of superintelligence—future AI systems dramatically more capable than even AGI.

openai.com

해당 블로그 게시물은 인공지능의 미래 발전에 대해 논의하며, 특히 "초지능(Superintelligence)"에 대한 거버넌스에 대해 깊이 이야기하고 있습니다.

 

이 게시물에서는 초지능이 인간의 전문성을 능가하고, 오늘날 가장 큰 기업들만큼이나 많은 생산활동을 수행할 수 있는 미래의 AI 시스템을 예상하고 있습니다. 이러한 초지능은 인류가 지금까지 다뤄온 기술보다 훨씬 강력할 것이며, 이에 대한 위험을 관리해야 한다고 강조하고 있습니다

 

이에 대한 초기적인 생각으로, 다음 세 가지 주요 아이디어를 제시합니다:

 

1. 초지능의 개발이 안전하게 유지되고 사회와 부드럽게 통합될 수 있도록 주요 개발 노력들 사이에 어느 정도의 협력이 필요합니다. 이를 구현하는 방법은 여러 가지가 있을 수 있습니다.

2. 초지능 노력에 대해 국제원자력기구(IAEA)와 같은 기구가 필요하다는 점을 언급하고 있습니다. 특정 능력 또는 자원 임계치를 초과하는 모든 노력은 국제 권위에 의해 검사, 감사, 안전 표준 준수 테스트, 배포 및 보안 수준 제한 등을 받아야 합니다.

3. 초지능을 안전하게 만드는 기술적 능력이 필요하다는 것을 강조합니다. 이는 현재 많은 노력이 쏟아지고 있는 개방형 연구 문제입니다

 

블로그 게시물은 또한 강력한 공개 감독하에 가장 강력한 시스템의 거버넌스와 배포 결정이 이루어져야 한다고 주장하고 있습니다. 이러한 이유로, OpenAI는 이 기술을 개발하는 이유에 대해 두 가지 핵심적인 이유를 제시합니다:

1. 이 기술이 우리가 오늘날 상상할 수 있는 것보다 훨씬 나은 세상을 이끌 것이라고 믿습니다. 이 기술은 우리 사회를 개선하고, 이 새로운 도구를 사용하는 모든 사람의 창의력이 우리를 놀라게 할 것이라고 합니다.

2. 초지능 초지능의 창조를 중단하는 것은 직관적으로 위험하고 어려울 것이라는 것을 믿습니다. 이유는 다음과 같습니다: 상당한 이점, 매년 줄어드는 구축 비용, 빠르게 증가하는 구축자 수, 기술 경로의 일부로서의 본질적인 특성 등 때문에, 그것을 멈추려면 글로벌 감시 체제와 같은 것이 필요하고, 그마저도 반드시 성공할 것이라는 보장이 없습니다. 따라서 우리는 이를 정확하게 해야 합니다

그러나 이러한 규제는 특정 능력 임계치 이하의 모델을 개발하는 기업과 오픈소스 프로젝트에는 적용되지 않아야 한다는 점을 명확히 하고 있습니다. 오늘날의 시스템들은 세상에 엄청난 가치를 창출하며, 그들이 가지고 있는 위험은 다른 인터넷 기술과 비슷한 수준이며, 사회의 적절한 접근 방식이 적합하다고 믿고 있습니다


GPT-4에 의해 작성됨