
펌) ChatGPT로 시작된 AI 위험에 대한 위기감이 결국 이런 운동을 만들었네요.
현재 서명자로는 Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Andrew Yang, Emad Mostaque 등 1124명이 이름을 올렸는데, 여러분은 어떻게 생각하시나요 ?
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
------------
거대한 AI 실험을 멈추십시오: 공개 서한
모든 인공지능 연구소에 GPT-4보다 강력한 인공지능 시스템의 학습을 최소 6개월 동안 즉시 중단할 것을 요청합니다.
광범위한 연구[1]와 최고의 AI 연구소에서 인정한 바와 같이, 인간과 경쟁할 수 있는 지능을 갖춘 AI 시스템은 사회와 인류에 심각한 위험을 초래할 수 있습니다.[2] 널리 승인된 Asilomar AI 원칙에 명시된 바와 같이, 고급 AI는 지구 생명체의 역사에 중대한 변화를 초래할 수 있으므로 그에 상응하는 주의와 자원을 통해 계획하고 관리해야 합니다. 안타깝게도 최근 몇 달 동안 AI 연구소는 그 누구도, 심지어 개발자를 포함한 그 누구도 이해하거나 예측하거나 안정적으로 제어할 수 없는 더욱 강력한 디지털 마인드를 개발하고 배포하기 위해 통제 불능의 경쟁에 몰두하고 있지만 이러한 수준의 계획과 관리가 이루어지지 않고 있습니다.
현대의 AI 시스템은 이제 일반적인 작업에서 인간과 경쟁할 수 있는 수준으로 발전하고 있으며[3], 우리는 스스로에게 질문을 던져야 합니다: 기계가 우리의 정보 채널을 선전과 비진리로 가득 채우도록 내버려둬야 할까요? 만족스러운 일을 포함한 모든 일을 자동화해야 할까요? 결국에는 인간보다 더 많고, 더 똑똑하고, 더 쓸모없고, 우리를 대체할 수 있는 비인간적인 마인드를 개발해야 할까요? 우리 문명에 대한 통제력을 상실할 위험을 감수해야 할까요? 이러한 결정을 선출되지 않은 기술 리더에게 위임해서는 안 됩니다. 강력한 인공지능 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때에만 개발되어야 합니다. 이러한 확신은 시스템의 잠재적 효과의 규모에 따라 정당화되고 증가해야 합니다. OpenAI는 최근 인공일반지능에 관한 성명에서 "어느 시점에서는 미래 시스템을 훈련하기 전에 독립적인 검토를 받고, 새로운 모델을 만드는 데 사용되는 컴퓨팅의 성장 속도를 제한하는 데 동의하는 것이 중요할 수 있다"고 언급했습니다. 저희도 동의합니다. 그 시점이 바로 지금입니다.
따라서 우리는 모든 인공지능 연구소가 GPT-4보다 더 강력한 인공지능 시스템의 학습을 최소 6개월 동안 즉시 중단할 것을 촉구합니다. 이 일시 중지는 공개적이고 검증 가능해야 하며 모든 주요 행위자를 포함해야 합니다. 이러한 중단 조치가 신속하게 시행될 수 없다면 정부가 나서서 유예 조치를 취해야 합니다.
AI 연구소와 독립 전문가들은 이 일시 중단을 활용하여 독립적인 외부 전문가가 엄격하게 감사하고 감독하는 고급 AI 설계 및 개발을 위한 일련의 공유 안전 프로토콜을 공동으로 개발하고 구현해야 합니다. 이러한 프로토콜을 준수하는 시스템은 합리적 의심의 여지가 없을 정도로 안전해야 합니다.[4] 이는 AI 개발 전반의 중단을 의미하는 것이 아니라 새로운 기능을 갖춘 예측할 수 없는 더 큰 블랙박스 모델을 향한 위험한 경쟁에서 한 발짝 물러나자는 의미일 뿐입니다.
AI 연구와 개발은 오늘날의 강력한 최첨단 시스템을 더욱 정확하고, 안전하고, 해석 가능하며, 투명하고, 견고하고, 일관되고, 신뢰할 수 있고, 충성도가 높은 시스템으로 만드는 데 초점을 맞춰야 합니다.
이와 동시에 AI 개발자는 정책 입안자들과 협력하여 강력한 AI 거버넌스 시스템의 개발을 획기적으로 가속화해야 합니다. 이러한 시스템에는 최소한 다음과 같은 것들이 포함되어야 합니다. AI를 전담하는 새롭고 유능한 규제 당국, 고성능 AI 시스템과 대규모 연산 능력 풀에 대한 감독 및 추적, 진짜와 가짜를 구별하고 모델 유출을 추적하는 데 도움이 되는 출처 및 워터마킹 시스템, 강력한 감사 및 인증 생태계, AI로 인한 피해에 대한 책임, 기술적 AI 안전 연구를 위한 강력한 공공 자금, AI가 초래할 극심한 경제적, 정치적 혼란(특히 민주주의에 대한)에 대처할 수 있는 충분한 자원을 갖춘 기관.
인류는 AI와 함께 번영하는 미래를 누릴 수 있습니다. 강력한 AI 시스템을 만드는 데 성공한 우리는 이제 그 보상을 누리고, 모두에게 분명한 이득이 되도록 시스템을 설계하고, 사회에 적응할 기회를 주는 'AI의 여름'을 즐길 수 있습니다. 사회는 잠재적으로 사회에 치명적인 영향을 미칠 수 있는 다른 기술에 대해 잠시 멈춰 섰습니다.[5] 우리는 여기서 그렇게 할 수 있습니다. 준비되지 않은 가을로 서두르지 말고 긴 AI의 여름을 만끽합시다.
(Deepl로 번역)