이어 "잠재적인 장단점을 모두 고려할 때, 초지능은 인류가 그간 맞서온 다른 기술보다 더 강력할 것"이라며 "실존적 위험 가능성을 고려하면 단순히 대응하는 차원에 머무를 수 없다"고 강도 높은 조치의 필요성을 역설했다.
이에 따라 이들은 안전한 초지능 개발을 위해 각국 정부와 국제사회의 개입이 필요하다고 주장했다. 구체적인 방안으론 세계 주요국 정부가 주도하는 프로젝트나 AI 역량의 연간 성장률을 제한하는 집단적 합의 등을 제안했다.
그러면서 "궁극적으론 IAEA와 유사한 기구가 필요할 가능성이 크다"고 강조했다. AI 국제 감독기구엔 "특정 역량의 한계치를 초과하는 모든 시도에 대해 시스템 검사 및 감사 기능을 부여하고, 안전 표준치를 준수하는지 테스트할 권한이 주어져야 한다"며 "이를 통해 안전 수준에 따라 제재를 가할 수 있을 것"이라고 설명했다.
또한 AI 시스템의 거버넌스와 배치 결정은 대중의 강력한 감시를 받아야 할 것이라며, 오픈AI 측은 이를 위한 메커니즘 개발을 계속 실험할 계획이라고 말했다.
이와 관련, 브로크먼 회장은 같은 날 미국 캘리포니아주(州) 샌프란시스코에서 열린 '미래의 AI' 행사에서 AI에 영향을 미칠 의사결정과 관련해 광범위한 의견을 수집하는 방법으로 '위키피디아(wikipedia)'식 모델을 제안했다고 로이터 통신이 전했다. 온라인 백과사전 위키피디아는 외부 전문가와 일반인이 새 정보를 추가하면 운영자의 검증을 거쳐 반영하는 방식으로 운영된다.
앞서 올트먼 대표는 지난 16일 미국 상원 청문회에 출석해서도 AI 규제의 필요성을 호소한 바 있다. 당시 그는 "AI와 관련된 안전성 표준 테스트를 도입하고 새 AI 모델에 대해 독립적인 전문가 감사가 필요하다"면서 이를 위해 새 정부기관을 설립하거나 국제사회 차원의 기구가 필요하다고 말했다.
오픈AI의 이런 제안은 최근 AI가 비약적으로 발전하면서 사람이 AI를 악용하거나 스스로 진화한 AI가 인류의 미래를 위협할 수 있단 암울한 진단이 잇따르는 가운데 나왔다.