ndaily

'챗GPT' 만든 오픈AI "AI 위험 막기 위해 IAEA 같은 기구 필요"
기사 작성일 : 2023-05-23 12:01:06

권수현 기자 = 생성형 인공지능(AI) 챗GPT 개발사인 '오픈AI'가 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다고 제시했다.

샘 올트먼 오픈AI 창업자 겸 최고경영자(CEO)와 그레그 브로크먼 회장 겸 공동창업자, 일리야 수츠케버 수석 과학자는 22일(현지시간) 자사 블로그에 올린 '초지능 거버넌스'라는 제목의 글에서 "우리는 더 번영하는 미래를 가질 수 있지만, 거기에 도달하려면 위험을 관리해야 한다"며 이같이 밝혔다.

AI


[ 자료사진. 재판매 및 DB 금지]

이들은 "초지능(superintelligence)은 잠재적인 장단점 모든 측면에서 인류가 그간 맞서온 다른 기술보다 강력할 것이다. 실존적 위험 가능성을 고려하면 우리는 단순히 대응하는 차원에 머무를 수 없다"며 더욱 적극적인 조치의 필요성을 강조했다.

이어 "초지능 개발이 안전성을 유지하면서 이러한 시스템과 사회의 원활한 통합을 돕는 방식으로 이뤄지게 하려면 선도적인 개발 노력 간 일정 정도의 조정이 필요하다"고 덧붙였다.

오픈AI 경영진들은 '조정'을 시행하는 방안으로 세계 주요국 정부가 주도하는 프로젝트나 AI 역량의 연간 성장률을 제한하는 집단적 합의 등을 제안하면서 "궁극적으로는 초지능 노력을 위해 IAEA 같은 기구가 필요할 가능성이 크다"고 말했다.

이들은 또 "특정한 역량이나 컴퓨트 자원의 한계치를 초과하는 모든 활동은 국제 규제당국의 지배 아래에 있어야 한다"며 "(국제 당국은) 시스템을 검사하고 감사를 요청할 수 있으며 안전기준을 준수하는지 테스트하고, 배치·안전 수준에 따라 제재를 가할 수 있을 것"이라고 설명했다.

그러면서 이를 위해 컴퓨트와 에너지 사용량을 추적하는 것이 상당한 도움이 될 수 있다고 부연했다.

오픈AI 경영진들은 또한 AI 시스템의 거버넌스와 배치 결정은 대중의 강력한 감시를 받아야 한다면서 이를 위한 메커니즘 개발을 계속 실험할 계획이라고 말했다.

이들은 "우리는 AI 시스템의 한계와 기본값을 전 세계 사람들이 민주적으로 결정해야 한다고 믿는다"면서 "또한 개별 사용자들은 넓은 한도 안에서 자신이 사용하는 AI가 어떻게 행동할지에 대해 많은 통제권을 가져야 한다고 생각한다"고 덧붙였다.

미국 상원 청문회에서 답변하는 샘 올트먼 오픈AI 창업자 겸 최고경영자(CEO)


[AP= 자료사진. 재판매 및 DB 금지]

이와 관련해 올트먼 CEO는 같은 날 미국 캘리포니아주 샌프란시스코에서 열린 '미래의 AI' 행사에서 AI에 영향을 미칠 의사결정과 관련해 광범위한 의견을 수집하는 방법으로 '위키피디아(Wikipedia)'식 모델을 제안했다고 로이터통신이 전했다.

인터넷 백과사전 위키피디아는 외부 전문가와 일반인이 새 정보를 추가하면 운영자의 검증을 거쳐 반영하는 방식으로 운영된다.

이날 행사에서 올트먼은 AI 정책에 대해 "우리가 모든 사람을 위한 규칙을 만들 수 있다고 생각하면서 실리콘밸리에 앉아있기만 하는 건 아니다"라며 "우리는 민주적인 의사결정을 고려하기 시작했다"고 말했다.

올트먼 CEO는 앞서 지난 16일 미국 상원 청문회에 출석해서도 AI의 위험을 완화하기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다고 말한 바 있다.

오픈AI의 제안은 최근 AI가 비약적으로 발전하면서 사람이 AI를 악용하거나 스스로 진화한 AI가 인류의 미래를 위협할 수 있다는 암울한 진단이 잇따르는 가운데 나왔다.

마이크로소프트(MS)는 최근 보고서에서 AI가 스스로 추론해 성장하는 AGI(범용인공지능)에 가까워져 인류의 지성을 뛰어넘는 초지능이 출연할 '기술적 특이점'에 다가서고 있다고 주장하기도 했다.

댓글