ndaily

"AI 위험 피하려면 냉전시대 핵 다루듯 인류가 협력해야"
기사 작성일 : 2024-03-19 16:01:00

작년 11월 영국에서 열린 'AI 안전 정상회의'


[신화 자료사진. 재판매 및 DB 금지]

주종국 기자 = 인공지능(AI) 기술이 갖는 위험을 피하려면 인류가 냉전 시대에 핵전쟁을 막기 위해 노력했던 것처럼 서로 협력해야 한다고 서방과 중국의 최고과학자들이 경고했다.

영국 일간 파이낸셜타임스(FT)는 서방과 중국의 주요 AI 과학자들이 지난주 베이징에서 만나 AI 개발에 대한 '레드 라인'(지켜야 할 선)을 확인했다고 19일(현지시간) 보도했다.

과학자들은 회의 후 발표한 성명에서 "우리 생애 내에 인류에게 치명적이거나 실존적인 위험"을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다고 강조했다.

성명은 "냉전이 한창이던 시절, 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다. 인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다"고 밝혔다.

성명에는 신경망 연구로 튜링상을 수상하고 AI의 '대부'로 불리는 제프리 힌튼과 요슈아 벤지오, 캘리포니아 대학교 버클리의 스튜어트 러셀 컴퓨터공학과 교수, 중국의 저명한 컴퓨터 과학자 앤드류 야오 등이 참여했다.

이 성명은 지난주 베이징에서 열린 AI 안전에 관한 국제회의에 이어 발표된 것이다. 회의에는 중국 정부 관계자들도 공식 지지의 의미로 참석했다.

학계에서는 세계 양대 기술 강국인 미국과 중국의 정부 관리와 기업들이 AI 안전에 대해 협력할 것을 촉구해왔다.

조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난해 11월에 만나 AI 안전에 대해 논의하고 이 문제에 대한 대화를 시작하기로 합의했다. 전 세계 선도적인 AI 기업 관계자들도 최근 몇 달간 비공개로 중국의 AI 전문가들을 만난 것으로 전해졌다.

회의에 참석한 벤지오는 "이 논의의 핵심은 강력한 AI 시스템이 지켜야 하고 전 세계 정부가 AI 개발 및 배포에 있어 설정해야 할 레드라인에 관한 것이었다"고 말했다.

성명은 이 레드라인이 점점 더 자율화되는 시스템과 관련된 것으로, "어떤 AI 시스템도 인간의 명시적인 승인과 도움 없이 스스로를 모방하거나 개선할 수 없어야 하며, 자신의 힘과 영향력을 부당하게 증가시키기 위한 조치를 취해서도 안 된다"는 내용을 담고 있다.

성명은 또 "어떤 시스템도 대량 살상무기를 설계하거나 생화학무기 협약을 위반하도록 능력을 실질적으로 증가시켜서는 안 되며 심각한 재정적 손실 또는 이에 상응하는 피해를 줄 수 있는 사이버 공격을 자율적으로 실행할 수 있어서는 안 된다"고 덧붙였다.

댓글