전세계 AI 기업들이 서울에 모여 AI 안전을 논의하다

AI Seoul Summit에서는 무슨 논의가 있었나
AI
Responsible AI
AI summit
Author

chichead

Published

May 26, 2024

AI Seoul Summit

AI_Seoul_Summit

AI_Seoul_Summit
  • G7 정상들과 16개 글로벌 AI 기업이 서울에서 AI 안전에 대해 논의했습니다

    5월 21일부터 22일까지 양일 동안 대한민국 서울에서 ’AI 서울 정상회의(AI seoul summit)’과 ’AI 글로벌 포럼(AI global forum)’이 개최됐습니다. 이번 AI 서울 정상회의는 작년 11월 영국에서 개최된 제1차 ’AI 안전성 정상회의’의 후속 회의입니다. 이번 회의에는 G7(미국, 영국, 프랑스, 독일, 이탈리아, 캐나다, 일본) 정상을 비롯해 싱가포르 정상과 16개 AI 기업들이 참여해 글로벌 AI 안전성 강화를 위한 논의를 이어갔습니다.

  • AI 서울 정상회의에서 각국 정상들은 책임 있는 AI 개발을 약속했습니다.

    AI 서울 정상회의는 정상 세션과 장관 세션, 이렇게 두 세션으로 나뉘어 진행되었습니다. 먼저 정상 세션은 대한민국 윤석열 대통령과 영국 리시 수낵 총리가 공동으로 주최했습니다. 세션에 참여한 각국 정상들은 서울 선언서울 의향서를 채택했습니다. 정상 세션에 이어 장관 세션에서는 28개국 장관들이 참여한 서울 장관 성명이 채택됐습니다. AI 서울 정상회의에 참여한 16개 기업들은 프런티어 AI 안전 서약에 참여했습니다.

    서울 선언에서는 AI 거버넌스의 3대 우선 목표로 안전·혁신·포용을 제시했고, 각국의 AI 안전연구소 간 네트워크를 조성해 협력을 다짐하는 내용을 골자로 했습니다. 서울 선언의 부속서인 서울 의향서에는 AI 안전연구소 간 네트워크를 구축하는 등의 세부 사항이 담겼습니다. 16개 기업들이 참여한 프런티어 AI 안전 서약에는 책임 있는 AI 개발을 약속하는 내용이 담겼습니다.


프런티어 AI 안전 서약

  • 서약에 참여한 16개 기업들은 다음 협의까지 자체적으로 엄격한 AI 안전 관리 체계를 갖추어 발표할 예정입니다.

    이번 프런티어 AI 안전 서약에는 미국 9개 기업(Amazon, Anthropic, Google, IBM, Meta, Microsoft, OpenAI, Inflection AI, xAI), 아랍에미리트 2개 기업(G42, Technology Innovation Institute), 한국 2개 기업(네이버, 삼성전자), 캐나다 1개 기업(Cohere), 유럽 1개 기업(Mistral AI), 중국 1개 기업(Zhipu.ai)이 참여했습니다. 북미뿐 아니라 아시아와 유럽, 중동에 걸쳐서 AI 안전성에 대해 약속한 건 이번이 처음입니다.

  • 서약의 핵심 목표는 세 가지입니다.

    프런티어 AI 안전 협약에 참여한 기업들은 프런티어 AI 모델의 개발을 책임감 있게 수행할 것을 약속했습니다. 이번 협약의 주요 목표는 참여 기업들이 아래 세 가지 핵심 사항을 달성하는 겁니다.

    1. 기업들은 프런티어 AI 모델과 시스템을 개발, 배포할 때 위험을 식별하고 평가하고 관리해야 합니다.

    2. 기업들은 프런티어 AI 모델과 시스템을 안전하게 개발하고 배포하는 데 책임을 저야 합니다.

    3. 기업들의 프런티어 AI 안전 접근법은 외부 이해관계자, 정부 등을 포함하해 외부 기관에 투명하게 공개되어야 합니다.

  • 프런티어 AI 모델은 다양한 작업을 수행할 수 있는 가장 진보된 고도의 범용 AI 모델입니다.

    프런티어 AI 모델은 영국에서 개최된 1차 AI 안전 서밋을 앞두고 발표된 개념입니다. 영국 정부는 프런티어 모델을 다양한 작업을 수행할 수 있는 가장 진보된 고도의 범용 AI 모델로 정의했죠. 정의된 문장만 살펴보면 다양한 작업과 범용 AI 모델이라는 점에서는 파운데이션 AI 모델과 유사해 보입니다. 프런티어 AI 모델은 범용을 뛰어넘어 혁신적이고 고도의 지능을 가진 모델을 의미합니다. 그렇기에 파운데이션 AI 모델보다 더 높은 위험성과 복잡성을 갖고 있습니다. 프런티어 AI 안전 협약에 참여한 16개 기업은 위험성이 있는 AI 모델을 관리하기 위한 엄격한 체계를 갖출 계획입니다.


관심 식은 AI 안전?

  • 작년 영국의 첫 회의때와 비교하면 서울에서 열린 두 번째 회의는 차이가 납니다.

    이번 2차 회의에서 특별히 지난 회의 때보다 진일보된 협의 내용이 나왔다고 보긴 어려워 보입니다. 물론 AI 거버넌스를 안전에서 안전을 포함해 혁신과 포용까지 3대 목표로 확장했지만요. 1차 회의 때 언급된 국제 AI 안전 연구원의 설립을 발전시켜 이번 2차 회의에선 각 국의 AI 안전 연구원을 네트워킹 하겠다는 정도입니다.

  • 지난해 블래츨리 선언에는 미국, 중국, EU를 포함해 28개국 이상의 국가가 참석했습니다.

    블래츨리 선언에 함께한 국가는 다음과 같습니다. 호주, 브라질, 캐나다, 칠레, 중국, EU, 프랑스, 독일, 인도, 인도네시아, 아일랜드, 이스라엘, 이탈리아, 일본, 케냐, 사우디아라비아, 네덜란드, 나이지리아, 필리핀, 대한민국, 르완다, 싱가포르, 스페인, 스위스, 튀르키예, 우크라이나, 아랍에미리트, 영국, 미국 등 28개국이 넘죠. 하지만 이번엔 어땠을까요? 일부 국가단에서는 대표단 파견하지 않았고, 호주, 캐나다, EU, 프랑스, 독일, 이탈리아, 일본, 대한민국, 싱가포르, 영국, 미국으로 그 규모가 확 줄어들었습니다.

  • 이번 서울 회의에서는 대다수의 글로벌 기업들이 원격 화상으로 참석했습니다.

    영국의 회의에선 xAI의 일론 머스크, OpenAI의 샘 알트먼, MS의 브래드 스미스 회장, 구글 딥마인드의 데미스 허사비스 등이 직접 참석했습니다. 하지만 이번 서울의 AI 안전 회의에선 화상을 통해 참석했죠. 일부 전문가들은 각 정부와 기업들의 참석률이 현저히 떨어진 것을 두고 AI 안전과 책임 있는 AI에 대한 관심이 벌써부터 떨어진 것 아니냐는 비판을 하기도 했습니다.

    대통령실 자료

    대통령실 자료
  • 그래도 프런티어 AI 안전 서약을 통해 합의점을 남겼다는 점은 의미가 있습니다.

    서약에 참여한 16개 기업은 일종의 안전 프레임워크를 다음 3차 회의에서 발표할 예정입니다. 참고로 AI 안전 회의는 반년 정도의 간격을 두고 개최될 예정인데, 3차 회의는 2025년 프랑스 파리에서 열릴 예정입니다. 기업들은 절대 넘지 말아야 할 일종의 AI 버전 ’레드 라인’을 세울 것을 동의했습니다. 기업들이 발표할 안전 프레임워크에는 AI의 임계점이 포함되어야 합니다. 또 AI의 위험 기준치를 설정해 수위가 높다고 판단하면 중단할 수 있는 ’킬 스위치’도 구현할 계획입니다.