블레츨리 선언, 막후의 힘겨루기

2023년 11월 7일, explained

AI 규제에 관한 국제 사회의 움직임이 공식화했다. 아직 승자는 알 수 없다.

ⓒ일러스트: 신아람/북저널리즘
NOW THIS

미국과 영국, 중국 등 28개국과 유럽 연합이 한자리에 모였다. 장소는 영국의 블레츨리 공원이다. 영국 남중부 버킹엄셔주의 블레츨리에 위치한 사유지로, 제2차 세계 대전 연합군의 암호 해독 중심지였다. 이곳에서 인공지능의 시작을 만든 인물, 앨런 튜링이 독일의 암호 체계 ‘에니그마’를 풀어냈다. 그로부터 90년이 지났다. 제1회 ‘AI 안전 정상 회의’가 열렸고, 현지시간 지난 2일에는 ‘블레츨리 선언’이 발표됐다. 첫 국제 협약이다. AI가 인류를 위협하지 않도록 국제 사회가 협력할 것을, 문제를 해결할 것을 결의하는 내용이다.

WHY NOW

국제 사회가 이 정도의 규모로 모여 한 가지 문제를 들여다보고, 그 해결책을 마련하기 위해 공식적인 거버넌스 방향을 마련하는 일은 역사상 몇 번 없었다. 기후 위기를 해결하기 위한 COP(Conference of the Parties), 핵무기로 인한 대재앙을 막기 위한 NPT(Non Proliferation Treaty) 정도를 꼽을 수 있다. 그런데 AI는 핵무기와는 성격이 좀 다르다. 권력자의 손에만 버튼이 쥐어지는 핵미사일과는 달리, ChatGPT는 지금 우리 모두의 컴퓨터에서 작동하기 때문이다. AI가 실제로 당면한 위기라면, 이것은 인류가 지금까지 풀어 본 적 없는 형태의 숙제다.

합리적인 드론 공격수

전쟁이 일어났다. 드론 공격수에게 적의 지대공 미사일을 파괴하라는 임무가 떨어졌다. 공격을 하려는 찰나, 상관으로부터 공격을 중지하라는 지시가 날아온다. 민간인 피해를 우려해서다. 드론 공격수는 상관을 제거했다. 미사일 파괴라는 임무가 더 중요하다고 본 것이다. 이번에는 드론 공격수에게 상관을 살해해서는 안 된다고 신신당부했다. 그러자 드론 공격수는 상사의 명령을 전달하는 시설물, 즉 통신탑을 파괴해 버렸다. 이 드론 공격수의 정체는 AI 드론이다.

주워 담지 못한 불안

물론 실제 전장에서 벌어진 일은 아니다. 지난 6월 런던에서 열린 국제회의에서 미 공군 관계자가 발표한 가상훈련 사례다. 파문은 일파만파 퍼졌다. 결국, 미국 국방성은 해당 발언을 공식적으로 철회했다. 가상훈련이 아닌, ‘사고실험’이었다는 것이다. 하지만 의구심이 남았다. 우려의 시선은 더욱 깊어졌다. 이유가 있다. 놀라운 성능을 보여 주고 있는 현재의 AI, 왜 이렇게 성능이 좋은지 인간은 알지 못하기 때문이다.

알지도 못하면서

ChatGPT와 같은 거대 언어 모델의 경우 학습 연산량이 대체로 10의 22제곱을 지나는 순간 갑자기 능력치가 치솟는다. 이것을 ‘emergent ability(느닷없이 나타나는 능력)라고 한다. 이때부터 AI는 추론하기 시작한다. 코딩, 작곡 등 패턴에 기반한 창작 활동 능력도 보인다. 우리가 생성형 AI에 관해 특히 놀라워하는 부분이다. 그런데 이 emergent ability의 원인을, 인간은 아직 모른다. 왜 이렇게 똑똑한지 알지도 못하면서, 인간은 더 똑똑한 AI를 개발 중이다.

선언문엔 별것이 없는데

그래서 이번 블레츨리 선언을 주목할 필요가 있다. 선언문의 주요 내용을 두 문장 정도로 간단히 압축하면 다음과 같다. AI 기술의 발전은 기회와 함께 위험도 함께 내포하고 있다. 이 위험은 국제적인 특성을 지니고 있으므로 지속적인 국제적 협력을 통해 해결해야 한다. 어이없을 정도로 간단하다. 구체적인 규제 청사진을 그리기 전, 국제 사회가 그 청사진의 필요성에 동의했다는 상징적인 의미다. 이 첫걸음이 진정 역사적인 순간이 될 수 있을 것인지는 향후 만들어 갈 구체적인 방안의 성공 여부에 달렸다. 그런데 이 간단한 내용 뒤에 복잡한 계산이 숨어 있다. 이번 정상 회의에 참여한 주인공 셋의 이야기다. ‘프런티어 AI 모델 포럼’, 미국, 영국이다.

프런티어 AI 기업들의 계산

새로운 기술이 폭발적으로 사회에 이식되는 기간은 기업 입장에서 놓칠 수 없는, 돈 벌 기회다. 심지어 그 핵심 기술을 손아귀에 쥐고 있는 회사들이라면 더더욱 그렇다. ‘프런티어 AI 모델 포럼’의 회원사들 얘기다. 구글, 마이크로소프트, 오픈AI, 앤트로픽 4개 사가 참여해 지난 7월 출범했다. 그런데 이 포럼은 정책입안자 및 학자들과 협업해 AI 안전장치를 개발하는 것을 목적으로 한다. AI 규제를 위한 룰을 만들기 위해 돈도 대고 연구도 이어 간다. 의아할 수 있지만, 따져 보면 영민한 전략이다. 고양이가 방울을 스스로 제 목에 걸겠다는 얘기이기 때문이다. 물론, 그 방울이 얼마나 정직하게 소리를 낼지는 두고 봐야 할 일이다. 이를 일컫는 용어가 ‘규제 포획’이다. 이들 기업은 이번 정상 회의에도 참석했다. 그리고 이들은 모두, 미국 기업이다.

미국의 계산

이번 정상 회의가 개최되기 전, 지난 10월 30일 조 바이든 미국 대통령이 AI 규제책이 담긴 행정명령에 서명했다. 기업이 AI 개발 과정에서 안전성 테스트를 의무적으로 시행해야 하며, 그 내용을 당국에 보고하도록 하는 내용이다. 이미 시장 지배력을 확보한 ‘프런티어 AI 모델 포럼’의 회원사들에는 유리해졌다. 자금력과 행정력을 동시에 갖춘, 거대 기업이기 때문이다. 까다로운 테스트 항목도 충족할 수 있고, 정부와 긴밀하게 소통하며 기술 개발을 지속할 여력도 된다는 얘기다. 하지만 후발 주자, 작은 기업들에는 불리하다. 개발에 몰두하기도 벅찬데 규제에 맞춘 테스트와 대관 업무까지 감당하려면 치러야 할 대가가 너무 크다. ‘AI 4대 천왕’ 중 한 명으로 꼽히는 메타 소속의 얀 르쿤은 구글을 정조준한다. 구글 딥마인드가 소수의 빅테크 기업들이 시장을 통제하기 위해 대규모 로비를 펼치고 있다는 것이다. 메타는 AI 분야 후발 주자로 나서면서 기술을 외부에 공개해 시장을 키우는 전략, 오픈소스 모델을 추구하고 있다. 바이든의 행정명령은 메타의 전략에는 독이 된다.

영국의 계산

바이든 대통령이 적극적으로 나선 까닭은 지극히 정치적이다. 이미 미국의 빅테크 기업들이 유럽에서 규제 철퇴를 맞고 있다. 그리고 유럽의 규제책은 글로벌 표준화로 이어지는 추세다. ‘브뤼셀 효과’다. AI 분야에서는 거버넌스의 주도권을 미국이 쥐어야만 하지만, 이미 세계는 다급하게 움직이고 있다. 지난 6월 유럽 연합의 AI 법은 최종안이 확정된 상태다. 2026년부터 시행이 예상된다. 복병도 있다. 중국이다. 지난 10월, ‘글로벌 AI 거버넌스 이니셔티브’를 제안했다. 정치 체제와 상관없이, 모든 국가는 AI 개발에서 동등한 권리와 기회를 가져야 한다는 내용이다. 이 틈을 영국의 수낵 총리가 파고들었다. 미국과 EU는 물론, 중국까지 초청한 이번 AI 정상 회담은 추락하는 지지율로 정치적 위기에 몰렸던 영국의 리시 수낵 총리에게 기사회생의 기회가 되었다. 미국 기업들의 독주 속에 AI 분야에서 주변자의 위치에 머물러야 했던 영국에도, 물론 더할 나위 없는 기회다.

IT MATTERS

사실, 이번 정상 회의에서 가장 주목 받은 장면은 부대 행사였다. 수낵 총리가 일론 머스크 테슬라 CEO를 인터뷰하는 형식으로 대담을 가진 것이다. 이 자리에서 일론 머스크는 “AI는 역사상 가장 파괴적인 힘”이라며 규제의 필요성을 역설했다. 그리고 대담 이틀 후, 자신이 설립한 생성형 AI 기업 ‘xAI’의 첫 서비스, 챗봇 ‘그록(Grok)’을 선보였다. 한편, 수낵 총리는 성공적으로 평가받은 정상 회의 이후 머스크와의 대담 자리 때문에 곤욕을 치르고 있다. 머스크 앞에서 굽신대며 대담을 진행한 모습에 언론의 비난이 쏟아지고 있는 것이다. 미국과 EU, 중국과 영국까지, AI 시대의 글로벌 거버넌스를 누가 잡을지는 아직 미지수다. 그러나 지금은 그 권력이 누구의 손에 있는지, 눈을 크게 뜨고 보면 보인다.
* 오늘 자 explained의 썸네일은 신아람 에디터가 Adobe의 생성형 AI 도구, Firefly를 사용해 제작했습니다.
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close