지난 5월 21일부터 22일까지 서울에서 개최된 AI 정상회의에는 주요국 정부 담당자, 빅테크 기업 관계자, AI 전문 학자, 시민사회 대표 등이 한자리에 모여 AI의 안전을 도모하는 논의를 진행했다.
서울 AI 정상회의 - 무엇이 성과였나?
이틀간의 행사를 마친 후 합의된 내용이 보도되었으며, 서울 선언문과 부속의향서가 발표되었다. 서울 선언문과 부속의향서에는 프론티어 AI 안전 서약, AI 안전·혁신·포용성 향상을 위한 국제협력 촉구와 AI 정책 및 거버넌스 체계 지지, AI 거버넌스 관련 대화에 폭넓은 국제 이해관계자 포함, UN·OECD·G7·G20 등 국제기관과의 AI 거버넌스 협력 강화 등의 내용이 담겨 있다. 또한 AI 안전 연구소 및 네트워크 설립과 확장, 과학적 조사를 통해 AI의 위험을 이해, 안전조치 마련을 위한 공유 자원 구축 및 공동 연구 수행, 국제 표준 개발 등에 대한 계획도 명시되어 있다.
특히 프론티어 AI 안전서약에는 16개 기업이 자발적으로 참여하여, 프론티어 모델 개발 및 배포에 동참하고 차기 프랑스 회의에서 안전 프레임워크를 발표할 것을 약속했다. 그리고 정상회의 이틀째에는 별도로 AI 비즈니스 회의가 주최되었으며, 14개 기업이 '서울 AI 비즈니스 서약'에 서명했다[1]. 서울 AI 비즈니스 서약에서는 AI 개발을 위한 견고한 내부 거버넌스와 위험 관리 정책 마련을 약속했다. 이는 취약성과 위험 식별 및 평가, 내부 평가 결과의 AI 모델 생애 주기 통합, 필요 시 AI 안전 연구소 등 정부 기관의 외부 평가 결과 고려, AI 안전 사고 모니터링 및 대응 등을 포함한다. 아울러 AI 안전 연구소 네트워크, 정책 입안자, 국제 기구, 민간 기업, 학계, 시민 사회 등 AI 참여자 간의 협력 강화도 약속했다.
프랑스 AI 행동 정상회의 - 무엇이 논의될까?
1, 2차 영국 블레츨리 파크와 서울의 정상회의에 이어 3차 정상회의는 2025년 2월 파리에서 개최될 예정이다. 1차 회의는 'AI 안전 정상회의', 2차 회의는 'AI 회의'로 명명되었던 반면, 3차 회의에서는 "안전"이라는 키워드 대신 "행동"이 강조되었다. 1차 회의는 AI가 초래할 수 있는 "안전" 이슈를 최초로 국가 정상 의제로 다루며 주요국이 협력한 자리였다면, 2차 서울회의는 안전 범위 내에서 실행 가능한 범위를 좁힌 회의였다고 볼 수 있다. 파리에서는 안전을 넘어 AI가 가져올 혁신과 공공 이익 등 더 광범위한 주제를 논의할 계획이다. 의제로는 AI 안전, 혁신, 공공 이익을 위한 AI, 일자리의 미래, AI 국제 거버넌스 등 다섯 가지가 예정되어 있다. 프랑스는 통합성을 강조하며 혁신가, NGO, 개발도상국 연합 등 다양한 이해관계자를 포함시키고자 한다. 이는 AI 개발이 기업, 국가, 지역 간 권력 경쟁으로 치닫는 현실을 주목하고, 이를 민주적으로 통제하기 위해 다양한 참여가 필요하다는 인식에 기반한다.
AI 정상회의 참가자들의 회고
영국은 AI 정상회의를 처음 제안하고 1회 행사를 주최한 국가로서, 이번 서울 행사에도 주요 인사들을 파견했다. 영국 런던에서는 이전 행사 참여자들과 차기 주최국인 프랑스의 디지털 업무 대사 앙리 베르디에를 초청하여, 서울 AI 정상회의의 내용을 공유하고 성과, 아쉬웠던 점, 그리고 다음 행사에 대한 기대 사항을 논의하는 회고 자리를 마련되었다. 이 행사는 지난 6월 5일 런던 브리티쉬 도서관에서 대중에게 공개되었다. 행사는 두 세션으로 진행되었으며, 마지막 20분 동안은 2025년 2월 다음 AI 정상회의를 주최할 프랑스의 대표자가 참석하여 계획을 발표했다. 이번 회고 자리는 AI Fringe [2] 행사의 일환으로 마련되었다. 이 글에서는 이날 논의된 주요 쟁점과 행사 분위기를 전달하고자 한다.
제 1 부 : AI 안전의 현재 상황 - 우리는 현재 어디에 있고, 어디로 가야하는가?
1부 행사는 AI 안전의 현재 상황과 나아가야 할 방향에 대해 논의했다. 이 세션은 폴리티코(Politico)의 기술 분야 선임기자인 빈센트 마나코트가 좌장을 맡았으며, 구글 딥마인드(Google DeepMind)의 영국 공공정책 매니저 샘 페팃, 코히어(Cohere)의 안전팀 팀장 세라피나 골드팹-태런트, 에이더 러브리스 연구소(Ada Lovelace Institute)의 디렉터 프랜 베넷, KIRA Center의 대표이자 "과학의 현주소(The State of Science)" 보고서의 주저자인 다니엘 프리비테라가 토론자로 참석했다. 이들은 지난 2회의 AI 정상회의 성과와 부족했던 점, 그리고 오는 11월 파리에서 열릴 차기 회의에 대한 기대 사항 등을 논의했다. 토론자들은 각각 빅테크 기업, AI 스타트업, AI 윤리 및 안전 정책 전문 비영리 연구소 등 다양한 배경을 가진 전문가들로 구성되었다.
기업의 AI 안전조치 - 자율적 조치로 충분한가?
서울 AI 정상회담에서는 기업들의 자발적인 AI 안전 서약과 서울 AI 비즈니스 서약에 참여와 승인이 과연 AI 안전 유지에 충분한지에 대한 질문이 제기되었다. 에이더 러브리스 연구소의 프랜 베넷은 안전 조치 이행을 위해서는 법적 규제만으로는 부족하며, 규제 당국의 엄격한 감독과 중소기업 및 스타트업의 법 준수를 위한 지원 등에 대한 계획, 예산, 인력 충원이 필요하다고 지적했다. 유럽에서는 인공지능법이 이미 발효된 만큼, 이제는 어떤 법조항을 만들 것인가보다 만들어진 법조항을 어떻게 이행할 수 있는 생태계를 조성할 것인가에 대한 논의와 대책이 필요하다고 강조했다.
AI 기업을 대표해서 참석한 딥마인드의 샘 페팃과 코히어의 세라피나 골드팹-태런트는 안전조치의 법적 의무화가 기술 개발 혁신에 반한다는 기존의 기업 태도와 달리, 의무화가 오히려 기업에 도움이 될 수 있다는 입장을 보였다. AI 경쟁이 치열해지면서 기업들이 빠른 속도로 새로운 모델을 배포하고 있는 상황에서, 법적 의무 조항이 없다면 기업은 한정된 자원을 안전 조치보다는 모델 성능 향상에 집중하게 될 것이기 때문에, 글로벌 생태계에서 모두가 필요한 안전 조치를 강제로라도 이행하도록 해야 한다는 것이다. 또한, 프론티어 AI 안전 약속에 서명한 기업들은 안전 조치 마련에는 동의하지만 "어떻게"에 대해서는 의견이 다르며, 서약 내용이 모호한 원칙적 수준이기 때문에 서명했다는 의견도 있었다.
토론자들은 지금까지의 진전은 좋은 출발점이지만, 다음 프랑스 회의에서 발표 예정인 모두가 동의할 수 있는 프론티어 안전 프레임워크가 중요한 진전이 될 것이며, 이를 각국에서 의무화하는 법안으로 만들 수 있을지는 지켜봐야 할 문제라고 보았다. 과도한 규제를 피하기 위해서는 "안전"과 "위험"의 개념을 기술 발전 속도에 맞춰 유연하게 변화시키면서 의무화 사항을 정의해 나가야 하며, 참여국 모두가 동의하는 표준 평가 벤치마킹 테스트 개발 등 정상회의 간 실질적인 후속 조치를 우선순위에 두어야 한다는 입장을 표명했다
AI 정상회의 - 실제 어떤 성과를 낼 수 있을까?
영국 정부 주도로 만들어진 AI 정상회의는 AI 산업 주도권에서 뒤처진 영국이 이를 따라잡기 위한 전략적, 정치적 의제로 "안전" 정상회의를 출범시킨 것이다. 과연 AI 개발 주요국 정부와 정상이 모두 참여하는 이 회의가 10년 후에 실질적인 성과를 낼 수 있을지에 대해 참가자들의 의견이 나누어졌다.
에이더 러브리스 연구소의 프랜 베넷은 AI 안전과 위험에 관한 담론이 장기적 의제에서 현재 일어나고 있는 다양한 위험과 안전 조치에 관한 실질적 담론으로 이동한 점에서 회의의 출발은 유용했다고 평가했다. 다만, AI가 모든 문제를 해결할 수 없으며, 사회와 사람들이 이 기술을 통해 무엇을 원하는지, 그리고 그것을 어떻게 실현할 수 있는지와 같은 폭넓고 중요한 의제에 대한 성숙한 대화는 여전히 부족하다고 지적했다.
"과학의 현주소" 보고서의 리딩 저자인 다니엘 프리비테라는 전 세계 75명의 전문가가 모여 AI 개발에서 확실한 것과 불확실한 것을 명시한 점이 성과라고 평가했다. 그는 정책 입안자들이 가장 알고 싶어 하는 것이 무엇이 확실하고 불확실한 것인지라는 점을 강조하며, 이러한 회의를 통해 지속적으로 기술 발전 보고서가 출간된다면 큰 도움이 될 것이라고 덧붙였다.
딥마인드의 샘 페팃은 보고서에 오픈 질문이 많다는 지적에 대해, 오히려 그것이 바른 접근법이며 무엇이 확실하고 불확실한지를 아는 것이 가장 중요하다고 강조했다. 특히 AI 개발의 확장 법칙이 어떻게 유지되고 있는지, 그리고 이에 대한 정기적 평가를 제공하는 것이 입법을 시도하는 각 정부에게 매우 귀중한 자료가 될 것이라고 언급했다. 또한, 정상회의 시작과 함께 영국이 주도한 국가별 AI 안전 연구소 설립과 이들 연구소의 네트워크가 국제적인 실질적 협력의 모멘텀을 만들었다는 평가도 있었다. 정상회의라는 성격이 회의 간 기간에도 많은 진전을 위한 강제 함수 역할을 하고 있다는 의견이 제시되었다. AI 안전이라는 중요한 의제를 기업의 책무로만 남겨두지 않고, 정부가 나서서 역량을 키우기로 한 것은 매우 중요하며, 정부가 전문성을 갖고 방향을 함께 제시할 때 기업과의 파트너십이 유용하고 중요해질 것이라는 견해가 나왔다. 정부도 이런 역량을 갖추기 위해 AI의 훌륭한 인재를 직접 영입하는 것에 노력을 기울이고, 영국은 우선적으로 AI 안전 연구소에서 그런 일을 해냈다는 것에 대해서 현재 AI Office를 출범하는 EU를 포함한 다른 정부들도 이를 배울 것이라는 의견이었다. 1차 블레츨리 회담이 좋은 출발점이었다면, 2차 서울회의에서는 현재 AI 모델이 세계에 배포될 때 발생할 수 있는 일과 모델 모니터링 방안, 포용성에 대한 논의가 시작되었다는 평가도 있었다.
코히어는 기업 개별적으로 판단할 수 없는 적절한 "의무적" 안전조치 수준을 기업만큼 전문 역량을 갖춘 정부에서 정의해주기를 바라고 있었다. 기업 차원에서 한 번의 테스트로 안전 무결성을 증명하는 것은 잘못된 안전 의식일 뿐, 실제로는 안전 평가가 지속적인 과정이 되어야 한다는 것이다. 기업도 사전 배포 테스트를 하지만 모든 것을 테스트할 수 없기에, 정부 차원의 추가 테스트가 유의미할 수 있다. 이는 기업 모델의 엔지니어링 권한을 정부와 공유해야 한다는 것을 의미하며, 기업이 이를 가치 있다고 판단할 때만 가능하다. 따라서 정상회의를 통해 주요 기업이 모두 참여한 자리에서 각 회사들의 우려 사항, 중요 사안, 유용한 사전 배포 테스트 유형 등을 논의하는 것이 중요하며, 이런 관점에서 기업에 참여 인센티브를 제공하는 것이 필요하다는 의견이 제시되었다.
에이더 러브리스 연구소의 프랜 베넷은 이번 정상회의가 글로벌 안전 이슈를 함께 다루는 데는 성공했으나, 시민사회의 목소리가 충분히 반영되지 못했다는 점을 지적했다. 2차 서울회의에서는 1차 회의에 비해 시민사회 참여율이 저조했는데, 1차 회의에는 영국과 미국에서 상당수의 시민사회 대표가 참여했었다. 정부는 지리적, 정치적 문제에, 기업은 기술 구축과 안전한 배포 방법에 관심을 갖고 있어 매우 제한된 관점만 유지하고 있다. 따라서 기술에 영향을 받는 사람들 또는 그들을 대표하는 이들이 대화에 참여하여 그들의 관점을 반영하는 것이 매우 중요함에도 불구하고, 이는 충분히 이루어지지 않았다는 것이 프랜 베넷의 평가였다.
두 차례의 AI 정상회의 - 부족했던 점과 다음 파리의 정상회의에 바라는 것?
두 차례의 AI 정상회의를 마친 후, 이 회의가 정례화된다면 어떤 작업이 필요할 것인지에 대해 참가자들은 다음과 같은 의견을 제시했다. 딥마인드의 샘 페팃은 의제별 워킹그룹을 만들어 회의 사이 기간 동안 실질적인 진전을 공동으로 만들어가는 것이 중요하다고 강조했다. 작업 그룹은 명확한 범위 설정과 집중이 필요하며, 프론티어 모델 개발사로서 딥마인드는 프론티어 안전 전용 포럼을 지속적으로 개최하면서 OECD, G7,G20, UN 등 다른 국제 포럼에서 놓치고 있는 부분을 보완해 나가기를 희망했다.
다니엘 프리비테라는 각국의 정책 입안자들이 새롭게 등장하는 다양한 국제 포럼에서 합의점을 찾고 눈높이를 맞추는 데 어려움을 겪고 있다고 지적했다. 이에 AI 정상회의에서는 실질적인 국가 간 협력을 위한 경로를 찾는 것이 중요하며, 이를 위해서는 공통된 이해가 선행되어야 한다고 강조했다. 따라서 각국 전문가들이 참여하여 과학적 보고서를 작성하는 등의 부수적인 작업이 필요하다고 제안했다.
코히어의 입장에서는 AI 개발과 적용이 다학제적 공간을 요구하기 때문에 AI 전문 기업이 정상회의에 관심을 가져야 한다고 주장했다. AI 안전 전문가로서 모델의 가중치에 대해서는 잘 알지만, 실제 세계의 위협 행위자들의 동향이나 모델에 영향을 받는 소외된 커뮤니티에 대해서는 정부, 사회과학자, 시민사회의 전문 지식이 필요하다는 것이다. 따라서 다학제 간 대화를 확장하여 전문 지식을 공유하고 협업하는 방식이 모델 개발에만 집중하는 것보다 훨씬 가치 있다고 강조했다. 또한 현재 AI 모델을 평가하는 과학이 발전되지 못해 정확한 안전 조치에 대한 약속을 하기 어렵다는 점을 지적하며, 위험 수준을 측정하고 평가할 수 있는 과학적 기반이 필요하다고 덧붙였다. 특히 세라피나 골드팹-태런트 안점팀장은 AI 모델이 개발 단계에서 실제 사용 및 배포 단계로 넘어갈 때 많은 변화가 발생하는데, 이러한 차이가 미치는 영향에 대한 과학적 연구가 부족하다는 점을 지적했다. 현재 AI 모델의 가능한 행동 범위가 매우 광범위하기 때문에 구체적인 안전 조치를 설정하는 것이 어렵다는 의견을 제시했다. 이는 AI 모델의 개발과 실제 적용 간의 격차를 줄이고, 모델의 행동 범위를 보다 명확히 이해하기 위한 추가적인 연구가 필요함을 시사한다.
에이더 러브리스 연구소의 프랜 베넷은 다음 프랑스 회의에서 안전 외에도 다섯 개의 주제로 영역을 넓혀 의견을 교환하는 것은 좋은 방향이라고 평가했다. AI 개발과 안전의 다학제적 성격에 주목하여 보다 많은 다양한 영역의 전문가들이 참여하는 방향으로 발전하는 것이 이상적일 것이라고 제안했다.
제 2 부 : AI 개발과 적용 - 직면하고 있는 도전은?
두 번째 세션에서는 AI 정상회의에 대한 간단한 총평 이외에도 현재 AI 개발과 적용에서 우리가 직면하고 있는 도전과제들이 논의되었다. 이 세션은 디지털 기술 전문 잡지인 와이어드(Wired UK)의 글로벌 편집 부디렉터인 그레그 윌리엄스가 좌장을 맡았으며, 영국 자유민주당 소속 상원의원인 팀 클레멘트-존스, 영국 씽크탱크 데모스(Demos)의 대표인 폴리 커티스, 영국 오픈데이터 전문 씽크탱크인 ODI(Open Data Institute)의 정책팀 글로벌 책임자인 르샴 코테차, 그리고 캠브리지 대학교 기술과 민주주의를 위한 민데르 센터의 센터장인 지나 네프 교수가 토론자로 참석하였다.
이 두 번째 세션에서 AI 정상회의와 관련하여 제기된 주요 의견들을 살펴보면, 팀 클레멘트-존스 상원의원은 AI 정상회의에서 안전 측면을 넘어 국제적 융합에 필요한 모든 부분을 다뤄야 한다고 강조하였다. 특히 미국과 EU의 위험 평가 프레임워크를 융합하고, 테스트, 교육, 감사, 모니터링 등의 표준 통합을 추진해야 할 것을 주문하였다. 또한, 한국 정상회의에서 한국 정부와 OECD가 함께 발표한 디지털 권리 장전처럼, 권리 기반 규제가 필요하며 인공지능이 개인에게 미치는 영향을 살펴보는 것이 매우 중요하다고 언급하였다. 한편, 시민사회의 참여와 권한 부여가 중요하며, 그들이 직면한 위험과 도전과제가 의제로 다뤄져야 한다는 점도 강조하였다. 아울러 데이터 품질, 편향성, 설명가능성, 책임성 등의 이슈도 논의되어야 한다고 지적하였다.
ODI의 정책팀 글로벌 책임자인 르샴 코테차는 정상회의에서 부족했던 점 두 가지를 다음과 같이 강조하였다. 첫째, 커뮤니티와 시민사회를 포함하고 권한을 부여하는 논의가 필요하다는 점이다. 이들이 직면한 해악, 위험, 도전과제를 의제로 올려 국제적 해결책을 모색해야 한다고 주장하였다. 두 번의 정상회의에서는 시민사회 단체들이 충분히 참석하지 못했다는 점을 지적하였다. 둘째, 데이터 이슈가 의제에 포함되어야 한다는 점이다. 데이터 품질 확인, 보증, 표준, 설명가능성, 책임성, 편향성 해결, 구제 방안 등에 대한 질문이 중요하다고 강조하였다. 그럼에도 불구하고, 영국법과 여러 관할구역의 법률에는 이러한 내용이 부재하여, 자원이 부족한 피해자들이 구제받기 어렵다는 점을 지적하였다. 따라서 연구와 학계에 개방하여 해악을 신속히 해결할 수 있도록 해야 하며, 이런 것들도 중요하게 정상회의 의제로 다루어져야 한다고 제안하였다.
덧붙여 현재 시민사회가 직면한 어려움을 다음과 같이 이야기하였다. 시민사회는 정부 지원은 줄어들고 있는 반면, 데이터와 AI에 관한 협의는 매우 빈번하게 이루어지고 있는 상황에서 우선순위를 정해야 하는 어려운 선택에 직면하고 있다는 점을 강조하였다. 의회에 의견을 제출할 때, 시민단체는 빅테크 기업의 큰 팀과 경쟁해야 하지만 인력은 매우 부족한 상황이라고 지적하였다. 강하고 신뢰받는 독립 단체들에 대한 지원이 필요하며, 이를 통해 더 강한 생태계를 구축하고 커뮤니티를 진정으로 대표할 수 있을 것이라는 의견을 피력하였다.
데모스의 폴리 커티스는 글로벌 차원에서 AI 문제를 조율할 때, 우리가 지향하는 가치에 대해 생각해봐야 한다는 점을 강조하였다. 인공지능으로 인해 자유 민주주의가 약화되는 상황에서, 입법의 목적과 자유 민주주의의 이상적인 모습에 대한 높은 수준의 원칙에 동의해야 한다고 주장하였다. 이를 위해 정상회담에 앞서 글로벌 시민 총회를 열어, 사람들의 생각을 고려하고 오늘 논의된 주제들과 관련된 높은 수준의 아이디어들을 연결하는 것이 중요하다고 제안하였다.
또한, 영국의 우체국 사건[3]이 AI에 대한 대중의 인식에 큰 영향을 미쳤다는 점을 언급하며, 이를 통해 배운 것은 너무 많은 결정이 소수의 사람들에 의해서 작은 공간에서 이루어진다는 것이라고 지적하였다. 가장 중요한 것은 시민들을 대화에 참여시키고 개방적이고 투명한 소통을 통해 신뢰를 구축하는 것이라고 강조하였다. 또한, 뉴스 산업에서는 AI 회사와의 거래를 서두르고 있지만, 이는 미디어 비즈니스만 생각할 뿐 이 과정에서 AI의 긍정적 잠재력을 활용하여 건강한 민주주의를 지원하고 좋은 정보를 전달할 기회를 놓치고 있다고 지적하였다. 마지막으로, 다학제적인 AI 개발과 적용에 협업을 위한 문화, 인프라, 언어에 투자하고 올바른 인센티브 시스템을 구축하는 것이 중요하며, AI와 관련된 대화에서 서로 다른 주제를 다루는 경우가 많아 이를 통합할 수 있는 능력이 필요하다고 강조하였다.
마지막으로 캠브리지 대학의 지나 네프 교수는 지난 12개월 동안 노조, 산업계, 시민사회, 학계 등 다양한 이해관계자들과 함께 데이터 사용에 대한 의견을 수렴했다고 밝혔다. 영국 정부는 AI 규제에 대해 기존 규제로 충분하다는 입장이지만, 영국 고용법에서 AI와 관련된 권리가 명확히 규정되어 있지 않다는 점을 지적하였다. 인간 검토를 받을 권리, 데이터 접근권, 설명을 받을 권리 등이 부재하며, AI에 대한 정의조차 없는 상황임을 강조하였다. 또한, 사회-기술적 평가를 잘 수행하기 위한 작업이 필요하며, 일자리, 시민, 공공 서비스, 삶, 생산성에 미치는 영향을 평가할 수 있는 모범사례와 도구 개발이 중요하다고 강조하였다. AI가 모든 문제를 해결해 줄 것이라는 과장된 이야기가 있지만, 간단히 해결되지 않을 것이며, AI 시스템에서의 차별 방지와 새로운 규제 마련을 위해 법률 분석이 필요하다고 언급하였다. 장기적으로는 AI에 대한 논의에 더 많은 공공 시민의 목소리가 반영되어야 하며, 프랑스 정상회담에서는 전 세계의 목소리를 반영하여 실제 문제 해결을 위한 진지한 대화가 이루어지기를 바란다고 밝혔다.
글을 마무리하며
행사의 목적은 AI 정상회의의 회고였지만, 참석자들은 두 세션을 통해 영국과 글로벌 사회가 인공지능 개발과 적용에 직면한 도전과 향후 AI 정상회의를 통해 이를 해결하는 방안에 대해 진지한 토론을 이끌었다. 모든 참석자가 반복적으로 강조한 주요 사항은 다음과 같다:
1) 인공지능 안전을 위한 개발주체의 조치는 글로벌 커뮤니티가 동의하는 의무사항이 되어야 한다.
2) 보다 광범위하고 활발한 시민사회의 참여가 필요하다.
3) 단순히 안전, 혁신이라는 개념보다는 인공지능을 통해 글로벌 사회가 이루고자 하는 바를 찾는 것이 중요하다.
4) 상위 원칙과 더불어 실질적인 방안이 필요하다. 예를 들어, 과학발달 수준 파악, 시민 권리 중심의 표준안 마련, 피해와 위험을 평가할 수 있는 도구 개발 등이 있다.
5) 다학제적인 AI 개발과 활용을 고려하여 전문가와 일반시민이 소통하는 자리와 방안이 필요하다.
필자가 이번 행사에 직접 참여하면서 느낀 점은 영국 사회에서 인공지능 활용, 정부 규제안 적용, 시민사회의 인권 피해 사례 등에 대해 다양한 분야의 사람들이 뜨거운 관심과 의견을 내고 있다는 것이었다. 청중들은 각자의 분야에서 이미 많은 경험을 하고 무엇이 필요한지에 대한 의견을 다양하게 피력했다. EU와 영국 정부가 서둘러 규제안을 발표하고 있어 이행시 어려운 점, 현 법령에서 안전과 윤리를 지키는데 부족한 점에 대한 목소리가 많았다. 또한, 활발한 시민사회와 학계의 목소리, 기업들이 이들을 동등한 파트너로 인식하고 함께 작업하려는 접근법도 인상적이었다. 국내에도 다양한 영역의 인공지능 경험자와 전문가가 만나 의견을 정기적으로 나누는 자리가 활발해지기를 바란다. 국내 인공지능 관련 토론은 대부분 전문가와 기업의 목소리뿐인데, AI의 개발과 적용이 다학제적 성격을 보이는 만큼 더 많은 의견 소통이 필요하다.
Note
[1] '“프론티어 안전 서약”은 정상회의 개최 전날 이미 16개 기업이 사인한 것을 발표하였고, 정상회의 기간에 “서울 AI 비즈니스 서약”을 다시 만들어 14개 기업이 사인한 것이 발표되었다. 두 서약에 사인한 기업은 중복된 기업도 있고, 각각의 서약에만 사인한 기업도 있다.
[2] 영국에서는 대규모 국제 행사가 열릴 때, 초대받지 못한 주제 전문가들이 메인 행사와 병행하여 Fringe 행사를 개최한다. 에딘버러 국제 페스티벌과 함께 진행되는 에딘버러 프린지 페스티벌이 대표적인 예로, 신인 예술가들의 등용문이 되고 있다. Fringe는 권위적인 메인 행사에서 놓치는 주제로 현장 전문가들이 의미 있는 토론과 메시지를 전달하는 행사를 뜻한다.
[3] 영국 우체국 사건은 2000년대 초반부터 2010년대 후반까지 영국 우체국에서 발생한 중대한 오심 사건. 이 사건의 핵심은 우체국의 IT 시스템인 Horizon에 결함이 있었음에도 불구하고, 우체국 직원들이 부정행위를 저질렀다는 혐의로 부당하게 기소되고 처벌받았다는 것. 이 사건은 IT 시스템의 오류와 조직의 불공정한 대응, 그리고 사법 체계의 실패가 결합되어 발생한 중대한 오심 사건으로 기록되었으며, 영국 사회에 큰 충격을 주었다.