10월 16일 경기연구원, 지구와사람, 에너지전환포럼, 사단법인 선, 한국스탠포드센터가 공동으로 주최한 2024 기후변화 콜로키움이 경리단 지구와사람 공간에서 열렸다.
올해 콜로키움에서는 기후위기와 인공지능(AI) 발전이라는 두 가지 거대한 흐름을 통합적으로 이해하는 새로운 가치와 아젠다를 모색하고자 했다. 특히 국내에 번역되어 큰 화제가 된 『그린 리바이어던(Green Leviathan or the Poetics of Political Liberty)』의 저자이자 세계적인 기술철학자인 마크 코겔버그(Mark Coeckelberg) 교수를 초청하여, 자유 개념의 전환을 통해 오늘날 자유주의 민주주의의 한계와 기술주의적 환상을 넘어 인간과 비인간이 공존하는 공동체를 상상할 수 있는 기회를 제공하고자 했다.
마크 코겔버그 교수는 벨기에 출신의 기술철학자로, 인공지능과 로봇 분야에서 기술과 윤리를 중점적으로 탐구하며, 다양한 기구에서 정책 자문에 참여하고 있다. 『뉴 로맨틱 사이보그』, 『AI 윤리학』, 『그린 리바이어던』, 『인공지능은 왜 정치적일 수밖에 없는가』, 『알고리즘에 갇힌 자기 계발』 등 다수의 저서를 통해 국내에도 널리 알려져 있다.
콜로키움은 지구와사람의 바이오크라시연구회 회장인 경희대학교 안병진 교수의 사회로 마크 코켈버그 교수의 강연과 패널 라운드테이블, 그리고 일반 참여자들의 질의응답 순으로 진행되었다.
강연에서 코켈버그 교수는 기후위기 속에서 극단적 자유주의와 극단적 권위주의라는 양극단 사이에서 제3의 길로서 '적극적인 자유'를 기반으로 새로운 정치 체제를 모색해야 하며, AI가 이를 위한 중요한 수단이 될 수 있다고 주장했다. 그의 저서 〈그린 리바이어던〉의 원제인 "Green Leviathan or the Poetics of Political Liberty"에서 엿볼 수 있듯, 코켈버그 교수는 새로운 자유와 정치 체제를 만들어나가는 '과정' 자체를 강조하며, 이러한 과정을 통해 우리 사회의 주요 논점들이 정치와 미래를 반영하게 될 것이라고 전망했다. 이어진 패널 토론과 질의응답 시간에는 AI 기술의 윤리적 딜레마, '적극적인 자유'의 개념, 새로운 정치 체제의 구체적인 모습, 미래 사회에서 인간과 비인간 존재의 공존 방식 등 다층적인 논의가 보다 심도있게 다루어졌다.
이하, 강연과 토론을 정리해보았다.
강연
마크 코켈버그 교수는 "자유"라는 키워드를 중심으로 기후위기와 인공지능(AI)이라는 두 거대 담론을 엮어내는 질문들을 던졌다. 그는 단순히 기술적인 해결책이나 윤리적 당위성을 논하는 것을 넘어, '인간과 비인간이 공존하는 정치 공동체'라는 새로운 관점을 제시하며 기후위기와 AI라는 시대적 과제 앞에서 우리가 가져야 할 새로운 사고방식과 끊임없이 질문하며 새로운 가능성을 모색하는 철학적 탐구의 중요성을 강조했다.
AI는 정치적이다: 안면 인식 기술의 인종 편향, 일론 머스크의 트위터 운영 등에서 볼 수 있듯이, AI 알고리즘과 그 내러티브는 정치적일 수밖에 없다. AI는 단순한 도구가 아닌, 정치 철학적 논의의 대상으로 바라봐야 한다.
'너징(Nudging)'의 양면성: 사람들의 행동을 특정한 방향으로 몰고 감으로써 변화를 유도하는 '너징'은 기후변화 대응에 유용한 전략이 될 수 있지만, 동시에 개인의 자유를 침해할 위험성을 갖고 있다. 아마존의 책 추천 알고리즘처럼, '선의'를 목적으로 한 너징이라도 조종의 문제에서 자유로울 수 없다.
'자유'의 역설: 기후위기 시대에 '자유'는 단지 방임이나 자율성을 의미하는 것이 아니다. '자기 통제'를 통한 공동체적 자유, 즉 '적극적 자유'만이 지속가능한 미래를 위한 진정한 자유다.
'함께 만들어가는 정치': 아리스토텔레스부터 브뤼노 라투르, 도나 해러웨이까지 다양한 철학자들의 사상을 바탕으로 '인간만을 위한 정치'를 넘어서는 새로운 정치 개념을 만들어나갈 필요가 있다. 인간과 비인간, 기술과 정치가 함께 만들어가는 '열린 정치'를 통해 기후위기와 같은 전 지구적 문제에 대응해야 한다.
토론
경기연구원의 한진이 연구위원은 AI 기술이 기후위기 완화에 기여할 수 있지만, 동시에 데이터 센터 에너지 소비 증가, 사회적 갈등 심화와 같은 문제를 야기할 수 있다는 점을 지적했다. 특히 효율성 중심의 의사결정 시스템이 과거에는 유효했지만 오늘날에는 새로운 사회적 갈등을 유발할 수 있다는 점을 강조했다. 또한 그는 “기후변화 완화라는 공동의 목적을 달성하기 위한 데이터 기반 의사결정”이라는 명목하에 인간의 자유와 선택을 제한하는 도구로 작용할 수 있다며, 데이터 기반 의사결정의 신뢰성에 의문을 제기했다. 궁극적으로 AI 기술 도입 과정에서 발생할 수 있는 윤리적, 사회적 문제들에 대한 깊이 있는 고찰이 필요하다는 주장이었다.
마지막으로 한 연구위원은 비인간 혹은 기술을 정치적 주체로 포괄하는 구체적인 방법과 비인간을 대변하는 채널에 대한 질문을 코켈버그 교수에게 던졌다.
에너지전환포럼의 임재민 사무처장은 기후위기 해결 과정에서 목적뿐만 아니라 수단의 중요성에 대해 고민하던 중에 〈그린 리바이어던〉에서 제시된 질문들이 그 고민을 심화하는 데 도움을 주었다고 언급했다. 특히, 기후위기를 막더라도 그 과정에서 의도치 않게 더 나쁜 사회가 도래할 수도 있다는 점을 지적하며, 단순히 기후위기 극복이라는 목표 달성에만 급급해서는 안 된다고 강조했다.
그는 최근 AI와 함께 신혼여행을 계획하면서 개인의 삶 깊숙이 파고든 AI 시대를 실감했던 경험을 공유했다. 또한 전문가들의 지식 권력에 둘러싸여 제 목소리를 내기 어려웠던 자신의 경험을 떠올리며, AI가 거대한 지식 권력에 맞서 개인의 자유와 권리를 확장하는 무기가 될 수 있다는 기대감을 내비쳤다. AI를 통해 정보 접근성을 높이고 논리를 강화함으로써, 기존 사회 시스템에 균열을 내는 새로운 운동의 기폭제 역할을 할 수 있다는 것이다. 하지만 동시에 AI가 기존 데이터에 기반하여 작동한다는 점에서, 과거의 지식 권력을 더욱 공고히 하고 사회 변혁을 가로막는 경로 의존성을 심화시킬 수 있다는 우려도 표명했다. 즉, AI가 새로운 가능성을 제시하는 동시에 기존 질서를 강화하는 역설적인 상황을 야기할 수 있다는 점을 지적했다. 그는 이러한 고민을 바탕으로, AI와 자유, 그리고 변혁의 관계에 대한 코켈버그 교수의 견해를 물었다.
사단법인 선의 김보미 변호사는 기후위기와 더불어 플라스틱 오염 문제의 심각성을 제기했다. 그리고 에너지 전환과 마찬가지로 플라스틱 문제 해결의 필요성에 대한 공감대는 형성되어 있지만, 국가 간 이익 갈등으로 국제협약 마련에 어려움을 겪고 있다고 지적했다. 특히, 석유 회사와 산유국의 플라스틱 생산 증가와 플라스틱 생산 감축에 대한 미온적인 태도를 비판하며, 플라스틱 오염 문제 해결을 위한 국제 협력과 글로벌 거버넌스의 필요성을 강조했다. 그는 플라스틱을 대체할 만한 마땅한 대체물이 없는 상황에서 플라스틱 국제협약을 만들어 각 국가에 적용하기 위한 효과적인 방법과 규제 방식에 대한 코켈버그 교수의 의견을 구했다.
한국스탠포드센터의 임희정 선임연구원은 환경 문제 해결을 위해서는 강력한 통제가 필요하다고 주장했다. 사람들이 한번 편리함과 소비에 익숙해지면 벗어나기 쉽지 않기 때문이다. 그는 코로나 시기 이동 제한과 백신 접종 강제와 같은 조치들을 “백신 리바이어던”에 비유하며, 이에 대한 각국의 상이한 반응을 흥미롭게 지켜봤다고 언급했다. 유럽과 미국에서는 강한 반발이 있었던 반면, 한국에서는 시민들이 정부의 지시에 순응적인 모습을 보였다는 것이다. 그는 이와 마찬가지로 환경 보호를 위한 강압적인 정책, 즉 “그린 리바이어던”이 시행될 경우 사람들의 반응이 어떨지에 대한 궁금증을 표했다.
더 나아가 임 연구원은 시대와 지역에 따라 자유와 민주주의에 대한 개념이 다르게 해석될 수 있다는 점을 강조하며, 기후위기 시대에 자유와 민주주의의 개념을 재정의해야 할 필요성을 제기했다. 그렇게 되면 환경 보호를 위해 개인의 자유를 일부 제한하는 조치가 필요할 수 있으며, 어쩌면 이러한 제한적인 자유 또한 새로운 형태의 자유로 인정할 수도 있지 않을까 하는 의견을 내비쳤다. 그러나 “그린 리바이어던” 같은 강력한 통제만이 아니라 “넛지”와 같은 방식을 활용하여 사람들이 거부감 없이 환경 보호에 참여하도록 유도하는 것이 중요할 것이라고 제안했다.
마지막으로, 임 연구원은 현대 사회는 정치와 과학 기술을 이분법적으로 구분하고 있다고 지적한 부분에 대해 추가 설명을 요청하면서, 특히 과학 기술과 정치의 통합적 관점을 대중에게 알리고 실현해나갈 주체가 누구인지에 대한 코켈버그 교수의 의견을 물었다.
법무법인 원 인공지능대응팀의 오정익 변호사는 AI로 인한 위험에 대한 사람들의 오해를 지적하며, AI 논의를 시작하기 위해서는 그 정의를 명확히 할 필요가 있음을 주지시켰다. 그는 AI를 핵융합 기술과 같은 하나의 기술로 보아야 하며, 마치 칼이 요리사에게는 유용한 도구이지만 범죄자에게는 위험한 무기가 될 수 있듯, AI 역시 그 자체로는 선악을 구분할 수 없는 도구라는 점을 강조했다. 따라서 AI 자체의 위험성보다는 AI를 이용하는 사람들의 윤리적 문제에 주목해야 한다는 것이다.
또한 오 변호사는 이미 사회 여러 분야에서 넛지나 규제를 통해 개인의 자율성을 제한하고 있음에도 불구하고, 유독 AI에 대해서만 자율성 침해에 대한 우려가 과도하게 나타나는 현상에 대해 의문을 제기했다. 광고, 교육, 금연 정책 등 다양한 영역에서 사람들의 행동을 유도하고 특정 선택을 제한하는 넛지가 이미 활용되고 있는데, 이에 대한 사회적 거부감은 크지 않다는 것이다. 그는 기후위기 해결을 위해서도 넛지를 활용할 수 있다는 점을 언급하며, 코켈버그 교수에게 넛지의 개념과 적용 범위에 대한 질문을 던졌다.
특히 오 변호사는 기후 문제를 범죄만큼 심각한 문제로 인식한다면, 강력한 규제를 통해 개인의 자율성을 제한하는 조치도 고려해야 한다는 점을 시사했다. 인권과 자율성은 생존이 보장된 이후에 논의될 수 있는 가치이기 때문이다.
패널들에 이어 온라인으로 참여한 연세대학교 백준상 교수는 〈그린 라바이어던〉에서 언급한 '제3의 길'에 대한 구체적인 설명을 요청했다. '리버테리언' 접근과 '리바이어던' 접근 사이에 존재하는 제3의 길이 어떤 모습일지, 그리고 AI가 초지능 단계에 도달했을 때에도 이러한 거버넌스 프레임워크가 유효할지에 대한 질문이었다.
사회자인 경희대학교 미래문명원 안병진 교수는 11월 5일 미국 대선에서 일론 머스크와 같은 빅테크 기업가들이 정치에 미치는 영향력과 이들의 막강한 영향력을 제한하기 위한 방안으로 '공기업화'가 거론되고 있다는 점을 언급하며, 규제 강화와 공기업화에 대한 코켈버그 교수의 견해를 물었다.
마지막으로 연세대학교 사회학과 명예교수인 지구와사람 김왕배 대표는 중국, 러시아와 같은 권위주의적인 국가들이 '제3의 길' 패러다임에 어떻게 적용될 수 있는지, 그리고 이러한 국가들이 AI 기술을 이용하여 글로벌 거버넌스를 지배하게 될 가능성은 없는지 코켈버그 교수의 견해를 물었다. 그리고 AI가 단순한 도구를 넘어 자율적인 행위주체성을 갖게 될 경우에 인간이 AI를 대표할 수 있을지에 대한 의문을 표했다.
다음은 코켈버그 교수의 답변과 제언을 토론의 주요 쟁점별로 요약한 내용이다.
비인간 존재들의 정치 참여: 동물과 같은 비인간 존재는 인간의 방식으로 정치에 참여할 수 없으므로 인간 제도 안으로 들어올 수는 없다. 따라서 인간이 그들의 목소리를 대표할 수 있도록 제도를 바꾸거나 새로운 제도를 만드는 것을 고려해야 한다. 현재 일부 정치인들의 녹색 정치는 비인간을 간접적으로 대변하고 있는데, 과학 연구와 AI의 데이터 수집과 모티터링의 방식을 활용하면 비인간 존재들을 보다 직접적으로 대표하면서 그들의 정치 참여를 확대할 수 있다고 본다. AI는 한계도 있고 윤리적인 문제도 있기에, 그것이 모든 것에 대한 해법은 될 수 없지만, 데이터 기반의 결정으로 도움을 받을 수는 있다.
기후위기 이후의 인간 행복: 인간의 이해관계나 권력을 넘어 보다 큰 행복을 거론한 것이 흥미롭다. 예를 들어 비인간을 정치에 포함시키게 되었더라도 인간의 이해관계와 비인간들의 이해관계가 충돌하는 문제가 발생할 수 있다. 이런 경우 일부 인간만이 아닌 지구 전체를 고려하려면, 행복의 상이 달라져야 한다. 개인의 욕망을 채우는 것에서 인류의 번영으로, 또한 인간 너머의 보다 많은 존재들이 자신의 잠재력을 펼치고 역량을 펼치도록 하는 것으로. 그러기 위해서는 지금처럼 소비를 지향하는 행복이 아닌 내면의 추구, 가령 아시아의 전통에서 추구되었던 마음의 절제와 깨달음 쪽으로 바뀌어야 하지 않을까. 이 때에 AI를 활용할 수 있다. 인간의 마음과 정신을 이해하고 진정한 행복을 추구하는 데 AI의 도움을 받을 수 있다.
대형 언어 모델의 지식의 루프 현상: 현재의 대형 언어 모델이 기존 데이터를 반복적으로 학습하는 '지식의 루프' 현상에 갇혀 있다는 점을 인정한다. 그러나 여전히 인간의 창의성이 줄 수 있는 새로운 지식이 있고, 이 신선한 지식이 이러한 루프를 깰 수 있다고 본다.
기후위기 대응을 위한 규제와 자율성의 균형: 넛지만으로는 충분하지 않으며, 강력한 규제가 필요할 수 있다. 전 세계적인 차원에서는 초강력한 규제 기관이 필요할 수도 있는 문제다. 글로벌 정치가 AI와 기후변화를 다루기 위해서는 지역과 국가 간 문화, 정치체제, 윤리관의 차이를 다루고 규제와 자율성 사이의 균형점을 찾아야 한다. 우리는 그간 다양한 국제협약을 만들며 명료한 규칙을 수립한 경험이 있기에, 정치적인 타협이 가능하다고 본다. 가령 EU는 극단적 자유와 극단적 전체주의 사이에서 중간 지점을 소프트 버전의 리바이어던이라고 볼 수 있다. EU는 완벽하지 않고 문제도 많지만, 규제와 자율성 사이의 균형점을 찾은 사례로 연구해볼 가치가 있다.
빅테크 기업의 영향력에 대한 규제 방안: 빅테크 기업의 정치적 영향력 확대에 우려를 표한다. 이는 국가적 차원을 넘어서는 문제이므로 초국가적인 거버넌스가 필요하다. 특히 미국은 빅테크 기업에 대한 규제에 소극적일 가능성이 높기 때문에, 국제적인 협력을 통한 규제가 더욱 중요하다. 그리고 빅테크 기업의 공기업화는 현실적으로 어렵지만, 사회적 영향력을 고려했을 때 규제는 필수적인데, 그들의 독점적인 지위는 커뮤니케이션과 정보 소비 방식을 변화시키고, 나아가 민주주의를 침해할 수 있기 때문이다. 따라서 공기업화 여부와 관계없이 공공 부문의 적극적인 개입과 규제를 통해 빅테크 기업의 활동을 감시하고 균형을 맞춰야 한다.
과학 기술과 정치에 대한 통합적 교육: 과학 정치는 근본적으로 분리될 수 없는 관계다. 과학 연구와 기술 개발은 그 자체로 사회를 변화시키는 정치적 활동이며, 이제 인간뿐 아니라 비인간들도 관계된 정치 활동이다. 과학과 기술 활동이 정치적으로 중립적이라는 생각을 버리고, 민주적인 논의와 참여를 통해 그 방향을 결정해야 한다. 또한, 환경 문제와 기술 문제는 서로 연관되어 있으며, 미래 사회의 핵심적인 정치적 의제로 다루어져야 한다. 이 문제들이 대중영합주의적 소재로만 사용이 되고 장기적인 논의가 이루어지지 않을 가능성이 우려된다. 기술의 미래가 항상 토론의 배경 역할만 하고 그 중심으로 나아가지 못할 수도 있다. 따라서 이 주제가 얼마나 중요한지 대중들의 인식을 제고해야 하며, 이를 위해 이들 주제에 대한 통합적인 교육이 이루어져야 한다. 학교에서도 기술, 생태, 정치가 어떻게 연결이 되어 있는지, 모든 생태계가 어떤 기술로 연결이 되어 있는지를 교육해야 한다. 이러한 변화를 이끌어내는 데에는 바텀업 방식이 중요해졌다. 교사, 부모, 시민 사회, NGO 등 다양한 주체들의 자발적인 이니셔티브들이 있다. 이들의 활동에 주목하고 이를 지원하는 정책이 필요하다. 당장에는 사회 질서를 어지럽히는 것처럼 보일지도 모르지만, 이 질서는 어차피 우리가 지금 변화하지 않으면 무너지게 되어 있다. 그래서 시민사회 활동을 새로운 질서를 만드는 실험으로 받아들이는 게 바람직한 방향이다.
AI의 정의와 인간의 책임: AI에 대한 정의가 명확한 정의가 중요하다는 점에 전적으로 동의한다. AI를 인간과 동일시하는 오해를 경계해야 한다. AI의 담화가 인간이 AI를 어떻게 사용하느냐에 달려 있다는 것을 간과하고 AI가 자체적인 사고를 하게 되다는 미래 예측이 많다. 이것은 사실이 아니다. AI는 이미 자동화를 통해 어느 정도의 행위 주체성을 갖고 있지만, 기술의 한계도 있고, 그 발전 과정에서 인간의 가치관과 윤리적 판단이 중요하다. 인간의 책임을 잊지 말아야 한다.
지성적 탐구를 통한 제3의 길: 〈그린 리바이어던〉에서 다룬 '제3의 길'은 보다 지성적인 접근이다. 단순히 양극단의 타협점을 찾는 것이 아니라, 우리가 현재 가지고 있는 선택지를 정리하고, 맑스주의와 포스트휴머니즘 등 다양한 철학적 관점을 활용하여 완전히 새로운 개념의 자유를 구상하는 것, 그리고 창조적 정치 프로젝트 등으로 새로운 해법을 찾아가는 실험에 대해 이야기했다. 우리가 해볼 수 있는 것은, 공동의 미래를 위한 새로운 제도와 프로세스를 위해 필요한 것이 무엇인지 연구하는 것이다. 정치 이외에도 다양한 포럼을 구성해 민주적인 인프라를 개선해야 한다. 또한, 과학과 기술에 대한 담론은 민주주의에 미치는 영향을 고려해야 하고, 기술 디자인은 그에 기반해 이루어져야 한다. 담론은 기술이 만들어진 후가 아니라 설계 단계에서 시작되어야 하는 것이다. 그리고 기술 발전으로 인해 인간이 취약해진다는 내러티브를 경계해야 한다. 우리의 문제가 지구적인 문제라는 논점을 흐리고, 인간이 이 문제를 외면하도록 만드는 내러티브라고 생각한다.
낙관적인 미래를 위한 제언: 자유민주주의를 유지하면서 기후위기에 대응하는 데에도 기술을 활용할 수 있다는 낙관론을 제시한다. 우리의 목표는 인간의 번영이고 동시에 더 많은 존재들을 포함하고 상호의존하는 포용적인 정치체제를 만드는 것이다. 이 지구 내에서의 문제를 해결하는 데에 집중해야 하며, 이를 위해 우리가 할 수 있는 일이 충분히 있다. 이러한 원칙과 믿음을 기반으로 AI와 자유민주주의에 대한 정의를 지속적으로 개선해 나가는 노력을 기울여야 한다. 패널들의 질문이 이러한 노력의 중요한 지점과 방향들을 짚어주었다.
첨부파일 |
|