【인본세상 22 - 인본이 본 세상】 정보지배 사회와 비판적 사고 - 류지석

정보지배 사회와 비판적 사고 / 류지석 (문화공간 봄 대표)

인본세상 승인 2023.08.24 10:42 | 최종 수정 2023.08.27 10:15 의견 0

얼마 전에 페이스북과 트위터 등 소셜 미디어에 미국 국방부 청사 인근에서 대형 폭발이 발생했다는 가짜 사진이 순식간에 확산되었다. 러시아 관영 매체와 트위터의 유명 금융 뉴스 계정까지 이 뉴스를 공유하면서 펜타곤 인근에서 검은 연기가 치솟는 모습이 순식간에 전 세계로 퍼진 것이다. 이 소식이 전해지자 미국 S&P500 지수가 한때 0.3% 하락하는 등 증시까지 출렁였고 안전 자산으로 꼽히는 미 국채와 금값은 잠시 상승하기까지 했다. 미 국방부 대변인은 블룸버그에 “국방부는 공격받지 않았다”라고 밝혔고 이 사진은 생성형 인공지능(AI)이 만들어 낸 가짜 이미지였음이 밝혀졌다. 이 사건으로 인공지능 프로그램이 만든 가짜 사진을 사용한 ‘가짜 뉴스’가 사실로 여겨지면서 소셜 미디어와 기성 언론은 물론 주식시장까지 움직인 것이다.

정보의 조작과 편향은 이제 일상적인 현상이 되었고 앞으로 인공지능 프로그램과 정보지배 사회가 가져올 미래의 삶에 대한 성찰의 필요성을 강력하게 제기한다. 재독 철학자 한병철 교수는 디지털 패러다임의 변혁이 가져온 현대 사회의 문제를 그의 저서 <정보의 지배>와 <사물의 소멸>에서 비판적으로 분석하고 있다. 이 글에서는 위의 책에서 제시된 관점을 참조하여 이 문제를 함께 생각해 보는 기회를 가지려 한다.

 

1. 정보지배 사회

지금 우리는 정보의 홍수와 디지털 기술의 발달로 인해 실시간으로 수많은 정보에 접속하고 이를 통해 세상을 이해하고 판단한다. 인터넷과 스마트폰의 보급은 이러한 정보사회의 발전을 급속도로 가속화 하였다. 스마트폰 하나로 거대한 정보망에 접속하고 소셜 미디어를 통해 소통하며 일상의 많은 일을 처리할 수 있게 되었다. 플랫폼 기업은 빅데이터와 인공지능의 알고리즘을 이용하여 우리의 욕구를 간파하고 끊임없이 무엇인가를 소비하도록 부추긴다. 여기서 소비의 대상은 물질적 상품이나 서비스이기도 하지만 무엇보다도 디지털화한 정보이다. 텍스트, 이미지, 동영상 등 다양한 매체로 구성된 정보망의 접속은 거의 시공간의 제한 없이 우리 손 안에서 간단한 손가락의 동작으로 가능하게 되었다.

이제 모두는 정보의 소비자이면서 동시에 자발적인 정보 생산자이다. 포털 사이트나 유튜브에서 댓글을 달고 블로그나 페이스북에서 글을 쓰고 인스타그램에 사진을 올리며 자발적으로 자신의 삶을 드러낸다. 이 모든 행위는 자신의 자유의지에 의한 것처럼 보이지만 정보체계는 ‘스마트’하게 우리를 종속시켜 끊임없이 ‘좋아요’와 ‘구독’을 요구하며 정보를 갈망하는 인포마니아(infomania)로 만든다. 스마트폰을 신체 일부처럼 사용하는 사람을 뜻하는 ‘포노 사피엔스(phono sapiens)’는 정보지배(infocracy)사회의 인간을 상징한다.

사람들은 일상적으로 IT 기기로 서로 소통하고 정보를 소비하고 때로는 생산도 하면서 자신도 모르게 정보의 세계에 갇히게 되었다. 하루라도 스마트폰 없이 살게 하면 상실감, 불안과 함께 세계로부터 소외된 듯이 느끼는 사람이 많을 것이다. 정보체계는 조금씩 우리의 영혼을 정복하는 심리정치의 도구가 되어버렸고 디지털 감옥은 투명하여서 우리는 자유롭고 창조적이라 여기지만 실제로 우리의 삶은 정보의 체계에 의해 지배당하고 있다.

 

2. 사물에서 정보로

1687년 아이작 뉴턴은 프린키피아(<자연철학의 수학적 원리>의 라틴어 제목인 “Philosophae Naturalis Principia Naturalis”를 줄여서 부르는 말)를 세상에 내놓는다. 뉴턴은 이 책에서 고전 역학의 바탕이 되는 보편중력의 법칙과 운동의 법칙을 통하여 우주의 모든 물체는 상호 연결되어 있으며 그 운동은 수학적으로 계산될 수 있음을 입증하였다. 그런데 근대철학의 역사를 살펴보면 경험론은 회의론으로 그리고 합리론은 독단론으로 빠지면서 ‘인간은 세계에 대한 보편적 진리를 인식할 수 있는가?’라는 근원적 문제에 부딪힌다. 인간이 세계에 대한 보편적이고 필연적 지식에 도달할 수 없다면 근대물리학의 체계는 위기에 빠질 수밖에 없다. 이러한 철학적, 과학적 지식 체계의 위기에 케임브리지에서 1,100km 떨어진 쾨니히스베르크의 철학자 임마누엘 칸트는 깊은 고민에 빠지게 되었다. 그는 이러한 위기를 타개하고 인간은 최소한 현상의 세계에 대하여서는 절대적 진리에 도달할 수 있음을 밝히기 위하여 1781년 <순수이성 비판>을 내놓았다. 여기서 근대의 과학사와 철학사에 관한 이야기를 꺼내는 것은 인간이 세계를 인식하고 관계를 맺는 일들이 오랫동안 대상에 대한 구체적 경험을 바탕으로 지적 이해와 추론 과정을 거치며 이루어져 왔다는 사실을 강조하기 위해서이다.

그런데 정보지배 체제는 사물을 정보로 환원함으로써 세계를 탈 사물화한다. 다양한 디지털 매체와 도구는 우리의 경험과 인식을 중개하는 역할을 하는데 그 결과로 직접적 소통이나 관계 형성이 약해지고 그 자리를 정보가 대신하게 된다. 타자와의 관계를 맺기 위한 ‘지금’, ‘여기’에 있음이 필요 없어졌기 때문이다. 이는 사물의 실재성이 디지털 정보나 가상 세계로 대체되고, 세계나 타자와의 직접적인 상호작용과 경험, 감정, 직관 등 다양한 인지적 요소들을 통한 관계 설정에서 멀어지는 결과를 가져온다. 정보는 계속 순간적인 자극을 제공하며 우리의 지각을 파편화하므로 시간 집약적이고 지속적인 활동, 특히 사유 행위를 방해한다. 정보 의존적 세계 인식은 세계의 복잡성과 다양성을 충분히 이해하고 파악하는 능력을 제한하며 인간과 세계 사이의 관계와 소통 방식을 완전히 변화시키고 있다. 정보는 있지만 ‘머무름’과 ‘숙고’와 ‘깨달음’은 사라지는 사물의 표피화가 급속하게 자리 잡게 된다. 이런 점에서 정보지배 사회에 들어선 우리는 세계 인식과 타자와의 관계 맺음에서 패러다임의 변혁기에 있다고 할 수 있다.

 

3. 인공지능의 양면성

인공지능이라는 단어가 우리에게 익숙해진 계기는 2016년 이세돌 9단과 알파고의 대국이었을 것이다. 딥마인드가 개발한 바둑 인공지능 프로그램이 당시 세계 최고 수준의 기사였던 이세돌 9단을 4:1로 물리쳤다는 사실은 엄청난 충격을 주었다. 불과 몇 년이 지난 지금 챗지피티(ChatGPT), 바드(Bard), 빙(Bing)과 같은 생성형 인공지능 챗봇의 사용이 일상화되었고 그 영향력은 점점 커지고 있다. 2022년 11월 챗GPT가 공개되기 전 구글도 2021년 람다라는 이름의 유사한 AI 프로그램을 개발했지만, 이 프로그램이 검색 횟수를 급격히 줄여서 구글의 광고 수입이 감소할 것을 우려하여 이를 정식으로 공개하지 않았다가 오픈 AI에 선수를 빼앗기고 말았다.

필자가 무료로 사용할 수 있는 챗GPT 3.5 버전을 직접 사용해 본 경험으로는 일반적인 정보를 검색하여 정리하고 요약하는 기능은 매우 효율적이었다. 심지어 주제와 배경을 설명하고 칠언절구 형식의 한시를 지어보라거나 영어로 시를 쓰게 했을 때 이를 순식간에 수행해 내는 놀라운 결과를 보였다. 이 한시를 오랫동안 동양학을 연구한 지인에게 보여주었더니 꽤 괜찮은 문장이라고 평가하였다. 그러나 챗GPT가 많은 오류를 범하는 것도 알 수 있었다. 잘못된 정보를 천연덕스럽게 사실인 것처럼 대답하는 AI 환각(hallucination)현상을 보이는 경우도 제법 있었고 상대적으로 전문적인 정보에 대해서는 취약점을 보이기도 했다. 그런데 최근 챗GPT의 개발사인 오픈 AI는 문장 인식과 텍스트 생성에다 이미지 인식과 분석 기능을 더했고 환각 현상을 최소화한 4.0 버전을 공개하였다. 그들이 밝힌 바에 따르면 챗GPT는 미국 로스쿨 입학시험(LSAT)에서 상위 10%, SAT 수학 시험에서 상위 11%, 미국 생물학 올림피아드 준결승 문제는 상위 1%에 드는 놀라운 결과를 보였다고 한다.

이제 단순한 정보의 제공을 넘어서서 전통적으로 인간의 지적 활동의 영역에 속하는 정보를 선택하고 정리하고 해석하는 행위까지 인공지능 프로그램에 넘기게 되었다고 할 수 있다. 얼마 전 엔비디아의 잰슨 황 CEO는 한 연설에서 새로운 혁신 기술의 중요성을 이야기하면서 앞으로 기업과 개인이 뒤처지지 않기 위해서는 AI 학습이 필수적으로 될 것이라고 강조하였다. 전문가들은 생성형 인공지능의 불안정성은 계속되겠지만 머지않아 더 강력한 슈퍼 AI가 등장할 것이라는 데는 이견이 없는 듯하다. 우리는 인공지능을 비롯한 급속한 기술혁신의 시대에 살고 있고 이러한 현실을 거부할 수 없다. 인공지능 프로그램이 보여주는 방대한 양의 정보 처리와 분석 능력, 사용자와의 상호작용을 통한 요구에 맞춘 정보 제공 등, AI 기술은 긍정적으로 사용한다면 많은 문제를 손쉽게 해결해 주는 효율적인 도구가 될 것이다.

그러나 세계적인 AI 전문가들도 인공지능 기술의 발전과 미래에 대하여 엇갈린 전망을 내놓고 있다. 어떤 학자들은 이러한 기술이 악의적으로 사용되거나 인간의 지적 능력을 넘어선 AI가 인간의 통제 범위 밖에 있게 될 위험성을 우려하고 제도적인 장치뿐 아니라 윤리적인 기준에 대해서도 숙고하여야 한다고 주장한다. 반면에 일부 전문가들은 우발적인 AI의 위험성을 지나치게 과대평가할 필요는 없고 연구 개발을 계속해 나가면서 실제로 발생하는 문제나 위험성은 개선하거나 규제하면 된다고 주장한다. 그럼에도 인공지능 시스템의 문제점은 이미 드러나고 있다.

생성형 인공지능은 학습한 데이터에 의존하기 때문에 데이터에 포함된 편향된 정보를 반영하여 답변이 편향된 의견이나 정보를 포함할 위험성이 있고 거짓 정보를 생성하거나 잘못된 결론을 도출할 수 있다. 사실 확인 없이 정보를 제공하면 거짓 정보에 근거한 오류를 범할 수 있는데 방대한 데이터를 확인하여 이를 찾아내기란 매우 힘들 것이다. 최근 뉴욕의 한 법무법인에 근무하는 30년 경력의 변호사가 “항공사 잘못으로 상해를 입었다”라고 주장한 의뢰인의 사건을 담당하면서 과거 유사한 사건과 그에 대한 법원 판례 등을 정리한 자료를 서면으로 제출했다. 그런데 이 중 6건이 실제로는 존재하지 않는 사건이었다. 과거 사건과 판례를 검색하는 과정에서 챗GPT를 활용했는데, 챗GPT가 없던 사실을 마치 존재하는 것처럼 만들어 내서 제공한 것이다. 생성형 인공지능을 도입할 때 판례를 검색하거나 서면을 작성하는데 매우 효율적이라는 것은 이미 입증이 되었다. 법조계는 만일 유사한 오류가 발생하여 변호사의 서면이나 판사의 판결문이 잘못됐을 때, 이를 법조인의 윤리를 위반한 것으로 볼 것인지, 어떤 조치를 할 것인지에 대한 가이드라인이 필요할 것이라는 반응을 보였다. 또 다른 문제는 생성형 인공지능이 거의 모든 종류의 질문에 답변할 수 있으므로 악의적인 사용자가 공격적인 내용, 차별적인 발언, 왜곡된 내용, 사기, 개인정보 및 저작권 침해 등을 수행할 가능성을 배제할 수 없다는 것이다.

 

4. 정보지배 사회의 위험

2016년 데이터 분석업체인 케임브리지 애널리티카는 페이스북에서 심리검사 퀴즈 앱을 활용해 5,000만 명의 심리 프로필 정보를 수집하여 트럼프 대선 캠프에 정치적 마케팅을 위한 정보를 제공했다. 이를 통해 트럼프 캠프는 선거 캠페인에서 특정 선거구의 유권자들에게 맞춤형 광고를 보내는 등의 전략을 세울 수 있었다. 이 사건은 페이스북의 개인정보 보호 문제와 함께 큰 이슈가 되었으며, 페이스북은 이후 이와 같은 일이 발생하지 않도록 보안 강화와 개인정보 보호 정책 개선 등의 조치를 취했다. 2018년 3월, 연방거래위원회(FTC)가 페이스북에 대해 개인정보 보호 위반 혐의로 조사를 시작했다. 이후 2019년 7월, FTC는 페이스북과 50억 달러의 벌금 협상을 마치고 이를 승인했다. 이는 FTC 역사상 가장 큰 벌금이다. 정보화 사회에서는 디지털 기술의 발전으로 인해 대량의 개인정보가 수집되고 활용되는데, 개인의 사생활과 개인정보 보호의 문제가 중요하게 대두된다. 특히 이런 정보가 정치적 목적으로 활용되었다는 점에서 더욱 심각한 문제가 아닐 수 없다.

2016년 미국 대선에서 러시아가 트럼프 대통령 당선을 위해 가짜 뉴스를 대규모로 생산하고 소셜 미디어를 통해 확산시키는 일련의 활동이 있었다. 조사 결과에 따르면 러시아는 미국의 사회적인 갈등을 부추기고 정치적 불안을 조장하기 위해 편향된 기사와 극단적인 주장을 함유한 기사를 만들어 소셜 미디어 플랫폼을 통해 거짓 정보를 확산시켰다. 이를 통해 미국 유권자들에게 특정 후보나 정당에 대한 부정적인 이미지를 심어주고 지지를 약화하는데 성공했다. 이 사건은 미국 사회와 정치에 큰 파장을 일으켰고 이런 종류의 가짜 뉴스들이 가지는 영향력의 중요성과 디지털 정보의 보안 문제를 다루는 데 많은 관심을 기울이게 되었다. 사실과 다른 정보를 제공하거나, 특정한 이익을 위해 조작된 정보를 제공하는 가짜 뉴스가 정치적으로 악용되는 문제는 공정한 정보의 제공을 방해하고 사람들의 판단력을 흐리게 만들 수 있어서 민주주의의 기본 원칙을 위협하는 심각한 문제가 아닐 수 없다.

스웨덴의 가격 비교업체 프라이스러너는 구글 검색 결과에서 자사의 웹사이트가 노출되지 않는 것을 발견하고 구글이 자신의 서비스에 유리하도록 알고리즘을 조작하였다고 소송을 제기했다. 이는 유럽연합(EU)에서 구글을 상대로 제기한 대표적인 카르텔 소송 중 하나였다. 2017년 6월, 유럽 집행위원회는 구글에 대해 프라이스러너와 관련된 부당한 경쟁 행위를 했다는 이유로 2.4억 유로의 과징금을 부과했다.

2016년 미국 대선 당시 구글이 검색 엔진에서 힐러리 클린턴 후보에게 유리한 검색 결과를 노출시키기 위해 알고리즘을 조작했다는 의혹이 제기되었다. 당연히 검색 엔진이 특정 후보나 정치적 입장을 위하여 검색 결과를 조작할 수 있다는 우려를 불러일으켰다. 구글은 검색 엔진의 자동완성 기능은 사용자들이 검색하는 단어와 관련된 인기 있는 검색어를 기반으로 자동 생성되기 때문에 의도적으로 조작할 수 없다는 입장을 밝혔으나 이에 대한 의혹은 여전히 남아있다.

이 사건들은 특정 검색 결과에 영향을 주기 위하여 알고리즘을 조작하는 것이 검색 엔진의 중립성과 공정성을 침해할 수 있다는 우려를 불러일으키며, 검색 엔진의 알고리즘에 대한 투명성과 책임성을 강화하는 것이 필요하다는 점을 보여준 사례이다.

 

5. 비판적 사고와 정보 평가 능력

생성형 인공지능이 일반화되고 그 효율성이 분명해지면서 인공지능이 인간의 역할을 대체할 가능성이 높아지고 이에 대한 우려도 커지고 있다. 문서 작성과 번역, 카피 작성, 법률 보조 등의 업무에는 이미 부분적으로 인공지능이 적용되고 있다. 물론 아직은 전문화된 고급 정보의 분석과 판단, 창조적인 작업 그리고 윤리적 판단 등이 수반되는 영역에는 사람의 역할이 여전히 중요하고 쉽게 대체되지 못할 것이다. 그러나 앞으로 인간의 지적 행위의 상당 부분을 인공지능 프로그램에 넘길 수밖에 없다면, 인간과 인공지능의 상호보완적인 관계를 수립하도록 노력해야 할 것이다. 또한 인공지능 시스템의 투명성과 책임성을 확보하기 위하여 알고리즘의 동작 방식과 의사결정 과정이 투명하게 공개되어야 하고 이를 통해 인공지능의 결정 방식에 대해 이해하고 검토할 수 있어야 할 것이다. 또한, 개인정보 보호와 윤리적 운용을 위한 규제와 감시 체계를 구축하는 것이 필요하다. 결국 인공지능의 개발과 운용에 있어 윤리적인 가이드라인과 법적인 규제가 필요하며, 이를 위하여 여러 분야의 전문가와 이해관계자들이 인공지능 개발과 적용 방향에 대한 사회적 토론을 벌임으로써 다양한 의견과 관점을 수렴하는 과정이 요구된다.

특히 우리가 정보지배 사회의 한계를 극복하고 비판적이고 독립적인 사유를 발전시키기 위해서는 새로운 패러다임에 맞도록 제도, 교육, 사고방식을 개혁해야 하는 중요한 과제가 남아있다. 비판적 사고는 개인의 사유 능력을 강화하고 오보와 편향을 파악하는 데 도움을 줄 수 있다. 따라서 교육체계에서도 비판적 사고를 장려하고 포괄적인 사유 능력과 논리적 판단을 함양하기 위한 노력이 더욱 필요할 것이다. 이런 점에서 정보지배 사회에서 인문학적 소양은 더욱 중요해질 것이다. 또한 정보를 소비할 때 그 신뢰성과 신빙성을 평가할 능력을 향상시키기 위해 사실 확인과 다양한 출처의 비교, 전문가의 견해를 참고하는 등의 방법을 적극적으로 활용해야 할 것이다.

우리는 정보 과다의 시대에 살고 있다. 손가락 동작 하나로 실시간으로 원하는 정보에 접속할 수 있고 생성형 인공지능은 이를 원하는 방향으로 정리하고 결론을 도출해 주기까지 한다. 알고리즘은 우리의 욕구와 성향을 분석하여 우리 입맛에 맞는 정보를 지속적으로 제공한다. 우리는 이 정보를 소비하기에 바쁘다. 그런데 상대적으로 정보가 부족하던 시대에는 제한적이었지만 다른 성격의 다양한 정보에 접할 수 있었다. 그런데 정보과다의 시대에는 내가 선호하는 정보와 자극을 벗어나기 어렵게 되었고 이는 역설적으로 좁은 시야에 갇히는 결과를 가져올 수 있다. 더구나 정보화 시대에는 시간 강박이 모든 것을 가속화하여, 동영상도 빠른 속도로 보고 영화나 책도 원본을 관람하거나 읽기보다는 요약본을 보는 “다이제스트 버전”의 삶을 사는 것을 매우 효율적인 것으로 간주하게 된다. 그러나 또 한편으로는 ‘머무름’과 ‘사유’의 삶이 정보지배 사회에서 정보를 소비만 하는 ‘정보 가축’이 되지 않기 위한 지혜의 덕목이 될 것이다. 한나 아렌트의 말처럼 진실은 “존재의 굳건함”을 지니고 있고, 신뢰는 타자와의 지속적이고 긍정적 관계에서 성립한다는 점을 잊지 말았으면 한다.

 

류지석 대표

◇ 류지석 약력

프랑스 릴대학 철학박사

부산대 HK교수

(현) 문화공간 봄 대표

 

 

저작권자 ⓒ 인저리타임, 무단 전재 및 재배포 금지