
AI 어떻게 볼 것인가?
우스꽝스러운 AI, 무서운 AI
“저들도 (우리와 마찬가지로)죽을 수 있는 존재다.” 1533년 쿠스코로 진군하는 피사로 군대에 대한 비밀을 전달하던 잉카군 전령의 메시지 -에두아르노 갈레아노,[불의 기억]중 ‘비밀’ 편 |
다들 AI가 중요하다고 말한다. AI가 장차 모든 노동을 대체할 것이라며, AI의 흐름에 따라가지 못하면 뒤쳐져서 경쟁에서 패배할 것이라고 선전한다. AI, AX, DX, 피지컬 AI, 알고리즘, 환각, 거짓말 같은 AGI, 그걸로도 모자라 이젠 ASI 같은 조어까지 어지럽게 유행하고 있지만 정작 그 내용들이 무엇이며 구체적으로 무엇이 달라지는지 설명하지 않는다. 이러한 불친절함은 단순한 실수일까? 그렇지 않다. 그건 AI에 대해 착각을 불러일으키기 위해 의도된 불친절함이다. 그렇다면 누가 어떤 의도에서 그런 불친절함과 착각을 조장하고 있단 말인가? 그것을 알 수 있다면, AI는 경외해야 할 신비한 존재가 아니라, 파악해서 대처하고 관리 가능한 존재가 된다.
AI는 대단히 광범위한 개념이다. 원칙적으로는 인간의 지능을 흉내내는 그 모든 인공물도 AI라 불릴 수 있다. 2025년 현재 유행하는 기계학습류의 생성형 모델은 그 중 극히 일부분일 뿐이다. 지금 그것을 인공지능이라 부르면 대부분은 어색하게 느낄 계산기 또한 인간의 지적 활동인 계산을 흉내냈다는 점에서 AI라 부를 수 있다. 전자컴퓨터 활용 이후의 인공지능으로 한정하더라도 이미 인간의 모든 노동을 대체할 수 있으리라는 인공지능 붐은 이미 세 번째 반복되고 있다. 이전의 2회째의 붐은 어떻게 되었는가? AI분야에서 AI겨울이라 부르는 쇠퇴를 맞이했다. 이후 연산능력의 강화, 데이터의 다량 축적 등으로 지금 우리가 맞닥뜨린 세번째 붐이 재개되었다.
세 차례의 붐에서 매번 AI의 방법론은 바뀌었지만, 바뀌지 않고 일관적인 것이 있다. 인간의 지적 능력을 인간에게서 분리하여 인공물로 재현할 수 있다는 믿음, 즉 인간의 모든 행동양식을 완벽하게 대체할 것이라는 노동력의 완전 자동화에 대한 환상이다. 그렇다. AI에 대한 복잡한 논의의 핵심은 이것이 인간의 능력을 완전히 무력화시킬 수 있는가에 대한 시험이다. 그리고 그 시도는 근본적으로 불가능하다는 것을 실제 노동과정에 대한 적용 사례에서 확인할 수 있었다. 하지만 동시에 자동화에 대한 환상을 무기로 노동계급을 위협하기 위한 전략적인 수단으로써 활용되어왔다. 대중이 신기술의 신기함에 매료되면 될수록 해당 기술은 그 자체의 공학적 성능보다 더 과장된 정치적 수단으로 활용된다.
실제 직무적 실용성을 의심받는 생성형 모델과 다르게 실제 제품을 생산할 수 있는 공작기계인 N/C의 도입 역사를 살펴보자. 초기에 비용적으로 비효율적이었던 N/C는 노동과정에서 노동자의 통제력 약화라는 정치적 목적을 위해 정부(미 공군)의 막대한 투자로 도입되었다. 정치적 목적을 위한 노동과정에서의 신기술 도입이 총자본으로서의 정부의 역할에 의해 주도된다는 점은 현재의 미-중 AI경쟁과 최근 거의 모든 표현이 AI와 AX로 도배되다시피 한 한국의 경제발전 정책에 대단히 중요한 시사점을 던져준다. 현 시점에 유행하는 AI모델이 실제로 유용하게 될 것이냐를 논하기 전에 AI붐이 지속되고 강화되는 것에는 노동과정에서의 계급투쟁이라는 강력한 정치적 배경이 작동한다는 것이다. 노동자 대체에 대한 공포는 AI에 대한 몰이해에서 비롯된 과대평가의 부작용으로 언급되기도 하지만, 그 공포는 AI가 유일하게 실질적으로 유용할 수 있는 정치적 목적이다.
AI의 정치적 목적성을 비판적으로 접근하는 것은 기술결정론에서 벗어나기 위해서도 중요하다. AI의 성능상의 문제나 통계적 편향을 지적하는 것은 그 심각성을 고발하는 데 의미가 있겠지만, 결정적으로 기술결정론적 편향을 극복하기 위해서는 기술에 대한 사회적 관점에서의 비판이 필요하다.
그렇다면 AI의 신화, 구체적으로 현 시점에 맞이한 3차 AI붐의 딥러닝 모델은 어떻게 신화화될 수 있었는가?
지금 유행하는 이게 대체 무엇인가? “응용통계”- 테드 창(SF작가)
유명 SF 작가인 테드 창은 현재 유행하는 생성형 모델에 대해 ‘의도와 지능이 없는 응용통계’라고 규정했다. SF 장르가 종종 기술의 발전 방향성을 제시해왔음을 다시 떠올리게 할 정도로 명료하면서 현재의 생성형 모델의 특징을 잘 짚어낸 표현이다. 대중적으로 사람과의 대화를 흉내내는 듯한 GPT나 Gemine 등의 LLM 모델(대규모 언어 모델) 방식이 사용되면서 AI에게 판단력이 있다는 착각이 퍼져 있지만, 실제로 AI는 판단을 하지 못한다. 딥러닝에서의 추론은 새로운 것을 ‘생각하는’ 것이 아니라, 기존에 인간들이 ‘내뱉은 정보’를 적당히 잘 추슬러서 일반적인 통념을 반복하는 것뿐이다. AI 산업에 깊은 이해관계가 있는 일론 머스크가 AI가 학습할 ‘새로운 데이터’가 고갈되었다며, 생성형 모델이 만들어낸 데이터를 학습하면 생성형 모델의 결과물이 더 형편없어진다고 토로하고 있다. 생성형 모델이라 알려진 프로그램조차도 실제로는 ‘생성’하는 것이 아니라 인간들이 만들어낸 것들의 반복이었다는 것이 드러나고 있는 것이다.
현재 유행하는 딥러닝 모델의 한계는 그게 지속적인 인간의 새로운 작업물을 소비하지 못한다면, 점차 사회 전체의 지식풀을 오염시키고, 그 결과 모델 자체의 결과물까지 퇴화한다는 점에서 잘 드러난다. 결국 인간의 그림자조차 되지 못하는 모델이 인간 그 자체인 듯하게 작동한다는 환상은 어떤 식으로 만들어지고 있는 것일까? 그 전부를 다루지는 못하겠지만, ‘의인화’라는 관점에서 몇 가지 사례를 언급할 수 있다.
단적으로 LLM은 헛소리를 한다. 흔히 ‘환각’이라는 표현으로 포장된 헛소리는 성능적 결함임에도 인간적인 실수의 영역으로 포장되어 AI 산업계의 종사자 등을 통해 발언되고 언론 등을 통해 전파된다. 그리고 그 의인화는 AI가 실제 성능보다 훨씬 뛰어난 작업을 하고 있다는 착각으로 이어져 과도한 맹신이나 과도한 공포감을 불러일으킨다. 덧붙이면 LLM이 요청에 대해 헛소리를 늘어놓는 것을 ‘환각’이라고 부르는 것 또한 AI를 의인화시켜 사람과 비슷하다고 믿게 만드는 마케팅 전략의 선택이다. 이렇게 어떤 의도를 갖지 않은 것이 의도를 가진 존재인 듯하게 착각하는 것은 이미 ‘ELIZA(일라이자) 효과’라는 명칭까지 부여된 현상이다.
앞서 설명한 AI에 대한 사기에 가까운 과장된 묘사들은 이번 2010년대 이후의 붐에 한정되는 것이 아니라 과거의 AI붐에서도 동일하게 나타났던 현상이다. AI를 지나치게 광범위하고 모호한 표현으로 정의하며, 규제 철폐라는 형태로 AI 산업에 비판 불가능한 무소불위의 권력을 쥐어주기만 하면 사회의 모든 문제를 해결할 수 있다는 식의 표현을 남발하여, 특히 기술적 이해도가 낮은 비전문가들을 상대로 과장된 가능성을 기술결정론적으로 받아들이게끔 스스로를 묘사해왔다.
의인화로 부풀려진 AI의 가능성은 자칭 전문가들을 양산하고 그것이 다시 기술결정론적인 전문가주의를 강화시키는 악순환이 벌어지고 있다. 심지어 이런 과대평가에서 비롯된 공포감은 AI에 대한 과잉투자뿐 아니라 군비경쟁을 강화하는 추세로 나타난다. 과잉된 투자는 막대한 물과 전기를 낭비하고 다른 곳에 쓰일 수 있던 사회적 역량을 낭비하는 결과로 나타난다. 뿐만 아니라 AI만능론으로 대체되어 자동화된 부문에서의 인간의 숙련 지식은 이해할 수 없는 것으로 상실되고 만다.
AI는 대중의 지적 수준을 파괴하고 있다.
AI붐은 자동화에 대한 강한 욕망이다. 그것은 인간의 지적 행동을 분해해서 결합하는 것으로 인간을 완벽하게 흉내낼 수 있다는 믿음에 기반을 두고 있다. 미래에 어떤 파천황적인 모델이 제시될지는 모르겠지만, ‘판단’을 하지 못하는 현재의 AI모델에서는 그것이 불가능한 것처럼 보인다. 현존하는 어떤 뛰어난 LLM모델도 자체적인 결함을 인간적인 실수이자 환각이라는 의인화의 포장을 거치지 않으면 봐주기 어렵다. 이 경우 AI산업이 택할 수 있는 역발상이 존재한다.
대중의 지적 수준을 현존하는 모델의 성능 정도까지 떨어뜨리는 것으로 AI에 대한 사회적 기대 수준을 낮추면 AI의 실제 성능이 형편없더라도 그 정치적 영향력을 유지할 수 있게 된다. LLM을 통한 AI의 의인화 전략은 단순히 인간과 대화한다는 착각을 조장하여, LLM의 소비자들이 자신의 감정이나 판단의 기준을 LLM의 기준에 맞춰 생각하게끔 만든다. 지금은 단지 LLM 이용자들이 스스로 AI와 ‘대화’를 한다고 생각하여 LLM의 헛소리를 받아들여 자살을 한다거나 하는 정신적 건강의 악화 문제로 다뤄지고 있을 뿐이다. 하지만 이러한 현상은 그러한 착각을 조장하기 위해서든, 착각으로 조장된 것이든, 감정과 판단에 대한 대중의 인식이 LLM의 헛소리에 맞춰지고 있다는 점을 시사한다.
LLM의 기술적 결함이 인간적 실수라는 형태로 마케팅적 정당화를 거쳐 의인화됨으로써 인간적인 것으로 판매되는 한편, 그 처리과정은 여전히 불투명한 것으로 여겨지고 있다. 이 모호한 인식은 AI에 대한 모순적인 인식을 만들어내고, 그것이 AI의 신격화를 부추긴다. 단순히 ‘프로그램의 처리규칙’이라는 것 이상도 이하도 아닌 의미의 ‘알고리즘’이라는 단어를 ‘인간이 이해할 수 없고, 따라서 개입할 수 없는 마술적 법칙’으로 신격화하고, 인간보다 더 공정한 적합한 법칙이라는 의미로 받아들이고 있다.
이러한 태도는 중요한 정치적 함의를 갖는다. AI의 결함으로부터 인간의 중요성을 찾는 것이 아니라, AI가 인지하지 못하는 부분들을 중요하지 않은 것으로 여기게 되는 것이다. 자동화에 포섭 가능한 지식만을 유용한 지식으로, 자동화되기 어려운 지식은 불필요한 것으로 분류하는 자동화 과정은 그 자동화에 포섭되지 못한 지식을 점차 사회에서 잊혀지게 만든다. 루카스 플랜의 마이크 쿨리는 이와 같은 자동화 과정이 사회 전반적인 지식의 재생산과정을 파괴한다는 점을 지적한 바 있다. 이는 노동과정에서 구상하는 능력의 박탈에서 더 극적으로 나타나는데, 얼마 전 아마존 서버 서비스에서 문제가 벌어졌을 때, AI로 작업을 수행하는 신규 인력들의 작업은 숙련된 작업자의 검토가 이중으로 필요하다는 점이 지적되었는데, 동시에 AI를 사용하여 코드를 완성하는 신규 인력들의 경우 업무 내용 이해도가 현저하게 낮다는 점이 지적되었다. 자신들이 문제가 있는 코딩을 했을 때에도 그것을 검토할 능력 자체가 없다는 것이다. 이러한 지식의 단절이 노동과정뿐 아니라 전 사회적으로 퍼져나갈 땐 규격화될 수 없는 일상생활에서의 암묵적인 감각 등이 중요하지 않은 것으로 치부되어 잊혀진 기술이 되어버리고 만다는 점이 문제라는 것이다. 이것은 사회 전체의 지식량을 점진적으로 파괴하는 동시에, 그 지식의 재생산을 파괴하는 자동화 기술에 대한 종속성을 강화한다.
자본주의적 생산이 가장 보편적인 생산인 현재의 사회에서, 자본주의적 생산에 적용되는 법칙은 사회 전체에 적용된다. 즉, 그 자본주의적 생산에서 노동자의 숙련을 박탈하고 자동화하는 과정은, 사회 전반에서 대중의 숙련과 지식을 박탈하여 무지하게 만든 대중을 자동화 장치의 지적 권위에 복종시키는 과정으로 나타난다.
자동화로 절약된 노동시간을 자유시간으로 누릴 수 있을 것인가? 더욱 소외된 형태의 노동이 일반화된 사회에서 누리는 시간이라는 것은 자유로울 수 있을까? 노동의 소외를 강화시켜서라도 자동화시킬 수만 있다면 유토피아가 올 것이라는 ‘가속주의’는, 소외된 노동과정의 문제점이 사회 전체로 퍼져나간다는 것을 간과한 것이다.
현재의 과대평가된 AI가 인간사회의 발전은커녕 오히려 퇴보를 부추기고 퇴보한 수준을 평균화시키고 있다는 점은 오히려 이에 맞서는 것이 대중의 지적 성장을 위한 걸음일 수 있다는 점을 시사한다.
AI와 국가전략
2025년 11월 10일 유럽에서는 251명의 과학자들이 유럽위원회의 위원장에게 AI자본의 허황된 비과학적 마케팅 용어인 AGI나 초지능 따위에 동조하지 말 것을 요구하는 성명을 발표했다. 성명에 따르면, 다리오 아모데이, 젠슨 황, 샘 알트먼 등의 발언을 근거로 하는 결정은 그들의 비과학적인 마케팅적인 수사에 편승하는 것이며 AI부문이 심각한 투기 거품이 껴 있는 상황에서 과학부문에서 유럽의 신뢰를 해치는 것이다. 이와 같은 지적은 한국에서도 똑같이 적용될 수 있다.
마침 얼마 전 젠슨 황과 국내 재벌들의 맥주집 회동이 소동처럼 벌어졌던 한국에서 젠슨 황의 이해관계와 마케팅적인 수사에 대한 언급은 의미심장하다. 이미 광범위하게 지적되고 있는 AI거품이 터지는 것을 무시한다고 하더라도 문제는 남는다. 특히 젠슨 황의 엔비디아가 주권AI라고 이름붙인 패키지를 국가 단위로 판매하는 조건으로 표면적으로 국가로부터 제공받는 영토, 에너지, 자원뿐만이 아니라 실질적으로는 해당 국가에서 양질의 데이터를 빨아들일 뿐더러 기업의 운영비를 추가적으로 부담하게 하거나 상품의 사용을 강제하며 판매 대상이 되는 국가를 실질적으로 종속시킨다는 지적이 있다. 즉 정부 운영에 AI를 도입하는 경우 AI관련 산업에 의해 과대평가된 AI의 영향력이 그 기술결정론적으로 반영되어 더욱 중앙집권적이고 비민주적인 형태의 정치체를 강화시킨다는 점이 지적된다는 점을 고려할 필요가 있다. 물론 이것은 그 기술결정론적 이상향이 거품이나 고용창출(심지어는 고용감소를), 생태적 비용 등을 무시하고 이뤄졌다고 가정했을 때에도 사회가 감당해야 하는 문제다.
AI 어떻게 볼 것인가?
우스꽝스러운 AI, 무서운 AI
“저들도 (우리와 마찬가지로)죽을 수 있는 존재다.”
1533년 쿠스코로 진군하는 피사로 군대에 대한 비밀을 전달하던 잉카군 전령의 메시지
-에두아르노 갈레아노,[불의 기억]중 ‘비밀’ 편
다들 AI가 중요하다고 말한다. AI가 장차 모든 노동을 대체할 것이라며, AI의 흐름에 따라가지 못하면 뒤쳐져서 경쟁에서 패배할 것이라고 선전한다. AI, AX, DX, 피지컬 AI, 알고리즘, 환각, 거짓말 같은 AGI, 그걸로도 모자라 이젠 ASI 같은 조어까지 어지럽게 유행하고 있지만 정작 그 내용들이 무엇이며 구체적으로 무엇이 달라지는지 설명하지 않는다. 이러한 불친절함은 단순한 실수일까? 그렇지 않다. 그건 AI에 대해 착각을 불러일으키기 위해 의도된 불친절함이다. 그렇다면 누가 어떤 의도에서 그런 불친절함과 착각을 조장하고 있단 말인가? 그것을 알 수 있다면, AI는 경외해야 할 신비한 존재가 아니라, 파악해서 대처하고 관리 가능한 존재가 된다.
AI는 대단히 광범위한 개념이다. 원칙적으로는 인간의 지능을 흉내내는 그 모든 인공물도 AI라 불릴 수 있다. 2025년 현재 유행하는 기계학습류의 생성형 모델은 그 중 극히 일부분일 뿐이다. 지금 그것을 인공지능이라 부르면 대부분은 어색하게 느낄 계산기 또한 인간의 지적 활동인 계산을 흉내냈다는 점에서 AI라 부를 수 있다. 전자컴퓨터 활용 이후의 인공지능으로 한정하더라도 이미 인간의 모든 노동을 대체할 수 있으리라는 인공지능 붐은 이미 세 번째 반복되고 있다. 이전의 2회째의 붐은 어떻게 되었는가? AI분야에서 AI겨울이라 부르는 쇠퇴를 맞이했다. 이후 연산능력의 강화, 데이터의 다량 축적 등으로 지금 우리가 맞닥뜨린 세번째 붐이 재개되었다.
세 차례의 붐에서 매번 AI의 방법론은 바뀌었지만, 바뀌지 않고 일관적인 것이 있다. 인간의 지적 능력을 인간에게서 분리하여 인공물로 재현할 수 있다는 믿음, 즉 인간의 모든 행동양식을 완벽하게 대체할 것이라는 노동력의 완전 자동화에 대한 환상이다. 그렇다. AI에 대한 복잡한 논의의 핵심은 이것이 인간의 능력을 완전히 무력화시킬 수 있는가에 대한 시험이다. 그리고 그 시도는 근본적으로 불가능하다는 것을 실제 노동과정에 대한 적용 사례에서 확인할 수 있었다. 하지만 동시에 자동화에 대한 환상을 무기로 노동계급을 위협하기 위한 전략적인 수단으로써 활용되어왔다. 대중이 신기술의 신기함에 매료되면 될수록 해당 기술은 그 자체의 공학적 성능보다 더 과장된 정치적 수단으로 활용된다.
실제 직무적 실용성을 의심받는 생성형 모델과 다르게 실제 제품을 생산할 수 있는 공작기계인 N/C의 도입 역사를 살펴보자. 초기에 비용적으로 비효율적이었던 N/C는 노동과정에서 노동자의 통제력 약화라는 정치적 목적을 위해 정부(미 공군)의 막대한 투자로 도입되었다. 정치적 목적을 위한 노동과정에서의 신기술 도입이 총자본으로서의 정부의 역할에 의해 주도된다는 점은 현재의 미-중 AI경쟁과 최근 거의 모든 표현이 AI와 AX로 도배되다시피 한 한국의 경제발전 정책에 대단히 중요한 시사점을 던져준다. 현 시점에 유행하는 AI모델이 실제로 유용하게 될 것이냐를 논하기 전에 AI붐이 지속되고 강화되는 것에는 노동과정에서의 계급투쟁이라는 강력한 정치적 배경이 작동한다는 것이다. 노동자 대체에 대한 공포는 AI에 대한 몰이해에서 비롯된 과대평가의 부작용으로 언급되기도 하지만, 그 공포는 AI가 유일하게 실질적으로 유용할 수 있는 정치적 목적이다.
AI의 정치적 목적성을 비판적으로 접근하는 것은 기술결정론에서 벗어나기 위해서도 중요하다. AI의 성능상의 문제나 통계적 편향을 지적하는 것은 그 심각성을 고발하는 데 의미가 있겠지만, 결정적으로 기술결정론적 편향을 극복하기 위해서는 기술에 대한 사회적 관점에서의 비판이 필요하다.
그렇다면 AI의 신화, 구체적으로 현 시점에 맞이한 3차 AI붐의 딥러닝 모델은 어떻게 신화화될 수 있었는가?
지금 유행하는 이게 대체 무엇인가? “응용통계”- 테드 창(SF작가)
유명 SF 작가인 테드 창은 현재 유행하는 생성형 모델에 대해 ‘의도와 지능이 없는 응용통계’라고 규정했다. SF 장르가 종종 기술의 발전 방향성을 제시해왔음을 다시 떠올리게 할 정도로 명료하면서 현재의 생성형 모델의 특징을 잘 짚어낸 표현이다. 대중적으로 사람과의 대화를 흉내내는 듯한 GPT나 Gemine 등의 LLM 모델(대규모 언어 모델) 방식이 사용되면서 AI에게 판단력이 있다는 착각이 퍼져 있지만, 실제로 AI는 판단을 하지 못한다. 딥러닝에서의 추론은 새로운 것을 ‘생각하는’ 것이 아니라, 기존에 인간들이 ‘내뱉은 정보’를 적당히 잘 추슬러서 일반적인 통념을 반복하는 것뿐이다. AI 산업에 깊은 이해관계가 있는 일론 머스크가 AI가 학습할 ‘새로운 데이터’가 고갈되었다며, 생성형 모델이 만들어낸 데이터를 학습하면 생성형 모델의 결과물이 더 형편없어진다고 토로하고 있다. 생성형 모델이라 알려진 프로그램조차도 실제로는 ‘생성’하는 것이 아니라 인간들이 만들어낸 것들의 반복이었다는 것이 드러나고 있는 것이다.
현재 유행하는 딥러닝 모델의 한계는 그게 지속적인 인간의 새로운 작업물을 소비하지 못한다면, 점차 사회 전체의 지식풀을 오염시키고, 그 결과 모델 자체의 결과물까지 퇴화한다는 점에서 잘 드러난다. 결국 인간의 그림자조차 되지 못하는 모델이 인간 그 자체인 듯하게 작동한다는 환상은 어떤 식으로 만들어지고 있는 것일까? 그 전부를 다루지는 못하겠지만, ‘의인화’라는 관점에서 몇 가지 사례를 언급할 수 있다.
단적으로 LLM은 헛소리를 한다. 흔히 ‘환각’이라는 표현으로 포장된 헛소리는 성능적 결함임에도 인간적인 실수의 영역으로 포장되어 AI 산업계의 종사자 등을 통해 발언되고 언론 등을 통해 전파된다. 그리고 그 의인화는 AI가 실제 성능보다 훨씬 뛰어난 작업을 하고 있다는 착각으로 이어져 과도한 맹신이나 과도한 공포감을 불러일으킨다. 덧붙이면 LLM이 요청에 대해 헛소리를 늘어놓는 것을 ‘환각’이라고 부르는 것 또한 AI를 의인화시켜 사람과 비슷하다고 믿게 만드는 마케팅 전략의 선택이다. 이렇게 어떤 의도를 갖지 않은 것이 의도를 가진 존재인 듯하게 착각하는 것은 이미 ‘ELIZA(일라이자) 효과’라는 명칭까지 부여된 현상이다.
앞서 설명한 AI에 대한 사기에 가까운 과장된 묘사들은 이번 2010년대 이후의 붐에 한정되는 것이 아니라 과거의 AI붐에서도 동일하게 나타났던 현상이다. AI를 지나치게 광범위하고 모호한 표현으로 정의하며, 규제 철폐라는 형태로 AI 산업에 비판 불가능한 무소불위의 권력을 쥐어주기만 하면 사회의 모든 문제를 해결할 수 있다는 식의 표현을 남발하여, 특히 기술적 이해도가 낮은 비전문가들을 상대로 과장된 가능성을 기술결정론적으로 받아들이게끔 스스로를 묘사해왔다.
의인화로 부풀려진 AI의 가능성은 자칭 전문가들을 양산하고 그것이 다시 기술결정론적인 전문가주의를 강화시키는 악순환이 벌어지고 있다. 심지어 이런 과대평가에서 비롯된 공포감은 AI에 대한 과잉투자뿐 아니라 군비경쟁을 강화하는 추세로 나타난다. 과잉된 투자는 막대한 물과 전기를 낭비하고 다른 곳에 쓰일 수 있던 사회적 역량을 낭비하는 결과로 나타난다. 뿐만 아니라 AI만능론으로 대체되어 자동화된 부문에서의 인간의 숙련 지식은 이해할 수 없는 것으로 상실되고 만다.
AI는 대중의 지적 수준을 파괴하고 있다.
AI붐은 자동화에 대한 강한 욕망이다. 그것은 인간의 지적 행동을 분해해서 결합하는 것으로 인간을 완벽하게 흉내낼 수 있다는 믿음에 기반을 두고 있다. 미래에 어떤 파천황적인 모델이 제시될지는 모르겠지만, ‘판단’을 하지 못하는 현재의 AI모델에서는 그것이 불가능한 것처럼 보인다. 현존하는 어떤 뛰어난 LLM모델도 자체적인 결함을 인간적인 실수이자 환각이라는 의인화의 포장을 거치지 않으면 봐주기 어렵다. 이 경우 AI산업이 택할 수 있는 역발상이 존재한다.
대중의 지적 수준을 현존하는 모델의 성능 정도까지 떨어뜨리는 것으로 AI에 대한 사회적 기대 수준을 낮추면 AI의 실제 성능이 형편없더라도 그 정치적 영향력을 유지할 수 있게 된다. LLM을 통한 AI의 의인화 전략은 단순히 인간과 대화한다는 착각을 조장하여, LLM의 소비자들이 자신의 감정이나 판단의 기준을 LLM의 기준에 맞춰 생각하게끔 만든다. 지금은 단지 LLM 이용자들이 스스로 AI와 ‘대화’를 한다고 생각하여 LLM의 헛소리를 받아들여 자살을 한다거나 하는 정신적 건강의 악화 문제로 다뤄지고 있을 뿐이다. 하지만 이러한 현상은 그러한 착각을 조장하기 위해서든, 착각으로 조장된 것이든, 감정과 판단에 대한 대중의 인식이 LLM의 헛소리에 맞춰지고 있다는 점을 시사한다.
LLM의 기술적 결함이 인간적 실수라는 형태로 마케팅적 정당화를 거쳐 의인화됨으로써 인간적인 것으로 판매되는 한편, 그 처리과정은 여전히 불투명한 것으로 여겨지고 있다. 이 모호한 인식은 AI에 대한 모순적인 인식을 만들어내고, 그것이 AI의 신격화를 부추긴다. 단순히 ‘프로그램의 처리규칙’이라는 것 이상도 이하도 아닌 의미의 ‘알고리즘’이라는 단어를 ‘인간이 이해할 수 없고, 따라서 개입할 수 없는 마술적 법칙’으로 신격화하고, 인간보다 더 공정한 적합한 법칙이라는 의미로 받아들이고 있다.
이러한 태도는 중요한 정치적 함의를 갖는다. AI의 결함으로부터 인간의 중요성을 찾는 것이 아니라, AI가 인지하지 못하는 부분들을 중요하지 않은 것으로 여기게 되는 것이다. 자동화에 포섭 가능한 지식만을 유용한 지식으로, 자동화되기 어려운 지식은 불필요한 것으로 분류하는 자동화 과정은 그 자동화에 포섭되지 못한 지식을 점차 사회에서 잊혀지게 만든다. 루카스 플랜의 마이크 쿨리는 이와 같은 자동화 과정이 사회 전반적인 지식의 재생산과정을 파괴한다는 점을 지적한 바 있다. 이는 노동과정에서 구상하는 능력의 박탈에서 더 극적으로 나타나는데, 얼마 전 아마존 서버 서비스에서 문제가 벌어졌을 때, AI로 작업을 수행하는 신규 인력들의 작업은 숙련된 작업자의 검토가 이중으로 필요하다는 점이 지적되었는데, 동시에 AI를 사용하여 코드를 완성하는 신규 인력들의 경우 업무 내용 이해도가 현저하게 낮다는 점이 지적되었다. 자신들이 문제가 있는 코딩을 했을 때에도 그것을 검토할 능력 자체가 없다는 것이다. 이러한 지식의 단절이 노동과정뿐 아니라 전 사회적으로 퍼져나갈 땐 규격화될 수 없는 일상생활에서의 암묵적인 감각 등이 중요하지 않은 것으로 치부되어 잊혀진 기술이 되어버리고 만다는 점이 문제라는 것이다. 이것은 사회 전체의 지식량을 점진적으로 파괴하는 동시에, 그 지식의 재생산을 파괴하는 자동화 기술에 대한 종속성을 강화한다.
자본주의적 생산이 가장 보편적인 생산인 현재의 사회에서, 자본주의적 생산에 적용되는 법칙은 사회 전체에 적용된다. 즉, 그 자본주의적 생산에서 노동자의 숙련을 박탈하고 자동화하는 과정은, 사회 전반에서 대중의 숙련과 지식을 박탈하여 무지하게 만든 대중을 자동화 장치의 지적 권위에 복종시키는 과정으로 나타난다.
자동화로 절약된 노동시간을 자유시간으로 누릴 수 있을 것인가? 더욱 소외된 형태의 노동이 일반화된 사회에서 누리는 시간이라는 것은 자유로울 수 있을까? 노동의 소외를 강화시켜서라도 자동화시킬 수만 있다면 유토피아가 올 것이라는 ‘가속주의’는, 소외된 노동과정의 문제점이 사회 전체로 퍼져나간다는 것을 간과한 것이다.
현재의 과대평가된 AI가 인간사회의 발전은커녕 오히려 퇴보를 부추기고 퇴보한 수준을 평균화시키고 있다는 점은 오히려 이에 맞서는 것이 대중의 지적 성장을 위한 걸음일 수 있다는 점을 시사한다.
AI와 국가전략
2025년 11월 10일 유럽에서는 251명의 과학자들이 유럽위원회의 위원장에게 AI자본의 허황된 비과학적 마케팅 용어인 AGI나 초지능 따위에 동조하지 말 것을 요구하는 성명을 발표했다. 성명에 따르면, 다리오 아모데이, 젠슨 황, 샘 알트먼 등의 발언을 근거로 하는 결정은 그들의 비과학적인 마케팅적인 수사에 편승하는 것이며 AI부문이 심각한 투기 거품이 껴 있는 상황에서 과학부문에서 유럽의 신뢰를 해치는 것이다. 이와 같은 지적은 한국에서도 똑같이 적용될 수 있다.
마침 얼마 전 젠슨 황과 국내 재벌들의 맥주집 회동이 소동처럼 벌어졌던 한국에서 젠슨 황의 이해관계와 마케팅적인 수사에 대한 언급은 의미심장하다. 이미 광범위하게 지적되고 있는 AI거품이 터지는 것을 무시한다고 하더라도 문제는 남는다. 특히 젠슨 황의 엔비디아가 주권AI라고 이름붙인 패키지를 국가 단위로 판매하는 조건으로 표면적으로 국가로부터 제공받는 영토, 에너지, 자원뿐만이 아니라 실질적으로는 해당 국가에서 양질의 데이터를 빨아들일 뿐더러 기업의 운영비를 추가적으로 부담하게 하거나 상품의 사용을 강제하며 판매 대상이 되는 국가를 실질적으로 종속시킨다는 지적이 있다. 즉 정부 운영에 AI를 도입하는 경우 AI관련 산업에 의해 과대평가된 AI의 영향력이 그 기술결정론적으로 반영되어 더욱 중앙집권적이고 비민주적인 형태의 정치체를 강화시킨다는 점이 지적된다는 점을 고려할 필요가 있다. 물론 이것은 그 기술결정론적 이상향이 거품이나 고용창출(심지어는 고용감소를), 생태적 비용 등을 무시하고 이뤄졌다고 가정했을 때에도 사회가 감당해야 하는 문제다.