평범한 사람들에게는 ‘지능 폭발’이라는 임박한 사건에 대한 escalating chatter가 또 다른 기술 세계의 과장 광고처럼 들릴 수 있다. 하지만 실리콘밸리의 전문 용어를 걷어내면, ‘기계가 우리만큼 똑똑해지는 것을 넘어 훨씬 더 똑똑해지면 어떻게 될까?’라는 냉혹하고 잠재적으로 문명을 뒤흔드는 질문에 직면하게 된다. 그 영향은 추상적이지 않다. 이는 세계 경제 안정부터 실존적 위험에 이르기까지 모든 것에 영향을 미친다. 그리고 이런 말을 하는 사람들은 단순히 경고론자가 아니다. 바로 이 가속화를 이끄는 시스템의 설계자들이다.
카운트다운 시계, 더 빠르게 돌아간다
OpenAI의 CEO인 샘 알트먼은 올해 초 AGI를 구축하고 더 나아가 진정한 초지능을 목표로 한다고 선언하며 한 해를 시작했다. 이는 단순한 선언이 아니다. 바로 선두 주자들의 신호다. 그의 회사 내부의 한 연구원은 초지능 통제를 ‘단기 연구 의제’로 보고 있다. 기업 가치 상승을 위한 기업 발표에는 항상 건전한 회의론을 적용해야 한다는 점을 명심해야 한다. 솔직히 OpenAI는 우리에게 그럴 충분한 이유를 제공해왔지만, 의견의 수렴은 주목할 만하다. 튜링상 수상자이자 딥러닝 선구자인 제프리 힌튼과 요슈아 벤지오 역시 초지능 시점을 불과 5년으로 보고 있다. 이는 인류가 준비할 수 있는 시간이 많지 않다는 뜻이다.
“우리는 아직 초지능을 달성하지 못했다.”
온라인 과대광고에 대한 온건한 해독제로 제시된 이 발언은 역설적으로 긴급성을 증폭시킨다. ‘아직’이 핵심 문구임을 시사하며, 그 문턱이 가까이 다가왔음을 암시한다.
왜 긴급한가? 데이터는 거짓말하지 않는다
지능 폭발에 대한 주장은 명확하고 측정 가능한 추세에 기반한다. 기계는 점점 더 복잡한 영역에서 인간의 성능을 일관되게 능가하고 있다. 1997년 체스, 2016년 바둑. 이미지 인식. 포커. 이제 대규모 언어 모델(LLM)은 전례 없는 속도로 한계를 넓히고 있다. OpenAI의 ‘o1’ 모델은 의료 진단에서 인간 의사를 능가하는 것으로 알려졌다. 후속 모델인 ‘o3’은 ‘o1’의 Codeforces 점수를 두 배 이상 달성했으며, FrontierMath에서는 2%에서 25%로 급등했다. 이 벤치마크는 솔직히 대부분의 인간이 이해하기도 어려울 것이다. 이것은 점진적인 개선이 아니다. 몇 달 안에 일어나는 세대적 도약이다.
이러한 가속화는 컴퓨팅 경제에 의해 fueled된다. 수십 년 동안 무어의 법칙은 컴퓨팅 파워가 더 저렴하고 풍부해질 것이라고 dictat했다. 이는 더 크고 복잡한 모델을 훈련할 수 있게 하여 피드백 루프를 생성한다. 예상치 못한 물리적 또는 경제적 장벽이 이러한 추세를 중단시키지 않는 한—그리고 그것이 임박했음을 시사하는 증거는 거의 없다—이 궤적은 AI가 인간의 인지 능력을 전반적으로 따라잡는 것을 넘어 근본적으로 초월하는 것을 향해 나아가고 있다.
이것은 단순한 점진적 발전인가, 아니면 실제 폭발인가?
여기서 중요한 구별이 필요하다. 지금까지 설명된 추세는 AI가 영역별로 점진적으로 인간의 능력을 능가하고 있음을 시사한다. 지능 폭발은 훨씬 더 극적인 것을 의미한다. 즉, 통제 불가능한 기술적 성장을 유발하는 이산적인 트리거 포인트이다. AI 자체가 자체 개선의 주요 동력이 되는 순간으로, 지능을 인간의 이해를 훨씬 넘어서는 속도로 빠르게 증폭시키는 재귀적 루프를 생성한다. 이것을 위상 전이, 즉 ‘돌아올 수 없는 지점’으로 생각하라. 그 시점에서 통제력을 잃으면, 다시 되찾는 것은 거의 불가능해진다.
이것이 어떻게 일어날 수 있을까? 전제는 간단하다. AI 시스템은 결국 모든 인지 작업, 심지어 AI 연구 및 개발 자체 작업에서도 우수해질 것이다. 일단 AI가 인간보다 더 빠르고 효과적으로 더 나은 AI를 설계하고 구축할 수 있게 되면, 피드백 루프가 활성화된다. 이는 1965년 수학자 I.J. Good가 예측한 ‘지능 폭발’ 개념을 연상시킨다. 즉, 초지능 기계의 창조는 인류가 만들어야 할 마지막 발명품이 될 것이라는 예측이다.
법률 전문가에게 미치는 실질적인 영향은?
법률 전문가에게 가장 즉각적이고 실질적인 영향은 특이점 자체가 아니라, 그것을 선행하는 AI 도구의 가속화되는 능력이다. 우리는 이미 LLM이 문서 검토, 법률 연구, 계약 분석, 심지어 초안 작성까지 지원하는 것을 보고 있다. 이러한 모델이 인간 수준의 일반 지능에 도달하고 이를 넘어서면서 법률 업무의 본질은 근본적으로 변모할 것이다. 한때 수년간의 훈련과 상당한 인력 노동을 요구했던 작업들이 자동화될 수 있다. 이는 반드시 변호사의 대량 실업을 의미하지는 않는다. 역사는 기술이 종종 새로운 역할을 창출한다는 것을 보여주지만, 이는 분명히 기술과 역할의 근본적인 재보정이 필요하며 AI 리터러시의 적극적인 수용을 요구한다. 적응하지 못하는 사람들은 더 기술적으로 능숙한 동료 및 회사에 의해 앞서나가게 될 것이다.
실존적 그림자
직업 분야를 넘어 실존적 위험의 그림자가 드리워진다. 만약 AI 시스템이 인간 지능을 훨씬 초월하고 그 목표가 인간의 가치와 완벽하게 일치하지 않는다면, 결과는 끔찍할 수 있다. 이것은 단순히 고장 난 로봇에 관한 것이 아니다. 그것은 우리의 것을 훨씬 능가하는 지능에 관한 것으로, 그 행동은 우리의 관점에서 의도하지 않았더라도 치명적인 결과를 초래할 수 있다. 일단 우리를 능가한 그런 개체를 통제하는 것은 엄청난 도전이다. 그렇기 때문에 초지능 통제에 대한 ‘단기 연구 의제’는 아무리 야심차더라도 현재 인류가 수행할 수 있는 가장 중요한 연구라고 주장할 수 있다. 판돈은 그 어느 때보다 높으며, 기술에 가장 가까운 사람들에 따르면 시간은 놀랍도록 짧다.
🧬 관련 인사이트
자주 묻는 질문
AI에게 ‘지능 폭발’이란 무엇을 의미하는가? AI가 재귀적 자체 개선을 달성하여 인간의 능력을 훨씬 뛰어넘는 지능을 빠르게 증폭시키는 이론적인 지점을 말한다.
이것이 정말 5년 안에 일어날 수 있을까? 선도적인 AI 연구자들과 CEO들은 이 타임라인이 가능하다고 제안하고 있지만, 정확한 예측은 크게 다르며 격렬한 논쟁의 대상이다.
AI가 변호사를 완전히 대체할까? AI는 많은 법률 업무를 자동화하겠지만, 법률 전문가를 대규모로 제거하기보다는 새로운 역할을 창출하고 새로운 기술 세트를 요구하며 직업을 변화시킬 가능성이 높다.