Governance & Ethics

AI 과대광고, 수익으로 가는 2단계는 어디에?

AI 반대 시위 전단지 한 장이 핵심을 꿰뚫는다. 1단계: 초지능 구축. 3단계: 수익 창출. 그럼 2단계는? 과대광고를 빨아들이는 블랙홀이다.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
AI 반대 시위 전단지가 1단계부터 수익 창출까지의 과정을 물음표로 조롱하고 있다

Key Takeaways

  • AI 과대광고는 2단계, 즉 모델에서 수익으로 가는 길을 건너뛴다. Mercor 테스트 결과는 에이전트들이 480가지 실제 업무에서 실패했음을 보여준다.
  • Anthropic과 같은 연구는 증거가 아닌 추측에 기반한다. 코딩상의 이점은 전략이나 판단력으로 이어지지 않는다.
  • 닷컴 버블의 비유는 기업 ROI 없이는 붕괴를 경고한다. 2026년까지 AI 업계의 대규모 정리 해고를 예상해야 한다.

2월의 런던, 차가운 공기가 코트를 뚫고 파고드는 빗속에서 열린 AI 반대 시위. 이때, ‘Pause AI’가 뿌린 전단지 한 장이 눈길을 사로잡는다. 이대로라면 AI 산업의 거창한 계획은 조롱거리가 될 판이다.

그 전단지 말이다. 1단계: 디지털 초지능을 키운다. 2단계: ? 3단계: ?

1998년, ‘사우스 파크’의 노움들이 속옷을 훔쳐 돈을 벌겠다는 계획을 세웠던 것보다 더 나을 게 없다. 이제 AI가 그 꼴이다. OpenAI, Anthropic 같은 기업들은 모델을 쏟아내고 ‘혁신적인 미래’를 떠들어대지만, 그 텅 빈 2단계를 누가 채울 것인가?

Pause AI는 잠시 멈추고 규제를 통해 이 혼란을 정리해야 한다고 주장한다. 반면, 옹호론자들은 구원처럼 달려가며 이 공허함을 애써 외면한다. OpenAI의 수석 과학자인 야쿱 파초키는 이를 ‘경제적으로 혁신적인 기술’이라고 칭찬하지만, 이는 밝은 말뿐, 지도 없는 여정이다.

왜 AI의 2단계는 노움들의 발표자료처럼 느껴질까?

홍보 문구를 걷어내자. 두 건의 연구가 진실을 드러낸다. Anthropic은 LLM이 관리자, 설계자, 미디어 업계 종사자에게 가장 큰 영향을 미칠 것이라고 예측한다. 물론, 당분간은 잔디깎는 사람들은 안전할 것이다. 하지만 이 예측은 실험실 과제에 기반한 것일 뿐, 실제 사무실의 혼란과는 거리가 멀다.

AI 채용 업체인 Mercor는 OpenAI, Anthropic, Google DeepMind의 최고 에이전트들을 대상으로 480명의 실제 은행원, 컨설턴트, 변호사 직무를 테스트했다. 결과는? 모든 분야에서 처참한 실패였다.

그들이 테스트한 모든 에이전트는 대부분의 업무를 완료하지 못했습니다.

이것이 바로 그 인용문이다. 군더더기 없이 잔인하다. 왜 이런 간극이 생길까? 주장하는 사람들은 이해관계가 걸려 있다. Anthropic은 ‘안전’을 팔기 위해 혼란을 예측한다. 과대광고는 코딩 도구의 속도를 탔지만, 전략이나 판단력은? LLM은 거기서 완전히 무너진다.

실제 세상은 사람과 워크플로우의 저항으로 복잡해진다. AI를 위해 그것들을 다 뜯어고치는가? 시간과 용기가 필요한 일인데, 기업들은 그걸 가지고 있지 않다.

진공 상태에는 터무니없는 주장들이 빨려 들어간다. 하나의 게시물이 시장을 뒤흔들기도 한다. 그러나 아무런 증거도 우리를 붙잡지 못한다.

이것이 바로 독특한 통찰력이다. 이 상황은 닷컴 버블 시절인 1999년을 떠올리게 한다. 당시에는 광케이블과 서버가 쌓여갔고(1단계), 수익은 증발했으며(3단계 없음), 2단계, 즉 실제 전자상거래의 생존 가능성이 처참한 붕괴를 겪고 나서야 드러났다. AI 역시 같은 정화 과정을 겪을 위험이 있다. 복잡한 기업 환경에서 ROI를 증명하지 못하면, 그저 버블 2.0에 불과하다.

AI 에이전트, 과연 직무를 제대로 수행할 수 있을까?

곧 그렇게 되기는 어렵다. 연구 결과들은 코딩 외 직무에서의 실패를 외치고 있다. 은행 업무의 정밀함? 법률의 미묘함? 컨설턴트들은 인간만이 파악할 수 있는 ‘행간 읽기’에 능한데, 이는 AI의 사각지대다.

모델 개발사들은 데이터를 독점하고, 블랙박스 형태로 배포한다. 투명성과 실제 환경에서의 벤치마크가 필요하다. 기업들은 연구자들과 협력해야 한다. 그렇지 않으면 끝없는 추측만 반복될 뿐이다.

업계는 혁신에 모든 것을 걸고 있다. 아직 확실한 승부는 아니다. 다음 대담한 주장은? 속옷 도둑을 기억하라.

냉소적이라고? 20년간의 밸리에서 경험한 교훈: 과대광고는 투자 라운드를 채우지만, 현실은 무덤을 채운다. 누가 지금 이득을 보는가? 아마도 전단지를 인쇄하는 활동가들일 것이다. VC는? 2단계가 확고해질 때까지 기다려야 한다.

AI의 2단계를 해결할 방법은 규제뿐인가?

Pause AI는 그렇다고 말한다. 안전할 때까지 멈추자는 것이다. 하지만 강제성은? 전 세계적인 골칫거리다. EU의 AI 법은 가장자리를 긁을 뿐, 미국은? 로비스트들이 잔치를 벌인다.

옹호론자들은 혁신을 죽인다고 비난한다. 진실은 이렇다. 규제는 2단계의 명확성을 강제한다. 그렇지 않으면 우리는 영원히 과대광고의 굴레를 벗어나지 못할 것이다.

Mercor의 테스트가 예외는 아니다. 에이전트들을 연결하고 파인튜닝해도, 엣지 케이스에서는 여전히 실패한다. 워크플로우가 얽히고설키면, AI가 끼어들어 상황을 더 악화시킬 뿐이다.

역사적 비유가 와닿는다. 닷컴 버블 이후 통신업계의 붕괴는 인프라만으로는 수익화 없이는 실패한다는 것을 보여줬다. AI 연구소들은 매개변수를 쌓아 올리고(1단계), AGI의 금을 약속하지만(3단계), 2단계는 10배의 이익을 증명하는 기업 파일럿을 요구한다. 하지만 그런 사례는 드물다.

예측? 2026년에는 대규모 정리 해고가 있을 것이다. 현재 에이전트의 절반은 폐기될 것이고, 살아남는 것들은 단순 반복 업무에 국한될 것이다. 광범위한 변화? 빨라야 2030년, 어쩌면 영원히 오지 않을 수도 있다. 기업들은 증거를 기다리며 현금을 비축하고 있다.

경제는 약속에 매달려 있다. Pause AI 같은 회의론자들은 허점을 파고든다. 현명한 투자자들은 기조연설이 아닌, Mercor와 같은 평가를 주시한다.

그 전단지 말이다? 예언적이다. 2단계를 채우든가, 아니면 노움들과 함께 밈(meme) 지옥으로 떨어지든가.


🧬 관련 인사이트

자주 묻는 질문

AI의 ‘누락된 2단계’란 무엇인가요?

강력한 모델 구축에서 실제 수익 창출 및 혁신으로 이어지는 불분명한 경로를 말합니다. 연구에 따르면 AI 에이전트들은 실제 업무에서 실패하고 있습니다.

AI 에이전트들이 정말 직무를 제대로 수행하지 못하나요?

네, Mercor의 테스트 결과 OpenAI의 최고 모델들을 포함한 480가지 업무에서 대부분의 의무를 완료하지 못했습니다.

규제가 AI 과대광고를 해결할 수 있을까요?

규제는 약속 대신 증거를 강제할 수 있지만, 전 세계적인 시행은 뒤처지고 있습니다.

Written by
Legal AI Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by MIT Tech Review - Policy