2025년 6월 27일 금요일

AI의 아버지가 경고하는 4년 후의 미래: 인공지능이 인간을 넘어서는 날

 AI 아버지가 경고하는 4 후의 미래: 인공지능이 인간을 넘어서는

AI 아버지로 불리는 제프리 힌튼이 자신이 만든 창조물을 두려워하며 신변 정리를 하고 있다는 소식이 전해졌다. 그는 우리에게 남은 시간이 4 정도라고 믿고 있으며, AI 인간을 넘어설 확률을 50% 이상으로 보고 있다.


만약 NASA 행성 방어 책임자가 향후 4 내에 소행성이 인류를 멸망시킬 확률을 50% 이상이라고 발표한다면 어떨까? 그런데 이런 경고가 나오는 걸까?



스스로 학습하는 AI 등장

최근 딥시크 R1 같은 AI 모델들이 완전히 독립적으로 새로운 추론 기법을 스스로 가르치는 모습을 보여주고 있다. 이는 단순히 인간을 모방하는 것이 아니라, AI 독립적으로 사고하고 있다는 증거다. 이런 자각 능력이 연구자들의 예상보다 훨씬 빠르게 발전하고 있다.


2027년까지 AI 모델들이 AI 연구자나 엔지니어의 업무를 수행할 있을 것이라는 전망이 현실적으로 보인다. 이는 공상과학 소설을 믿어야 하는 아니라, 단순히 그래프의 직선을 믿으면 되는 수준이다.


내용은 OpenAI 연구원인 레오폴드 아셴브레너의 보고서를 바탕으로 하고 있으며, 워싱턴 내부자들에 따르면 보고서가 고위 관료들 사이에서 회람되고 있다고 한다.


놀라운 발전 속도의 역사

불과 2 , OpenAI GPT-4 출시했을 AI 능력에 대한 우리의 믿음이 완전히 흔들렸다. GPT-4 코드와 에세이를 작성하고, 어려운 수학 문제를 추론하며, 대학 시험에서 우수한 성적을 거둘 있는 AI 시스템이었다. 전만 해도 대부분의 사람들이 이런 능력들을 뚫을 없는 벽이라고 생각했다.


10 전만 해도 모델들은 고양이와 개의 단순한 이미지조차 제대로 식별하지 못했다. 4 GPT-2 그럴듯한 문장을 연결하는 것도 겨우 있는 수준이었다.


이제 우리는 최첨단 AI 모델들에게 도전할 만큼 어려운 벤치마크를 설계하는 것조차 어려운 지경에 이르렀다. 예전에는 벤치마크를 깨는 수십 년이 걸렸지만, 이제는 달이면 충분하다. 모델들은 우리가 던지는 모든 것을 해내고 있다.


발전 속도의 구체적 비교

2019 GPT-2 겨우 다섯까지 있는 유치원생 수준이었다. 1 GPT-3 일관된 이야기를 쓰고 간단한 코드를 작성할 있는 초등학생 수준이 되었다. 2022 GPT-4 복잡한 코드를 생성하고 고등학교 수준의 고급 수학 문제를 해결하며, 표준화된 시험에서 대부분의 인간을 능가하는 성과를 보였다.


우리는 AI 4 만에 유치원생에서 영재 고등학생 수준으로 발전하는 것을 목격했다. 다른 분야와 비교했을 AI 발전 속도는 인류 역사상 전례가 없는 수준이다.


OpenAI 경쟁 프로그래밍 능력 발전을 보면 더욱 놀랍다. 처음 추론 모델은 상위 100 번째 수준의 경쟁 프로그래머였는데, 사람들은 이것도 인상적이라고 생각했다. 다음 모델은 상위 1 번째 수준에 도달했고, O3 현재 세계에서 175번째로 뛰어난 경쟁 프로그래머다. 내부 벤치마크로는 이미 50 수준이며, 올해 말까지 1위에 도달할 수도 있다고 한다.


인류 최후의 시험

우리는 AI에게 시험을 내서 능력을 측정할 없게 것이다. 헨드릭스가 만든 '인류 최후의 시험' 지금까지 만들어진 가장 도전적인 AI 벤치마크다. 가장 경험 많은 도메인 전문가들을 제외하고는 모두에게 완전한 횡설수설로 보이는 3,000개의 질문으로 구성되어 있다.


AI 해당 분야 최고 전문가들만 이해할 있는 문제를 해결할 있게 되면, 어려운 테스트를 설계하는 자체가 너무 어려워진다. 이미 우리는 AI 에이전트의 능력을 시험 점수가 아닌 돈을 버는 능력으로 측정하기 시작했다. OpenAI 최신 벤치마크는 최첨단 LLM들이 실제 프리랜스 소프트웨어 엔지니어링 작업으로 100 달러를 있는지 평가한다. 놀랍게도 AI들은 이미 자수성가 백만장자가 되는 길의 40% 달성했다.


처음에 최첨단 AI 모델들은 인류 최후의 시험에서 10% 넘지 못했다. 2 OpenAI 리서치는 26% 기록했다. 현재 진행 속도로 보면, 전문가들은 인류 최후의 시험이 향후 1-2 내에 해결될 것으로 예측하고 있다.


AI 발전을 이끄는 가지 동력

1. 컴퓨팅 파워의 폭발적 증가

OpenAI Sora 훈련시키는 방식을 보면, 기본 컴퓨팅 파워에서는 이미지의 모호한 윤곽만 보이지만, 32배로 확장하면 완전히 변화한다. 컴퓨터 대를 상상해보자. 이제 그것들로 가득 창고를 상상해보자. 그리고 세계 수천 개의 창고가 모두 하나의 목적, 점점 똑똑한 AI 시스템을 훈련시키는 전념하고 있다고 상상해보자.


무어의 법칙은 수십 동안 컴퓨터 처리 능력이 대략 2년마다 배씩 증가할 것이라고 예측했다. 이는 10년당 1-1.5 OOM(Order of Magnitude, 차수) 증가를 의미한다. 하지만 AI 컴퓨팅 성장은 무어의 법칙을 완전히 압도했다. 현재 우리는 무어의 법칙이 예측한 것보다 5 빠른 개선을 보고 있다.


OpenAI 미국 정부는 이미 프로젝트 스타게이트를 발표했다. 이는 GPT-4보다 1000 많은 컴퓨팅을 사용하는 데이터 센터 구축과 훈련 실행 계획으로, 예상 예산이 1000 달러를 넘는다. 모든 것이 향후 내에 이루어질 예정이다.


2. 알고리즘 효율성의 혁신

컴퓨팅이 대부분의 헤드라인을 장식하지만, 알고리즘 효율성, 적은 자원으로 많은 것을 있는 능력이 조용히 AI 혁신하고 있다. 이는 단순히 오래 공부하는 것이 아니라 나은 학습 기법을 개발하는 것과 같다.


구체적인 예를 보면, 수학 벤치마크에서 50% 정확도를 달성하는 비용이 2 만에 1000, 3 OOM 감소했다. 한때 거대한 데이터 센터가 필요했던 작업을 이제 아이폰으로 있다.


지난 10 동안 연구자들은 컴퓨팅 효율성 향상을 지속적으로 달성해왔다. 1 OOM 컴퓨팅 효율성은 같은 수준의 효과를 10 저렴한 비용으로 실행할 있다는 의미다. 2 10개의 GPU 필요했던 작업을 이제 1개로 있다.


레오폴드 아셴브레너의 분석에 따르면, GPT-2 GPT-4 사이의 알고리즘 효율성 향상은 대략 1-2 OOM 효과적인 컴퓨팅 향상을 가져왔다. 이는 연구자들이 나은 알고리즘을 발견했기 때문에 10-100 저렴한 모델을 의미한다.


추세가 계속된다면, 2027년까지 GPT-4 수준의 AI 100 저렴하게 실행할 있을 것이다. 만약 자동차가 AI 속도로 개선되었다면, 5 달러짜리 테슬라가 4 만에 500달러가 되고 로켓만큼 빠르게 달릴 있을 것이다.


3. 언홉블링(Unhobbling): 제약의 해제

번째이자 가장 예측하기 어려운 AI 발전 동력은 레오폴드 아셴브레너가 '언홉블링'이라고 부르는 것이다. 이는 AI 시스템이 놀라운 원시 지능을 사용하지 못하게 하는 제약을 제거하는 것이다.


예를 들어, 복잡한 수학 문제를 해결하려고 하는데 가지 제약이 있다고 상상해보자. 머릿속에 떠오르는 번째 답을 말해야 하고, 종이를 사용하거나 작업 과정을 보여줄 없다. 초기 AI 모델들이 바로 이런 식으로 작동했다.


이를 해결하기 위해 연구자들은 LLM에게 자체적인 사고 과정을 제공하기 시작했다. AI 문제를 단계별로 분해할 있도록 하여 문제 해결 능력을 극적으로 향상시켰다. 명백한 제약을 해결하는 필요한 것은 작은 알고리즘 조정뿐이었다.


딥시크 R1 OpenAI O1, O3 이것의 연장선이다. 우리는 AI 문제에 대해 오래, 초가 아닌 동안 생각할 있도록 하여 언홉블링을 있었다.


스캐폴딩: AI 팀워크

현재 주요 AI 연구소들은 다음 주요 언홉블링 기법인 '스캐폴딩' 구현하기 위해 경쟁하고 있다. 모델에게 단순히 문제를 해결하라고 요청하는 대신, 모델이 공격 계획을 세우고, 다른 모델이 여러 가능한 해결책을 제안하며, 다른 모델이 비판하는 식으로 작동한다. 이는 전문가 팀이 복잡한 프로젝트를 다루는 방식과 유사하며, 벤치마크 성능을 대폭 향상시킨다.


스캐폴딩 없이는 AI 챗봇에서 즉시 투입 가능한 원격 근무자로 도약할 없다. AI에게 도구에 대한 접근권을 주는 것은 거의 하룻밤 사이에 성능을 급상승시킬 있다.


컨텍스트 길이의 혁명

연구자들이 작업하고 있는 다른 중요한 제약은 컨텍스트 길이, AI 번에 기억할 있는 정보의 양이다. GPT-3 처음 출시되었을 때는 2000개의 토큰, 대략 4페이지 분량의 텍스트만 처리할 있었다. GPT-4 이를 32,000 토큰, 64페이지로 확장했다. Gemini 1.5 Pro 100 토큰의 컨텍스트 윈도우로 모든 기대를 산산조각냈다. 이는 쉽게 10권의 대형 분량의 텍스트다.


Gemini 1.5 Pro 심지어 인터넷에 없는 저자원 언어를 사전과 문법 참고 자료를 컨텍스트에 넣는 것만으로 처음부터 학습할 있었다.


포스트 트레이닝의 새로운 패러다임

가장 중요한 최근 언홉블링 돌파구는 AI 시스템을 확장하는 방식의 근본적 변화에서 나온다. 전통적으로는 모델에게 전체 인터넷과 지금까지 쓰여진 모든 책을 먹여주며 가능한 많은 데이터를 쌓아올렸다. 이런 접근법을 프리트레이닝이라고 하는데, 이는 뇌에 가능한 많은 정보를 채워넣어 천재를 만들려는 것과 같다.


하지만 프리트레이닝으로는 수익 감소를 경험했다. 그러나 연구자들은 다음 주요 패러다임인 포스트 트레이닝 개선을 발견했다. 기본 모델이 이미 훈련된 후에도 기존 AI 계속 가르치는 것이다.


가장 새로운 포스트 트레이닝 개선 하나는 놀랍도록 간단하다. 응답하기 전에 오래 생각할 있는 능력이다. OpenAI 미공개 O3 모델을 테스트할 , O3 즉시 답하도록 강요하는 대신 Arc-AGI 벤치마크에서 30분의 사고 시간을 허용했다. 모델들은 인간보다 대략 50 빠르게 생각한다는 점을 고려하면, 이는 누군가에게 시험의 문제를 신중히 고려할 25시간을 주는 것과 같다.


Epoch AI 조사에 따르면, 이런 언홉블링들이 AI 시스템을 5-30 강력하게 만들었다. 규모로 보면, 이런 개선은 대규모 컴퓨팅 파워 증가와 획기적인 알고리즘 발전 모두에서 얻은 이익에 맞먹는다.


2027년의 AI: 진정한 디지털 동료

2027년의 GPT-6 단순히 오늘날 ChatGPT 지능적인 버전으로 상상한다면, 그림을 놓치고 있는 것이다. 우리는 나은 챗봇으로 향하는 것이 아니라, 숙련된 원격 동료처럼 기능할 있는 진정한 AI 에이전트로 향하고 있다.


하지만 이런 변화를 달성하려면, 연구자들은 온보딩 문제를 해결해야 한다. GPT-4 많은 전문적 업무를 처리할 원시 지능을 가지고 있지만, 관련 컨텍스트가 없다. 회사 문서나 슬랙 히스토리를 읽지 않았고, 구성원들과 대화를 나누지도 않았다. 똑똑한 신입사원도 도착한 5 후에는 그다지 유용하지 않지만, 후에는 유용해진다.


현재 ChatGPT 고립된 상자에 갇혀 텍스트로만 소통할 있는 똑똑한 고등학생과 같다. 하지만 OpenAI 오퍼레이터 같은 멀티모달 모델을 통해, 인간과 매우 유사하게 컴퓨터와 상호작용할 있는 AI 시스템을 갖게 된다.


미래의 AI 시스템들은 화상 통화에 참여하고, 연구를 수행하며, 동료들과 협업하고, 인간 근무자와 같은 소프트웨어 도구를 사용할 디지털 아바타를 갖게 것이다. 처음부터 끝까지 복잡한 프로젝트를 독립적으로 처리할 있는 진정한 디지털 동료가 것이다.


레오폴드 아셴브레너가 2027년에 대해 예측하는 것은 단순한 점진적 개선이 아니다. GPT-2에서 GPT-4로의 도약만큼 극적인 변화다. GPT-2 일관된 문장을 겨우 있었지만, GPT-4 고급 시험에서 우수한 성적을 거두고 정교한 코드를 작성할 있다.


다음 도약은 잠재적으로 AI 다양한 분야에서 박사 수준의 전문성을 넘어서게 있다. 수학은 놀랍다. 우리는 효과적인 컴퓨팅에서 AI 현재 제약을 제거하는 주요 돌파구와 결합된다


개선의 순수한 규모를 파악하기 위해, GPT-4 훈련에 3개월이 필요했다면, 2027년에는 GPT-4 수준의 능력을 가진 모델을 1 만에 훈련시킬 있을 것이다.


자기 개선하는 AI 시대

이것이 특히 중요한 이유는 AI 스스로를 개선하기 시작할 가능성 때문이다. 이런 시스템들이 AI 연구를 효과적으로 수행할 있게 되면 - 추세선이 2027년까지 가능하다고 시사하는 - 진보의 속도는 상상할 없을 정도가 있다.


수만 명의 AI 연구자들이 24시간 내내 작업하는 것을 상상해보자. 잠재적으로 10년간의 알고리즘 진보를 1년으로 압축할 있다. 이는 단순히 ChatGPT 정교한 버전을 만드는 것이 아니라, 모든 인지적 업무를 자동화할 있는 시스템에 관한 것이다.


이전의 모든 세대와 마찬가지로, 새로운 세대의 모델들은 대부분의 구경꾼들을 놀라게 것이다. 박사들이 며칠이 걸리는 믿을 없을 정도로 어려운 과학 문제를 모델들이 해결할 , 컴퓨터 주변에서 업무를 처리할 , 수백만 줄의 코드로 구성된 코드베이스를 처음부터 작성할 , 매년 또는 2년마다 모델들이 생성하는 학술적 가치가 10배씩 증가할 , 사람들은 믿을 없어할 것이다.


그들이 우리보다 똑똑해지는 것은 시간문제다. 공상과학을 잊고, OOM 세어보자. 이것이 우리가 기대해야 하는 것이다.


결론: AGI 이상 미래가 아니다

AGI 이상 환상이 아니다. 단순한 딥러닝 기법을 확장하는 것이 효과를 보이고 있다. 모델들은 학습하고 싶어하며, 우리는 2027 말까지 다른 100,000배를 달성하려고 한다.


모든 분석이 보여주는 것은 AI 발전이 단순한 기술적 진보가 아니라, 인류 문명의 근본적 변화를 가져올 있는 전환점에 우리가 있다는 것이다. 제프리 힌튼의 경고는 단순한 기우가 아니라, 수십 년간 분야를 이끌어온 전문가의 진지한 우려다.


우리는 지금 역사의 중요한 순간에 있다. AI 인간의 인지 능력을 넘어서는 순간이 생각보다 훨씬 빨리 있으며, 변화의 속도와 규모는 우리가 준비할 시간을 거의 주지 않을 것이다. 이는 두려워할 일이기도 하지만, 동시에 인류가 직면한 가장 도전이자 기회이기도 하다.


중요한 것은 이런 변화를 부정하거나 무시하는 것이 아니라, 현실적으로 받아들이고 준비하는 것이다. 트렌드 라인은 거짓말하지 않으며, 지금까지의 모든 예측을 뛰어넘는 발전을 보여주고 있다. 우리에게 남은 시간이 정말 4년뿐일지도 모른다.


Share: