
많은 사람들이 인공지능을 '입력을 넣으면 출력이 튀어나오는 기계'라고 여기고 있다. 실제로 현재 세상을 뒤덮고 있는 LLM이나 이미지 생성 모델들은 대부분 정해진 순서대로 데이터를 처리하는 구조를 가진다. 즉, 데이터가 신경망을 한 번 훑고 지나가면 바로 답이 나오는 구조다.
하지만 인간의 뇌는 다르다. 우리는 어려운 문제를 마주하면 잠시 멈춰 서서 생각을 한다. 정보를 머릿속에서 되뇌고, '~이런 상황에서는 ~이렇게 되지 않을까?' 등의 시뮬레이션하고, 확신이 들 때까지 고민한다.
만약 인공지능에게도 멈춰서 생각할 시간을 준다면 어떨까?
이번에 소개할 논문은 단순히 인간의 뇌를 흉내 내는 것을 넘어, 시간과 신경 동기화라는 뇌의 작동 원리를 AI에 이식한 Continuous Thought Machine (CTM)에 대한 내용이다.
이 논문은 세계적인 인공지능 학회 NeurIPS 2025에서 주목 받은 논문으로 알려져 있다.
반복한다고 해서 생각하는 것인가?
사실 인공지능에게 생각할 시간을 주려는 시도가 이번이 처음은 아니다. 최근 주목받은 삼성의 Tiny Recursive Model이나 Hierarchical Reasoning Model 같은 연구들은 작은 신경망을 반복적을 돌려서 장답을 다듬는 방식을 제안했다. 이들은 입력과 잠재 변수를 다시 모델의 입력으로 넣어 이 '답이 맞나?'를 반복해서 확인한다. 마치 사람이 답안지를 제출하기 전에 검토하는 것과 유사하다.
하지만 CTM은 근본적으로 다르다. TRM이 계산 과정을 반복하는 것이라면, CTM은 뉴런 자체가 시간을 가진다는 점이 독창적이다. 기존 모델의 뉴런은 입력이 들어오면 즉시 활성화되는 단순한 스위치였다. 반면, CTM은 뉴런 단위로 과거의 입력 기록을 기억하고 처리하는 독립적인 초소형 모델이다.
즉, CTM은 껍데기를 반복시키는 것이 아니라, 뉴런 하나하나가 생물학적 뇌처럼 여러번 생각하고 그 여러 생각들을
종합적으로 고려하여 출력을 내도록 설계되었다.

미로 찾기 문제에서 CTM은 위치 정보를 주지 않았음에도, 여러번의 반복적인 추론에서 과거 값 (Tick 1, Tick 2, ...)를 활용하여 출발점에서 도착점까지의 경로를 스스로 상상해낸다.
신경 동기화?
CTM의 주된 아이디어는 신경 동기화다. 인공지능은 뉴런들의 조합[100개~]으로 하나의 생각을 구성한다. 신경 동기화란, 여러 횟수 (Tick 1, Tick 2...)에 따라 얼마나 유사한 생각을 하는지와 관련 있다.
예를 들어,
- 첫 번째 생각 단계(Tick 1)에서 뉴런 1과 뉴런 10이 활성화되었다고 하자.
- 그리고 두 번째 생각 단계(Tick 2)에서도 비슷하게 뉴런 1, 10이 동시에 활성화되었다고 하자.
이런 상황을 신경 동기화 또는 Neural Synchronization이라고 부른다.
즉, 여러 번 생각(Tick 1, Tick2)할 때, 동시에 활성화되는 뉴런들이 있다면 서로 관련이 있다고 판단할 수 있다. CTM은 이런 뉴런들의 활동 타이밍이 얼마나 일치하는지를 계산하여 정보를 처리한다.
쉬운 문제는 빨리, 어려운 문제는 천천히
인간은 "1+1"과 같은 문제에 대해서는 빠르게 답하지만, "654321 * 3164"과 같은 괴랄한 문제에 대해서는 수십 초를 사용한다. 이를 적응형 연산이라고 하는데, CTM도 자신의 판단에 확신이 들 때까지 생각한다. 논문의 실험 결과, CTM은 확신도가 특정 값을 넘으면 스스로 생각을 멈추고 답을 낼 수 있다. 쉬운 이미지는 단 몇 번의 생각만에 처리하고, 복잡하고 애매한 문제는 더 오래 고민한다.
이는 효율성 측면에서도 중요하지만, AI가 자신이 무엇을 모르는지를 인지하는 보정 능력을 갖췄다는 점에서 큰 의미가 있다.
번외 (OpenReview NeurIPS 동료 평가)
번외로 OpenReview에 등록된 리뷰어들의 공통 질문과 그에 따른 답변을 Gemini를 사용하여 정리해 보았다.
결론
여담
이 논문의 저자 소속을 보면 Sakana AI가 눈에 띈다. 최근 AI 트렌드가 무조건 모델의 크기를 키우는 '스케일링 법칙(Scaling Laws)'에 매몰되어 있는 반면, Sakana AI는 자연계에서 영감을 받은(Nature-inspired) 독창적인 아키텍처를 연구하는 것으로 유명하다.
이번 CTM 논문 역시 "더 큰 모델"이 아니라 더 뇌를 닮은 모델을 지향한다는 점에서 그들의 철학이 잘 드러난다. GPU가 모든 것을 지배하는 세상에서, 뇌과학적 원리를 다시금 꺼내 든 이들의 시도가 AI의 겨울이 아닌 새로운 봄을 가져올 수 있을지 지켜보는 것도 흥미로울 것이다.
'인공지능 이야기' 카테고리의 다른 글
| [Google DeepMind] 뇌과학에서 영감을 받은 구글 딥마인드의 Perceiver (0) | 2025.12.13 |
|---|---|
| TPU vs. GPU: GPU는 끝인가? (0) | 2025.12.12 |
| 피지컬 AI: 육체적 노동도 이젠 인공지능의 영역으로. (0) | 2025.12.11 |
| 에이전틱 AI 시대, 당신의 생상성은 10배가 될 수 있을까? (0) | 2025.12.10 |
| Auto Capture based on VLM의 원리를 추측해 보자 (0) | 2025.07.09 |