인공지능(AI) & IT 트렌트 따라잡기

인간이 AGI를 정말 만들 수 있을까?

cnation 2025. 11. 13. 10:58

🧠 AGI 는 다들 아시죠? ^^


AGI는 Artificial General Intelligence의 줄임말로, 보통 “범용 인공지능” 이라고 부릅니다.
지금 우리가 AI 툴들이 질문에 대한 답변, 이미지 생성등 특정한 일에 잘 맞춰진 똑똑한 도구라고 한다면 AGI는 여기서 한 단계 더 나아가서 “사람처럼 여러 가지 일을 두루두루 이해하고 배우고, 새로운 상황에도 스스로 적응할 수 있는 인공지능” 이라고 쉽게 설명할 수 있겠네요


1. “에이전트의 해”에서 “에이전트의 10년”으로 🕒


요즘 AI 업계는 이렇게 말합니다.
• “곧 AI 에이전트가 노동시장에 본격 투입될 것이다.”
• “거의 모든 분야에서 거의 모든 인간보다 뛰어난 시스템이 나온다.”

하지만 2025년이 저물어가는 지금, 현실은 조금 다릅니다.
• 현재의 에이전트는 프롬프트를 엄청 정교하게 떠먹여줘야 겨우 움직이는 수준
• 스스로 판단해 일을 끝까지 ‘맡길 수 있는 존재’라기보다는,
잘 만든 자동화 함수 + 스크립트”에 가깝습니다.

즉, 아직은 영화 아이언맨의 “자비스”나 영화 Her의 사만다 같은 AI 수준에는 훨씬 못미치고 있는거죠

아이언맨 영화의 자비스와 her 영화의 사만다 인공지능


2. 지금 AI의 정체: 거대한 압축 파일 + 다음 단어 예측기 💾


현재 생성형 AI(LLM 등)의 본체를 아주 거칠게 말하면 이렇습니다.
1. 인터넷 전체를 토큰으로 쪼개고
2. 수십억~수천억 파라미터 모델로
3. 그걸 손실 압축한 뒤
4 “이전 단어들을 봤을 때, 다음에 올 단어는 뭐냐?”를 계속 예측하는 기계

이 단순한 메커니즘이
데이터 + 파라미터 + 연산량(스케일)을 만나자:
• 번역 🌐
• 코드 작성 💻
• 시와 글쓰기 ✍️
• 어느 정도의 논리적 추론 🧩

같은 능력이 “창발적으로” 튀어나왔고, 그 순간 모두가 놀랐습니다.

하지만 중요한 포인트는 이거죠.

우리는 왜 이런 능력이 나왔는지 완전히 이해하지 못한 상태에서 그냥 더 키우면 더 대단해질 거라고 믿고 있다.

이건 과학이라기보다는 약간은 스케일링 신앙에 가깝습니다 🙏


3. 왜 아직 ‘진짜 에이전트’가 아닌가: 기억과 경험이 없다 🧱


지금 AI가 AGI/에이전트로 느껴지지 않는 가장 큰 이유는 두 가지입니다.

3-1. 자기만의 기억이 없다 🧠❌

• 사전학습이 끝난 순간, 모델은 사실상 읽기 전용(ROM)처럼 굳습니다.
• 우리와 수십 번 대화해도 그 자체가 모델 내부의 “경험”으로 축적되진 않습니다.
• 실제로는 대화 내용을 외부 DB에 저장했다가 다음에 프롬프트로 다시 밀어 넣는 “외장 메모리” 방식일 뿐이죠.

반면 인간의 기억은:
• 과거를 떠올릴 때 재생 + 재작성이 동시에 일어나고
• 시간이 지날수록 기억이 미화·왜곡·재구성됩니다.
• 이 과정이 곧 “나“ 라는 이야기 를 만듭니다.

하지만 현재 AI는:

매일 수천만 명과 대화하지만
단 한 번도 스스로를 업데이트하지 못하는 존재

3-2. 진화하지 않는다 🧬❌

• 생명체의 지능은 진화의 긴 시간 위에서 등장했습니다.
• 수억 년 동안의 실패와 적응이 겹겹이 쌓여서 지금의 뇌 구조와 본능, 감정, 사회성 등이 만들어진 거죠.

반면 AI는:
• 그 긴 역사를 건너뛰고
• “전두엽 비슷한 계산 모듈”만 공중에 띄워둔 느낌입니다.

몸도, 감정도, 본능도, 자기 기억도 없는 뇌 조각으로
“인간 전체와 비슷한 지능”을 기대하기는 아직 무리라는 거죠.


4. 의식 문제: 우리가 뭘 모르는지도 모른다 🌌


AGI 논의는 결국 의식(Consciousness) 문제를 건드립니다.
• 의식이 뭔지 과학적으로 합의된 정의가 없습니다.
• 뇌 구조 때문인지, 복잡성 때문인지, 양자현상 때문인지조차 논쟁 중입니다.

이 상태에서

“지금의 신경망 구조를 계속 키우다 보면 언젠가 의식이 창발할 거야”

라고 말하는 건 사실상 기적을 기대하는 것에 가깝습니다.

“의식이 없어도 실용적인 AGI면 된다는 입장”도 있을 수 있지만,
인간 수준의 이해와 자기 인식까지 포함한 AGI를 생각한다면
의식 문제를 완전히 무시하긴 어렵습니다.


5. 데이터 한계와 ‘자기 똥 먹는’ 시대 💩


지난 3년의 AI 발전은 거의 이렇게 이루어졌습니다.
• 더 많은 데이터 📚
• 더 큰 모델 + 더 많은 GPU ⛏️

하지만 데이터 쪽에서 문제가 생기고 있습니다.
• 인터넷의 “양질의 데이터”는 생각보다 많지 않습니다.
• 이미 한 번 학습에 써먹은 데이터가 대부분이고,
• 웹에는 AI가 만든 저품질 텍스트/이미지(노이즈)가 점점 늘어납니다.

결과적으로:

AI가 자기 똥(자기가 만든 텍스트)을 다시 먹으며
다시 학습해야 하는 상황이 오고 있습니다.

여기에 저작권, 데이터 접근 제한까지 겹치면서
“데이터만 더 퍼부으면 된다”는 단순한 스케일링 전략에는 한계가 생기고 있죠.



6. 낙관론 vs 신중론 ⚖️


최근 800명 이상의 연구자와 유명 인사들이
슈퍼 인텔리전스 개발을 잠정 중단하자는 성명을 발표했습니다.
• 이유 : 초지능이 안전하고 통제 가능하다는 과학적·사회적 합의 부재

반대로 낙관론자들은 이렇게 말합니다.
• 딥러닝과 트랜스포머도 모든 걸 이해해서 만든 게 아니라 돌려보니 “우와, 되네?” 해서 시작된 혁명이었다.
• 그러니 지금도 멀티모달, 체인 오브 소트, 강화학습, 대규모 컴퓨팅을 끝까지 밀어붙이면 또 한 번의 “예상 못한 대격변”이 올 수 있다.

현재까지의 현실은?
• 3년 전 처음 나온 충격적인 모델에서 계속 페이스리프트 버전이 나오고 있는 느낌에 가깝습니다.


7. 결국 질문은 이것이다: “할 수 있냐?”보다 “어디까지 할 거냐?” 🤔


정리해보면:
1. 지금 방식(LLM 스케일 업)만으로 바로 AGI/슈퍼 인텔리전스로 점프할 것 같지는 않다.
2. 그렇다고 영원히 불가능하다고 말하기에도 우리가 뇌·의식·지능에 대해 아는 게 너무 적다.
3. 아마도 전혀 다른 아키텍처, 뇌-기계 융합, 새로운 계산 패러다임이 필요할 가능성이 크다.

하지만 어쩌면 더 중요한 질문은 이겁니다.

“기술적으로 가능한지”보다
“우리는 무엇을, 어디까지 만들고 싶고, 어디서 멈출 것인가?”

• 의식이 있는 인공지능을 정말 만들고 싶은가?
• 고통을 느끼는 인공지능이 생긴다면, 그건 윤리적으로 괜찮은가?
• 의식은 없지만 인류 전체를 흔들 힘만 가진 시스템은
어떻게 규제하고 통제해야 하는가?

AGI의 가능성 자체는 아직 열려 있습니다.
하지만 그 문턱에 다가갈수록,
할 수 있냐?”보다 “해도 되냐?”라는 질문이 더 무겁게 다가올 것 같습니다.