메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

지속적 사전 훈련을 통한 에이전트 확장

Scaling Agents via Continual Pre-training

 

개발자라면 누구나 한 번쯤은 상상해 봤을 겁니다.
"내가 만든 AI가 스스로 학습하고, 다양한 문제를 해결할 수 있다면 얼마나 좋을까?"

 

AgentFounder는 바로 그 상상을 연구 수준에서 현실로 끌어내린 프로젝트입니다. 기존의 대규모 언어 모델(LLM)들이 대부분 일반적인 문제 해결 능력에 초점을 맞춘 것과는 달리, AgentFounder는 자율적인 도구 사용과 복잡한 문제 해결 능력을 지향합니다.

 

이 논문이 흥미로운 이유는 단순히 "성능 향상" 수준을 넘어서, 지속적 사전 훈련(Agentic Continual Pre-training) 안에서 사용자의 에이전트 행동 최적화에 반응할 수 있도록 설계되었다는 점입니다. 예를 들어, AgentFounder는 다양한 벤치마크에서 뛰어난 성능을 보이며, 이는 AI가 이제 진짜로 '스스로 학습하는 학생'가 된 거죠.

 

✅ 어떻게 작동하나요? – AgentFounder의 핵심 아이디어

 

AgentFounder가 도입한 가장 눈에 띄는 개념은 바로 "지속적 사전 훈련(Agentic Continual Pre-training)"입니다. 이는 에이전트가 다양한 행동을 학습하고, 이를 전문가 시연에 맞추어 최적화하는 방식으로 작동합니다.

 

이러한 지속적 훈련은 실제로 에이전트 행동 모델로 구현되며, 이를 통해 더욱 강력한 도구 사용 능력을 갖추는 게 AgentFounder의 강점입니다.

 

이 모델은 총 3단계의 훈련 과정을 거쳐 만들어졌습니다:

  • 기초 모델 훈련 – 일반적인 언어 모델로서의 기초 능력을 갖추는 단계입니다.
  • 지속적 사전 훈련 – 에이전트 행동을 학습하고 최적화하는 과정입니다.
  • 전문가 시연 맞춤 – 전문가의 시연을 통해 에이전트의 행동을 더욱 정교하게 다듬습니다.

 

✅ 주요 기술적 특징과 혁신점

 

AgentFounder의 핵심 기술적 특징은 크게 세 가지 측면에서 살펴볼 수 있습니다.

 

1. 지속적 사전 훈련
이는 에이전트가 다양한 행동을 학습하고 최적화하는 방식입니다. 기존의 단발적인 훈련 방식과 달리, 지속적인 학습을 통해 더욱 정교한 행동을 구현했습니다. 특히 에이전트의 도구 사용 능력에서 큰 향상을 보였습니다.

 

2. 전문가 시연 맞춤
이 과정의 핵심은 에이전트의 행동을 전문가 시연에 맞추어 최적화하는 것입니다. 이를 위해 다양한 시연 데이터를 활용했으며, 이는 에이전트의 행동 정밀도를 높이는 결과로 이어졌습니다. 실제 적용 사례를 통해 그 효과를 입증했습니다.

 

3. 강력한 도구 사용 능력
마지막으로 주목할 만한 점은 에이전트의 도구 사용 능력입니다. 이는 복잡한 문제 해결에 있어 중요한 역할을 하며, 다양한 상황에서 유연하게 대처할 수 있는 능력을 제공합니다.

 

✅ 실험 결과와 성능 분석

 

AgentFounder의 성능은 다음과 같은 실험을 통해 검증되었습니다.

 

1. BrowseComp-en에 대한 성능
특정 조건에서 진행된 평가에서 39.9%라는 성능 수치를 달성했습니다. 이는 기존 모델들과 비교했을 때 상당한 향상을 보여줍니다. 특히 도구 사용 능력에서의 개선이 인상적입니다.

 

2. BrowseComp-zh에서의 결과
다른 실험 환경에서는 43.3%의 성능 지표를 기록했습니다. 이전의 접근 방식들과 비교하여 차별화된 성능 특성을 보여주었으며, 특히 복잡한 문제 해결에서 강점을 보였습니다.

 

3. HLE에서의 평가
실제 환경에서 진행된 테스트에서는 31.5%의 Pass@1 결과를 확인할 수 있었습니다. 실용적 관점에서의 장점과 함께, 현실적인 제한사항이나 고려사항도 명확히 드러났습니다.

 

이러한 실험 결과들은 AgentFounder가 복잡한 문제 해결을 효과적으로 수행할 수 있음을 보여줍니다. 특히 에이전트 행동 최적화는 향후 다양한 응용 분야에 중요한 시사점을 제공합니다.

 

✅ 성능은 어떨까요?

 

AgentFounder는 BrowseComp-enBrowseComp-zh라는 첨단 벤치마크에서 각각 39.9%, 43.3%이라는 점수를 기록했습니다. 이는 기존의 에이전트 모델 수준의 성능입니다.

실제로 복잡한 문제 해결 시나리오에서, 특히 도구 사용 능력에서도 꽤 자연스러운 반응을 보입니다.
물론 아직 "최적화" 영역에서 약간의 미흡함이 존재하긴 하지만, 현재 수준만으로도 다양한 서비스에 활용 가능성이 큽니다.

 

✅ 어디에 쓸 수 있을까요?

 

AgentFounder는 단지 새로운 모델이 아니라, "자율적인 에이전트 행동"이라는 흥미로운 방향성을 제시합니다.
앞으로는 더 많은 자율 학습, 예를 들면 복잡한 문제 해결, 도구 사용 최적화까지 인식하게 될 가능성이 큽니다.

  • 자동화된 고객 지원: 고객의 다양한 요청을 스스로 해결할 수 있는 에이전트로 활용될 수 있습니다.
  • 복잡한 데이터 분석: 대량의 데이터를 분석하고, 인사이트를 도출하는 데 유용합니다.
  • 지능형 검색 시스템: 사용자의 요구에 맞춰 최적의 검색 결과를 제공하는 데 활용될 수 있습니다.

이러한 미래가 AgentFounder로 인해 조금 더 가까워졌습니다.

 

✅ 개발자가 지금 할 수 있는 일은?

 

AgentFounder에 입문하려면, 기본적인 머신러닝자연어 처리에 대한 이해가 필요합니다.
다행히도 GitHub 리포지토리에 예제 코드가 잘 정리되어 있어, 이를 통해 학습할 수 있습니다.

실무에 적용하고 싶다면?
필요한 데이터와 리소스를 확보하고, 다양한 테스트 영역을 테스트하면서 모델을 커스터마이즈하는 것이 핵심입니다. 또한, 추가적인 데이터 수집과 모델 튜닝도 병행되어야 합니다.

 

✅ 마치며

 

AgentFounder는 단순한 기술적 진보를 넘어, 자율적인 에이전트 행동을 향한 중요한 이정표입니다. 이 기술이 제시하는 가능성은 산업과 사회의 미래를 재정의할 잠재력을 가지고 있습니다.

 

우리는 지금 기술 발전의 중요한 변곡점에 서 있으며, AgentFounder는 그 여정의 핵심 동력이 될 것입니다. 당신이 이 혁신적인 기술을 활용하여 미래를 선도하는 개발자가 되어보는 건 어떨까요?

 

⨠ 논문 원문 보러가기

 

✅ 같이 보면 좋은 참고 자료들

 

Towards detecting the time perturbations from GWs in asynchronous gauges
- 논문 설명: 중력파가 유도하는 시간 교란을 통해 이를 탐지할 수 있는 실험적 가능성을 여기서 탐구하며, 이전 연구를 확장합니다.
- 저자: Stefano Bondani, Sergio Luigi Cacciatori
- 발행일: 2025-09-16
- PDF: 링크

Axion-photon conversion in transient compact stars: Systematics, constraints, and opportunities
- 논문 설명: 우리는 초상대론적 축소입자(ALPs)의 광자 변환을 연구하며, 주로 핵붕괴 초신성(SN) 잔해와 중성자별 병합(NSM)의 뜨겁고 일시적인 조건에 초점을 맞추어, 밀집성 환경에서의 자기 변환을 연구합니다.
- 저자: Damiano F. G. Fiorillo, Ángel Gil Muyor, Hans-Thomas Janka, Georg G. Raffelt, Edoardo Vitagliano
- 발행일: 2025-09-16
- PDF: 링크

ReSum: Unlocking Long-Horizon Search Intelligence via Context Summarization
- 논문 설명: 대규모 언어 모델(LLM) 기반 웹 에이전트는 지식 집약적 과제에서 강력한 성능을 보이지만, ReAct와 같은 패러다임에서 문맥 창의 제한으로 인해 방해를 받습니다.
- 저자: Xixi Wu, Kuan Li, Yida Zhao, Liwen Zhang, Litu Ou, Huifeng Yin, Zhongwang Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Minhao Cheng, Shuai Wang, Hong Cheng, Jingren Zhou
- 발행일: 2025-09-16
- PDF: 링크

댓글

댓글 입력