What's different? : Agent, Agentic AI, Multi-Agent, Agentic RAG

|

Agent, Agentic AI, Multi-Agent, Agentic RAG

Agent

  • Agent는 특정 task를 수행하는 agent이다.
  • 즉, Agent는 특정 task를 다양한 tool들을 통해 해결한다.
  • Agent는 단순하고 반복적인 작업을 자동화하는 데에 적합하지만 자율적인 의사 결정 능력은 없다. 스스로 생각하지 않고 사용자가 지시한 것을 수행하는 가상 도우미 정도의 역할을 할 수 있다.

1. LLM

Agent는 기본적으로 LLM을 기반으로 돌아간다. LLM은 Agent 내에서 텍스트 처리, 상황 및 맥락 이해, 결정 등을 모두 관장한다.

2. 계획 설계 및 추론

LLM을 통해 task를 해결하기 위한 계획을 설계한다. 사용자 입력으로부터 목표를 명확히하고, 해결 방법을 추론하고, 추론 결과를 기반으로 세부 task를 나눈다. 일반적으로 아래와 같은 과정을 거친다.

  1. 목표 분석
  2. 목표 달성을 위한 해결 단계 정의
  3. 단계들의 우선순위 정의
  4. 단계들을 수행하며 추가된 정보를 기반으로 계획 설계

3. Tool use

어떤 시스템과의 상호작용을 통해 task를 수행하거나 지식을 확장시켜주는 부분니다. tool에는 다음과 같은 것들이 존재할 수 있다:

  • DB retrieval
  • web search
  • code 실행 (사전에 정해진 code일 수도 있고 LLM이 생성한 code일 수도 있다.)
  • 다른 소프트웨어 시스템과의 상호작용 (다른 어플리케이션을 실행한다든지..)

위 tool들로 인해 Agent는 수행 작업 범위를 확장할 수 있다.

4. Reflection

Reflection 단계는 Agent의 결과를 분석하여 평가하는 것이다. 겉으로 보기에 스스로가 평가하는 것 같아 보여서 Reflection이라고 부르지만 정확하게는 Reflection을 위한 Agent를 따로 두고 output 생성 Agent의 결과에 대한 피드백을 만들어 시스템 목적에 맞는 결과를 생성하는 것이다.

Illustrated by Author


5. Memory

Agent가 과거의 대화 및 검색 내용을 기억할 수 있도록 저장하는 것이다.

이는 아래와 같은 측면에서 매우 중요하다:

  • 대화 맥락 유지
  • 이전 대화로부터 학습
  • 꾸준한 성능 향상
  • 개인화 응답 제공

Agentic AI, Agentic RAG

Agentic AI는 “자율성”에 큰 의의를 두는 인공지능 기반 시스템이라고 볼 수 있다. 특정 목표를 달성하기 위해 스스로 결정을 내리고, 행동을 취하고, 더 나아가 독립적으로 학습(여기서 학습은 모델 학습(training) 개념이 아닌 learning이다. 아래 추가 설명이 있다.)할 수 있다는 시스템이다. 인간의 지속적인 지시 없이도 생각하고, 추론하며, 변화하는 상황에 적응할 수 있는 가상 비서처럼 작동하는 것이다. Agentic AI는 아래 네 가지 단계로 작동한다:

  1. 인식(Perception): 데이터를 수집(observation)
  2. 추론(Reasoning): 수집된 데이터로 상황 이해
  3. 행동(Action): 이해를 바탕으로 무엇을 할지 결정
  4. 학습(Learning): 피드백과 경험(저장된 기억)을 통해 시간이 지남에 따라 개선 + 적응

Multi-Agent

  • 말 그대로 Agent가 여러개 있는 것이다. 이때 Agent는 Agentic AI와 Agent 전부를 의미한다. Multi-Agent들의 각 Agent들은 필요에 따라 Agent일 수도 Agentic AI일 수도 있다.
  • 여러 Agent가 복잡한 문제를 다각도로 분석하여 해결한다.
  • 문제를 해결하기 위해 개발자는 Agent들을 병렬적인 관계로 설계할 수도 있고, 순차적인 end-to-end 시스템으로 설계할 수도 있다.

Enrichment Loop

Illustrated by Author


Agentic AI와 Agentic RAG 그리고 이들이 사용된 Multi-Agent에는 Enrichment Loop가 사용된다. 이는 품질·안정성을 확보하기 위한 핵심 패턴이며, 단순 Agent나 전통적 Multi-Agent 시스템에는 잘 사용되진 않았다.

Enrichment Loop로 취할 수 있는 긍정적인 요소들은 아래와 같다.

  • 동적 정보 개선: 초기 검색 결과가 불완전할 때 추가 검색으로 보완
  • 컨텍스트 확장: 관련 정보를 점진적으로 발견하고 연결
  • 품질 향상: 반복적 검색을 통해 더 정확하고 포괄적인 답변 생성
  • 적응적 검색: 이전 결과를 바탕으로 검색 전략을 조정

Enrichment Loop는 특히 복잡하고 다면적인 질문에 대해 단계적으로 정보를 보강하여 더 완전하고 정확한 답변을 제공하는 데 핵심적인 역할을 하지만 최종 답변 반환 속도는 느려진다.

Enrichment Loop 구현 방법

항목 내용
기본 아키텍처 초기 쿼리 → 검색 → 평가 → 부족한 부분 식별 → 추가 검색 → 통합 → 반복
핵심 구성 요소 품질 평가기 (Quality Assessor)
• 검색된 정보의 완성도와 관련성 평가
• 누락된 정보나 불명확한 부분 식별
• 추가 검색 필요성 판단

검색 전략 생성기 (Search Strategy Generator)
• 이전 검색 결과를 분석하여 새로운 검색 쿼리 생성
• 다양한 검색 방법론 활용 (키워드, 의미적, 구조적 검색)
• 검색 범위와 깊이 조정

정보 통합기 (Information Synthesizer)
• 여러 검색 결과를 일관성 있게 결합
• 중복 제거 및 모순 해결
• 최종 응답 생성
실제 활용 시나리오 의료 정보 검색
1차: “당뇨병 치료법” 검색
2차: 부족한 “최신 치료법” 추가 검색
3차: “한국 가이드라인” 보완 검색

법률 문서 분석
1차: 관련 법조문 검색
2차: 판례 및 해석 검색
3차: 최신 개정사항 확인

루프는 품질 기준(예: 정확도 ≥ 0.9, 토큰 한도, 타임아웃) 충족 시 종료.

정리

구분 설명 구성 요소 특징
Agent
(단일 에이전트)
LLM이 판단해 “어떤 tool을 언제 호출할지”를 결정하여 특정 문제를 해결하는 작은 프로그램 단위 • LLM + Tools 조합
• 추론 → tool 호출 → tool 결과 반영 → llm 결과 반환
• ReAct 프롬프트 패턴 사용
• 함수-콜 기반 툴 사용
• 메모리·피드백 루프는 선택 사항
Agentic AI Agent를 장기 기억·플래닝·행동 실행 레이어까지 확장한, “스스로 목표를 정하고(Plan)→행동(Act)→학습(Learn)”하는 자율 서비스 계층 • LLM + Tool + Memory + Planner
• 오케스트레이션 계층
필수 구성: 수명 주기 관리, 장·단기 메모리, 스트리밍 처리, 엔터프라이즈 통합
• 자율적 목표 설정 및 실행
• 장기 기억 및 학습 능력
• A-Tier 자율 서비스 계층
Agentic RAG RAG 파이프라인에 Agent 특유의 플래닝·툴 사용·루프 메커니즘을 접목해, 다단계 검색·재질문·답변 합성을 자동화한 구조 • RAG 파이프라인 + Agent 메커니즘
• 동적 쿼리 생성·재검색·필터
Multi-Agent RAG: 검색-재랭킹-평가-합성 전문가 Agent 분리
• 다단계 검색 및 재질문
• 동적 답변 합성
• 병렬 최적화 가능
Multi-Agent 여러 개의 전문화된 에이전트들이 협력하여 복잡한 작업을 분담하고 수행하는 시스템 • 복수의 전문화된 Agent
• 각 에이전트별 특정 역할
• 상호 커뮤니케이션 시스템
• 분할/병렬 수행 구조
• 협력·경쟁 상호작용
한계: 조정 overhead, 비결정성, 정책 충돌

Reference

https://towardsdatascience.com/ai-agents-from-concepts-to-practical-implementation-in-python-fb26789b1560/
https://medium.com/@vinitgela/the-rise-of-ai-agents-91f93379c0c8
https://langfuse.com/blog/2024-07-ai-agent-observability-with-langfuse