1월, 2026의 블로그


출처: Deep Research v2: Inside Atlassian’s Next-Gen AI Research Engine - Work Life by Atlassian

작성자: Xincheng You 외 Atlassian Machine Learning & Engineering Team

발행일: 2025년 12월 17일


AI로 재정의하는 자동화 리서치

2024년 6월 Atlassian은 Rovo Deep Research를 처음 선보이며 하나의 방향성을 제시했습니다.

SaaS와 Atlassian 전반에 흩어진 정보를 연결해, 인용 가능한 임원급 리포트를 몇 분 안에 생성하는 AI 리서처를 제공하겠다는 것이었습니다.


이후 Deep Research는 단순 요약을 넘어 전략 수립 리스크 분석 프로세스 개선처럼 의사결정 난도가 높은 질문에 활용되기 시작했습니다.

사용 사례가 확대되면서, 기존 접근 방식에서 개선이 필요한 지점 또한 점차 분명해졌습니다.

Deep Research v2는 이러한 관찰을 바탕으로 사람이 실제로 조사하는 방식에 더 가까운 리서치 엔진으로 설계되었습니다.

What’s New?

실제 업무 환경에서 Deep Research를 평가한 결과, 몇 가지 공통적인 패턴이 확인되었습니다.
리포트는 기술적으로 정확했지만, 깊이가 충분하지 않거나 맥락과 다른 관점을 충분히 반영하지 못한 경우가 있었습니다.

또한 단 한 번의 실행으로 끝나는 fire-and-forget(실행 후 무시) 방식의 워크플로우는, 초기 리서치 계획이 적절하지 않을 경우 과정 중 이를 조정하기 어렵다는 한계를 드러냈습니다.

Deep Research v2에서는 이러한 문제를 해결하기 위해 워크플로우가 재설계되었습니다.

새로운 증거가 나타날 때마다 반복적으로 탐색·종합·수정하는 흐름이 반영되었으며, 다중 턴 인터랙션을 통해 사용자가 리서치 과정에 보다 적극적으로 개입할 수 있도록 개선되었습니다.

질문 한번으로는 부족한 리서치

“우리 AI 전략의 리스크는 무엇인가요?”
“사고 대응 프로세스의 가장 큰 공백은 무엇인가요?”

이와 같은 질문은 범위가 넓어, 실제 리서치에서는 추가적인 확인이 필요합니다.
어떤 제품을 대상으로 하는지, 어떤 기간을 의미하는지, 누구를 위한 결과물인지를 명확히 해야 합니다.

Deep Research v2에서는 이 단계를 워크플로우에 명시적으로 포함했습니다.
리서치 시작 전 범위, 제약 조건, 성공 기준을 명확히 하는 질문을 먼저 제시함으로써 결과가 사용자의 실제 관심사에 보다 정확히 맞춰지도록 했습니다.

V1 워크플로우의 구조적 한계 

기존 v1 워크플로우는 사실상 fire-and-forget 구조였습니다.
초기 계획이 잘못 설정될 경우 결과를 끝까지 기다린 뒤 처음부터 다시 시작해야 하는 상황이 발생했습니다.

v2에서는 리서치 계획 자체가 공유 가능한 산출물로 다뤄집니다.

  • 구조화된 리서치 플랜 제안

  • 섹션, 우선순위, 관점 수정

  • 승인 이후 본격적인 리서치 실행

이를 통해 리서치 초기 단계에서 방향을 조정할 수 있게 되었고, 불필요한 재작업이 크게 줄어들었습니다.

통찰력 및 심층성이 부족한 리포트

기존 리포트는 사실 전달에는 충실했지만, 비교, 맥락, 리스크, 의사결정 포인트가 충분히 드러나지 않은 경우가 있었습니다.

Deep Research v2는 단순한 정보 요약을 목표로 하지 않습니다.
질문에 답하는 것을 넘어 다음에 무엇을 해야 하는지를 고민하게 만드는 리포트를 지향합니다.

이를 위해 더 깊은 탐색, 관점 비교, 패턴 분석, 그리고 실행 가능한 권고안 도출에 초점을 맞추도록 설계되었습니다.

내부 지식 활용의 한계

전략 수립, 시장 분석, 기술 평가는 내부 문서만으로는 충분하지 않은 경우가 많습니다.
공개 리서치, 벤더 문서, 업계 뉴스와 같은 외부 정보가 함께 고려되어야 합니다.

Deep Research v2는 Atlassian 데이터와 연결된 SaaS 정보뿐 아니라, 필요에 따라 퍼블릭 웹 정보까지 함께 활용할 수 있도록 확장되었습니다.
이를 통해 내부 맥락과 외부 시그널이 결합된 엔드투엔드 리서치가 가능해졌습니다.

새로운 아키텍처

Deep Research v2의 핵심에는 대규모 언어 모델(LLM)의 추론 능력을 활용하는 중앙 오케스트레이터 에이전트가 있습니다.
기존 세대의 획일적이고 경직된 파이프라인을 넘어, 상황에 따라 유연하게 대응하는 적응형 지능(Adaptive Intelligence) 기반 구조가 도입되었습니다.

오케스트레이터는 전체 대화 맥락 속에서 각 질문을 분석한 뒤, 복잡도에 따라 즉각적인 응답 또는 다단계·반복적 리서치 프로세스를 실행합니다.


 


Adaptive Orchestration: 쿼리에서 리포트까지

시스템의 중심에는 오케스트레이터 에이전트가 위치합니다.

오케스트레이터는 사용자 맥락, 대화 이력, 전문 에이전트의 역량을 포함한 동적 프롬프트를 구성합니다.


이를 바탕으로 직접 답변할지, 전문 에이전트에게 위임할지를 판단하는 구조화된 판단 결과가 생성됩니다.

이러한 맥락 기반 라우팅을 통해 단순한 질문에는 빠른 응답이 제공되고 복잡한 요청에는 깊이 있는 분석과 다각적 관점이 적용됩니다.

전문 에이전트와 반복적 리서치

복잡한 리서치 작업은 세 가지 전문 에이전트로 분리됩니다.

  • Grounding Agent
    사용자 환경과 맥락을 파악하고 명확화 질문을 생성

  • Planning Agent
    리서치 목표를 구조화된 계획으로 변환

  • Execution Agent
    실제 리서치 수행과 반복 개선 담당

특히 Execution Agent에는 v2의 핵심 기술이 집약되어 있습니다.


Execution Agent의 주요 혁신

  • Self-Evolution Engine: 발견된 정보에 따라 쿼리를 진화시키고 종료 시점을 판단

  • Dynamic Outline Optimization: 새로운 증거에 맞춰 리포트 구조를 재정렬

  • Memory Bank Writing: 모든 주장과 섹션별 출처를 저장해 추적성 확보

  • Test-Time Diffusion: 초안을 노이즈로 간주하고 집중 리서치를 통해 정제

그 결과 모든 문장이 출처로 연결되는 감사 가능한 리포트가 생성됩니다.

성능, 확장성, 안정성

Deep Research v2는 병렬 쿼리 실행을 통해 처리 속도를 향상시키는 동시에 모든 주장에 대한 출처 추적을 가능하게 해 투명성과 신뢰성을 확보합니다.

구성 가능성과 관측성

모델 선택, 실행 파라미터, 기능 플래그를 코드 변경 없이 조정할 수 있어 A/B 테스트, 단계적 롤아웃, 사용 맥락에 따른 최적화를 효과적으로 지원합니다.

또한 구조화된 로그, 지연 시간 지표, 토큰 사용량 모니터링을 통해 시스템 동작을 세밀하게 추적할 수 있도록 설계되었습니다.



비동기 실행과 복구 가능한 스트리밍

Deep Research 작업은 실행 시간이 길고 연산량이 큰 경우가 많습니다.

이에 따라 v2에서는 메인 웹 요청 경로에서 분리된 비동기 실행 구조가 도입되었습니다.

웹 서버는 작업을 백그라운드 워커 풀로 전달하고 진행 상황만 스트리밍 형태로 전달합니다.

이를 통해 사용자 경험은 실시간처럼 유지되며 리서치 엔진은 백그라운드에서 모든 과정을 수행합니다.

전용 워커 플릿을 통해 웹 서버 자원 점유를 방지하고 요청 급증 상황에서도 전체 시스템 안정성을 유지할 수 있도록 설계되었습니다.

또한 재연결 가능한 스트리밍을 지원해 네트워크 오류나 기기 전환 상황에서도 동일한 리서치 세션을 이어갈 수 있습니다.



평가 전략과 결과

I.  Reference 기반 평가 전략

RACE 프레임워크 기반 평가(details)

Deep Research의 실제 활용 성능을 평가하기 위해, 장문 리서치 평가에 특화된 RACE 프레임워크를 주요 기준으로 활용하고 있습니다.


RACE는 각 리포트를 다음 네 가지 관점에서 평가합니다.

  • Comprehensiveness
    리포트가 주제의 핵심 영역을 충분히 다루고 있는지, 주요 내용이 누락되지 않았는지를 평가합니다.

  • Insight
    단순한 사실 나열을 넘어 원인, 영향, 트렌드를 분석하고 의미 있는 시사점을 제공하는지를 평가합니다.

  • Instruction Following
    리서치 브리프를 얼마나 충실히 따르고, 사용자의 질문에 직접적으로 답하고 있는지를 측정합니다.

  • Readability
    구조가 명확하고 논리 흐름이 자연스러워 이해관계자가 쉽게 내용을 소화할 수 있는지를 평가합니다.


RACE의 핵심적인 특징은 단일한 고정 평가 기준을 적용하지 않는다는 점입니다.

질의의 성격에 따라 과제별 가중치와 세부 평가 기준을 동적으로 생성해, 해당 작업에서 “좋은 결과”가 무엇인지를 상황에 맞게 정의합니다.

질의별 가중치 및 평가 기준 예시

다음과 같은 질의를 예로 들 수 있습니다.

“AI와의 상호작용이 인간의 대인관계에 어떤 영향을 미치는지를 논의하시오.
특히 AI가 개인들이 서로 관계를 맺는 방식과 그 이유를 근본적으로 어떻게 변화시킬 수 있는지를 고려하시오.


이 과제에 대해 RACE는 평가 항목별로 서로 다른 가중치를 부여합니다.




아래는 Insight(40%) 항목에 대해 RACE가 생성한 세부 평가 기준(rubric)의 예시입니다. 

 


벤치마크 구성

Deep Research는 공개 벤치마크내부 벤치마크를 함께 활용해 평가됩니다.

이를 통해 개방적이고 경쟁적인 환경에서의 성능과, 실제 엔터프라이즈 업무 흐름에서의 활용성을 동시에 검증합니다.

공개 벤치마크 – DeepResearch Bench

DeepResearch Bench는 딥 리서치 시스템 평가를 위해 설계된 공개 벤치마크입니다.

도메인 전문가가 작성한 100개의 박사급 연구 과제로 구성되어 있으며, 딥 리서치 제품 간의 공정한 비교를 목표로 합니다.

현재 Deep Research의 점수는 50.74점으로, 리더보드 기준 4위에 해당합니다.


\


내부 벤치마크 – 엔터프라이즈 리포트

엔터프라이즈 환경에서 Deep Research가 실제로 어떻게 사용되는지를 평가하기 위해, 사내 Confluence에 축적된 고품질 리포트 기반 내부 벤치마크를 운영하고 있습니다.

이 리포트들에 역 프롬프트 엔지니어링(reverse prompt engineering)을 적용해, 실제 기업 업무 흐름을 반영한 리서치 질문으로 변환합니다.

이를 통해 Deep Research가 일상적인 엔터프라이즈 의사결정 과정에서 요구되는 리서치 과제를 얼마나 잘 수행하는지를 평가합니다.


대표적인 활용 사례

  • 시장 및 경쟁 분석
    예: “FY25 Q4 기준, 주목해야 할 시장 및 인재 트렌드는 무엇이며 이러한 변화가 채용 및 비즈니스 전략에 어떤 영향을 미칠 수 있는가?”

  • 분기 및 임원 보고용 요약
    예: “FY26 Q1 ‘State of Atlassian’을 종합적으로 요약·분석하고, 창업자 관점, 회사 차원의 OKR, 주요 고객 성과, 핵심 전환 과제의 진행 상황과 도전 과제를 포함해 AI 및 클라우드 전략 관점에서 향후 방향성을 설명하시오.”

  • 실제 이해관계자에게 전달되는 결과물과 동일한 수준의 기타 임원 보고용 리포트


이 데이터셋에 대해 RACE 프레임워크를 적용해 모델이 생성한 리포트를 평가한 결과, Deep Research의 RACE 점수는 62.72점으로 나타났습니다.
RACE 기준에서 50점 이상은 인간이 작성한 기준 리포트보다 높은 품질을 의미하며, 이는 생성된 리포트가 해당 벤치마크에서 기존 인간 작성 리포트를 이미 상회하고 있음을 시사합니다.


공개 벤치마크와 엔터프라이즈 중심의 내부 벤치마크를 함께 활용함으로써, Deep Research의 평가 전략은 산업 표준 성능과 실제 업무 활용 품질을 동시에 검증하도록 설계되었습니다.

참조 기반 벤치마크 요약



II. Reference-Free 평가 전략

Side-by-Side 비교 평가

참조 기반 벤치마크 외에도, 경쟁사의 Deep Research 제품과 참조 없이(reference-free) 결과를 직접 비교하는 병렬 평가(side-by-side evaluation)를 함께 수행합니다.


각 리서치 과제에 대해 다음과 같은 방식으로 평가가 진행됩니다.

  • Deep Research를 사용해 리포트 생성

  • 경쟁 제품(예: ChatGPT Deep Research)으로 동일 과제 리포트 생성

  • 두 결과물을 LLM 판정자 기반 승 / 무 / 패(win / tie / lose) 프레임워크로 비교


이 방식은 사용자가 실제로 두 결과물을 나란히 비교해 선택하는 상황을 모사합니다.

이를 통해 단순 점수 비교가 아닌, 실제 선호도 관점에서의 품질 차이를 측정합니다.

DeepConsult 평가

DeepConsult는 시장 분석, 투자 기회 평가, 산업 분석, 재무 모델링 및 평가, 기술 트렌드 분석, 전략적 비즈니스 기획 등 실제 컨설팅 업무에 가까운 과제를 폭넓게 포함한 데이터셋입니다.


주요 과제 유형

  • 시장 분석

  • 투자 기회 평가

  • 산업 분석

  • 재무 모델링 및 평가

  • 기술 트렌드 분석

  • 전략적 비즈니스 기획


이 데이터셋을 활용해 Deep Research와 ChatGPT Deep Research를 side-by-side 환경에서 직접 비교하고, LLM 판정자가 각 과제별로 더 우수한 결과물을 선택합니다.

품질 비교 요약


DeepConsult 기준 side-by-side 평가에서, Deep Research 리포트는 ChatGPT Deep Research 대비 77%의 승률을 기록했습니다.

이는 다수의 비교 상황에서 LLM 기반 판정자가 Deep Research의 결과물을 더 우수하다고 판단했음을 의미하며, 실제 의사결정 환경에서도 일관되게 높은 품질의 리포트가 제공되었음을 보여줍니다.




앞으로의 Deep Research

Deep Research v2는 완성이 아니라 새로운 기준선으로 제시됩니다.

  • 실행 가능한 전문가 수준의 권고안 강화
    단순한 정보 제공을 넘어, 트레이드오프를 명확히 제시하고 구체적인 선택지와 다음 단계를 드러내는 리포트를 지향합니다.

  • 사실 정확성과 인용 품질을 검증하는 가드레일 강화
    핵심 주장과 출처 간의 연결성을 체계적으로 검증해, 근거가 부족한 응답보다 검증되고 인용이 명확한 결과를 우선합니다.

  • ADF 기반 시각적 구조와 데이터 시각화 확대
    Atlassian Document Format(ADF)과의 통합을 통해 시각적 구조를 강화하고, 데이터 분석 결과를 차트와 그래프로 표현해 인사이트를 더 쉽게 전달하도록 개선이 이어지고 있습니다.


Deep Research는 단순한 AI 기능을 넘어 팀의 사고와 의사결정을 확장하는 연구 파트너로 발전하고 있습니다.






참고 링크

How Rovo Deep Research works – Work Life by Atlassian How Rovo Deep Research works

Introducing Rovo Deep Research, grounded on your data – Work Life by Atlassian



JSM Virtual Agent로 고객 지원 자동화하기

출처

Automating Customer Support with JSM Virtual Agent - Work Life by Atlassian

작성자:
Abhishek Rana (Senior Software Engineer),
Rajat Gupta (Senior Machine Learning Engineer)
발행일: 2025년 11월 24일

Atlassian의 Jira Service Management(JSM) Virtual Agent가 AI를 활용해 고객 지원을 자동화하고, 채팅 워크플로우를 간소화하며, 전 세계 팀에 더 빠르고 정확한 문제 해결 경험을 제공합니다.

Introduction

고객 지원은 빠르게 진화하고 있으며, 그 중심에는 자동화가 있습니다.
Jira Service Management(JSM) 팀은 AI를 활용해 지원 프로세스를 간소화하고, 사용자에게 더 빠르고 정확한 응답을 제공하기 위해 지속적으로 노력해 왔습니다.

이 글에서는 JSM Virtual Agent를 구축해 온 과정과 아키텍처, 그리고 실제로 만들어내고 있는 성과에 대해 소개합니다.





JSM이란?

Jira Service Management(JSM)는 Atlassian의 AI 기반 서비스 관리 솔루션입니다.
JSM을 통해 팀은 고객 요청을 손쉽게 접수하고, 추적하며, 관리하고, 해결할 수 있습니다.

고객은 다음과 같은 다양한 채널을 통해 요청을 제출할 수 있습니다.

  • 이메일

  • 헬프 센터

  • 임베디드 위젯

  • Slack, Microsoft Teams와 같은 서드파티 앱


JSM 활용 사례

  • IT 지원 팀
    기술 문제 해결 요청
    신규 소프트웨어 접근 권한 요청 처리

  • 인사(HR) 팀
    복지, 급여, 사내 정책 관련 문의 대응



JSM Chat 개요

JSM Chat의 간단한 데모를 살펴보겠습니다.

아래 예시처럼 고객이 JSM 헬프 센터를 통해 요청을 등록하면, Virtual Agent(VA) 봇이 먼저 문제 해결을 시도합니다.
봇이 해결하지 못할 경우, 사용자는 사람 상담원에게 이관할 수 있으며, 이 과정에서 JSM 티켓이 자동으로 생성됩니다.

이 데모는 가상 에이전트와 실제 상담원 간의 매끄러운 전환을 보여주며, 고객이 항상 필요한 도움을 받을 수 있도록 보장합니다.








채팅 아키텍처의 진화

Before

이전의 채팅 백엔드는 여러 한계를 가지고 있었습니다.

가장 큰 문제 중 하나는 채널별로 봇 응답이 일관되지 않았다는 점입니다.

예를 들어 웹 기반 인터페이스인 Portal과 Help Center는 서로 다른 백엔드를 사용하고 있었습니다.

  • Portal: Intent Flow만 지원

  • Help Center: AI 답변만 지원

AI 답변은 Atlassian 자체 LLM 모델 또는 OpenAI와 같은 서드파티 LLM을 활용해 생성되었습니다.
Intent Flow는 문자열 벡터화를 통한 유사도 매칭 방식으로 동작하며, 관리자가 트리 구조의 흐름을 사전에 설정할 수 있었습니다.

모든 채널에서 AI 답변을 제공하려면 총 6개의 서로 다른 백엔드를 수정해야 했고, 이는 10명 규모의 개발팀에게 매우 큰 부담이었습니다.
 
 

<이전의 JSM Chat 아키텍처>


Now

이러한 문제를 해결하기 위해 채팅 아키텍처를 전면 재설계했습니다.

  • 채널 분류 (Channel Categorization)

    • 고객 채널을 스트리밍 채널과 비스트리밍 채널로 구분했습니다.

      • 스트리밍 채널 (Help Center, Portal 등)
        → AI 응답을 실시간으로, 한 글자씩 스트리밍하여 사용자에게 즉시 전달

      • 비스트리밍 채널 (Slack, MS Teams 등)
        → AI 응답을 모두 생성한 뒤 한 번에 전송
        → 실시간 스트리밍을 지원하지 않는 채널 특성에 최적화

  • 통합 오케스트레이터 (Unified Orchestrator)

    • 모든 채널에 대해 단일 오케스트레이터 서비스를 도입했습니다.
      Slack, Help Center, Portal 등 어떤 채널에서 요청이 들어오든, 오케스트레이터가 이를 일관된 로직으로 처리하고 동일한 품질의 응답을 생성합니다.

      이를 통해 채널별 구현 복잡도를 줄이고, 응답 생성 방식을 표준화했습니다.

  • 데이터 저장 (Data Storage)

    • 다음과 같은 대화 관련 데이터는 DynamoDB에 안전하게 저장됩니다.

      • 사용자 메시지

      • AI 응답

      • 핸들러 정보

      • 티켓 연결 정보

      모든 데이터는 데이터 레지던시 정책을 준수하도록 설계되었습니다.



 <현재 JSM Chat 아키텍처>


이 다이어그램은 스크립트 기반 응답에서 고도화된 AI 기반 시스템으로 발전한 과정을 보여줍니다.
각 단계는 고객 요청을 더 정확하고 효율적으로 이해하고 해결하기 위한 도약을 의미합니다.





AI 심층 분석: Virtual Agent의 동작 방식

심층 분석: 라우팅 전략



라우팅 전략


  • VA(가상 에이전트)가 활성화된 고객의 경우, (현재는 Atlassian Premium 고객 대상), 먼저 Intent 매칭 여부를 확인합니다.

  • VA가 비활성화된 경우, 즉시 사람 상담원으로 이관하고 JSM 티켓을 생성합니다.

  • VA가 활성화되어 있고 신뢰도가 높은 Intent가 감지되면, Intent 메시지(Intent Message)를 바로 제공합니다. 그렇지 않은 경우, AI 생성 답변으로 전환합니다.


대화가 이어질 경우, 이전에 사용된 핸들러 정보를 DB에서 불러와 흐름을 유지합니다.
신뢰도 점수가 낮아지면 AI 답변으로 전환되며, 한 번 AI 생성 답변으로 전환된 경우, Intent Flow로 다시 돌아가지 않습니다.



심층 분석: 질의 흐름 및 구성

사용자 질의(Query)가 처리되는 전체 흐름

  • 개인화(Personalisation)
    사용자 위치, 프로필 등 정보를 활용해 응답을 더 적절하게 구성

  • RAG (Retrieval-Augmented Generation)
    Jira 티켓, 지식 베이스(KB) 등 다양한 검색 소스를 활용

  • 환각 방지(No Hallucinations)
    부정확하거나 오해를 일으킬 수 있는 답변을 생성하지 않도록 안전 장치 적용


이 다이어그램은 사용자 입력부터 개인화, 검색, 최종 AI 응답 생성까지의 전체 여정을 보여줍니다.




 



심층 분석: 검색 및 랭킹

여러 개의 질의 변형을 생성한 뒤, 지식 베이스(KB)에서 관련 정보를 검색합니다.
각 질의는 서로 다른 결과를 반환할 수 있기 때문에, 가장 유용한 결과를 선별하는 과정이 필요합니다.

왜 상위 N개의 문서 구간을 추출해야 할까요?

  • 검색 결과가 너무 많을 경우, 사용자가 혼란스러워질 수 있습니다.

  • 반대로 결과가 너무 적으면, 최적의 답변을 놓칠 가능성이 있습니다.


이를 해결하기 위해 재랭킹(Reranking) 과정을 적용합니다.




랭킹 메커니즘

상위 N개의 문서 구간을 선정하기 위해 다음 점수들을 조합합니다.

  • Similarity Score
    질의와 문서 구간을 임베딩으로 변환한 뒤, 코사인 유사도 기반 점수를 산출합니다.

  • Cross Encoder Score
    BERT 기반 Cross Encoder를 사용해 질의와 문서 구간을 함께 인코딩하고, 정교한 관련성을 평가합니다.

  • Reciprocal Rank Fusion (RRF)
    각 랭킹 결과의 순위를 기반으로 점수를 부여한 뒤 이를 합산해 최종 랭킹을 생성합니다.
    단순하면서도 확장성이 뛰어나며, 여러 랭킹 방식의 장점을 효과적으로 결합합니다.





성과 및 결과



JSM Virtual Agent의 성과

  • 자동화를 통해 해결률이 50% 증가했으며, JSM 채팅 요청의 약 50%를 AI로 처리

  • CSAT(고객 만족도) 40% 개선

  • 20개 이상 언어 지원, 글로벌 고객 지원 환경 제공




추가 개선 사항



개선하기 위한 기능 추가

  • 질의 변형(Query Variation)
    여러 질의 변형을 생성해, 표현 방식이 달라도 적절한 KB 문서를 찾을 수 있도록 지원

  • 모호한 질의 감지(Vague Query Detection)
    질문이 모호할 경우, 사용자에게 추가 정보를 요청

  • COT 기반 환각 감지기
    AI의 추론 과정을 분석해 신뢰할 수 없는 답변을 감지·차단




Conclusion

AI 기반 가상 에이전트는 고객 지원을 더 빠르고, 정확하며, 확장 가능하게 변화시키고 있습니다.
JSM은 지금까지의 성과를 자랑스럽게 생각하며, 자동화된 고객 지원의 미래를 기대하고 있습니다.