AWS 기술 블로그
카사코리아 AI 챗봇 구축기 Amazon Bedrock 기반 대고객 에이전트형 챗봇 구현 사례
카사코리아(Kasa Korea) 소개
카사코리아는 상업용 부동산에 누구나 쉽고 부담 없이 투자할 수 있도록 돕는 블록체인 기반의 부동산 조각투자 플랫폼입니다.
2020년 11월, 강남 역삼에 위치한 ‘역삼 런던빌’ 공모를 시작으로 강남, 서초, 여의도 등 핵심 상권의 프라임 빌딩을 상품화해 왔으며, 누적 공모 건수와 총 투자 규모 모두 업계 최고 수준을 기록하고 있습니다.
카사코리아는 단순히 부동산 거래를 중개하는 플랫폼을 넘어, 부동산 금융의 디지털 전환이라는 흐름 속에서 투자 경험을 혁신하고, 정보의 투명성과 기술 기반의 신뢰를 핵심 가치로 삼고 있습니다.
이러한 방향성을 고객과의 접점에서도 실현하기 위해, 카사코리아는 AI 기술을 활용한 고객 응대 시스템을 도입하고 있으며, 그 중에서도 Amazon Bedrock 기반의 AI 챗봇 구축을 추진하게 되었습니다.
고객 응대 AI 챗봇 기획 배경
카사코리아는 투자 플랫폼 특성상, 고객이 궁금해할 수 있는 질문이 매우 다양하고 복잡합니다.
공모 일정, 수익 구조, 계좌 개설, 세금 처리, 매매 방식 등 문의 내용이 금융과 법률, 기술을 넘나들다 보니, 단순한 FAQ 기반 응대만으로는 만족스러운 사용자 경험을 제공하기 어려웠습니다.
기존에는 내부 운영팀과 외주 상담 인력을 중심으로 고객 응대를 운영해 왔으나, 플랫폼이 성장함에 따라 다음과 같은 운영상의 한계가 명확히 드러났습니다.
- 정형화된 질문에도 일일이 사람이 응답해야 하는 구조로, 반복되는 업무 소모
- 응대 품질이 상담사 숙련도에 따라 달라지는 문제 발생
- 고객이 가장 활발히 활동하는 저녁 시간대나 주말에는 실시간 응대가 어려움
- CX 인력 확대의 부담감
이에 따라 카사코리아는 AI 기반 자동응답 시스템 도입을 본격적으로 검토하기 시작했고, 이를 위한 기술 탐색의 일환으로 AWS Agentic AI Building Program에 참가했습니다. 이 프로그램을 통해 최신 AI 에이전트 기술과 워크플로우 자동화 구조를 학습하고, LangGraph 기반의 추론 시각화 및 응답 자동화 구조를 직접 설계해보는 실습을 진행했습니다. 특히 초기 설계와 구현 비용이 비교적 크지 않아, 실무에 빠르게 적용할 수 있다는 가능성도 확인할 수 있었습니다.
이러한 준비 과정을 바탕으로, 카사코리아는 실제 서비스 환경에 적합한 AI 챗봇 시스템 구축에 착수하였으며, 고객 문의의 복잡성과 실시간 고객 요구사항을 모두 만족시킬 수 있는 챗봇을 개발하기 시작했습니다.
카사 AI 챗봇 소개
[챗봇 워크플로우]
카사코리아의 AI 챗봇은 고객 문의에 대한 정확한 의도 파악과 안전한 개인화 응답 제공을 목표로, Advanced Retrieval-Augmented Generation(RAG) 기법과 LangGraph 기반의 상태 관리형 워크플로우를 적용하여 구축되었습니다. 사용자의 질문을 맥락과 함께 분석해 의미를 명확히 재구성하고, 지식 기반 문서 및 개인 맞춤형 데이터를 비식별화된 형태로 수집하여, 개인정보 보호를 최우선으로 설계하였습니다. 이를 통해, 개인정보 유출의 위험 없이 신뢰도 높은 답변을 신속하게 제공합니다. 챗봇의 구체적인 응답 생성 과정은 다음과 같습니다.
챗봇 워크플로우
-
사용자 입력 전처리 및 의미 재구성
- 자연어 정제
- 사용자 질문에서 오타, 불필요한 표현, 비문 등을 정제하여 LLM이 정확하게 이해할 수 있는 형태로 변환합니다.
- 대화 히스토리 기반 질문 명확화
- 이전 대화 흐름을 반영하여 모호한 질문을 명확하게 재구성합니다.
- 예시) “외국인도 사용 가능한가요?” → “그럼 미성년자는요?” → “미성년자도 사용 가능한가요?”
- 이 과정을 통해 질문을 명확화하고, 이후 Knowledge Bases 검색의 정확도와 및 API 호출의 신뢰도를 높입니다.
- 서비스 연관성 분류
- 입력된 질문이 카사 서비스와 직접적으로 관련이 있는지 판단하여, 외부 질문에 대한 처리를 유연하게 제어합니다.
- 자연어 정제
-
FAQ Fast Path 처리
- FAQ 매칭
- 질문을 임베딩한 뒤, 사전에 정의된 FAQ 임베딩 DB와 비교하여 의미 유사도가 일정 기준 이상일 경우, 별도의 RAG 또는 API 호출 없이 등록된 정답 응답을 즉시 반환합니다.
- 이 Fast Path 전략은 반복적으로 들어오는 대표 질문에 대해 응답 속도를 대폭 개선하며, 리소스 소비를 최소화하면서도 일관된 응답 품질을 유지합니다.
- FAQ 매칭
-
데이터 수집 및 필터링
- 지식 기반 문서 수집
- 질문과 의미적으로 유사한 문서 10건을 Knowledge Bases 에서 검색한 뒤, Reranker를 통해 후보들을 재평가합니다.
- 이 과정에서는 중복 제거 및 노이즈 필터링을 수행하여, 응답 생성에 적합한 핵심 정보만을 남깁니다.
- 개인 데이터 수집
- 개인화된 질문(예: “내 계좌 개설 상태 알려줘”)이 입력되면, LLM은 시스템 프롬프트를 기반으로 질문의 의도를 분석하여 필요한 API를 식별합니다.
- 이후 해당 API는 별도로 정의된 보안 노드를 통해 호출되며, 여기서 반환된 민감 데이터는 즉시 비식별화된 형태로 context에 저장됩니다.
- LLM이 개인의 인증 정보, 투자 내역 등 민감한 데이터에 직접 접근하지 않도록 설계되어, 보안성과 개인정보 보호를 강화합니다.
- 지식 기반 문서 수집
-
답변 생성 및 전달
- 답변 생성
- LLM은 수집된 지식 문서와 비식별화된 개인 데이터를 종합하여, 질문에 대한 신뢰도 높은 응답을 생성합니다.
- 민감 정보 보호
- 이때 Guardrails 및 마스킹 로직이 적용되어, 민감 정보가 직접 노출되지 않도록 보호합니다.
- 특히 개인화된 답변의 경우, LLM은 API 응답 원문이 아닌 context에 저장된 비식별화 데이터를 기반으로 응답을 구성함으로써, 개인정보 유출 위험 없이 정확한 맞춤형 정보를 제공합니다.
- 답변 생성
최종 응답은 출력 전 Amazon Bedrock Guardrails 를 거치게 되며, 이를 통해 개인정보의 노출을 방지하고 금융 서비스 환경에 적합한 수준의 응답 안전성과 컴플라이언스를 효과적으로 충족할 수 있도록 구성하였습니다. 추가적으로, AI 챗봇이 처리할 수 없는 복잡한 케이스가 발생하는 경우 휴먼 핸드오프 노드를 통해 전문 상담사와 연결될 수 있도록 설계함으로써, 상담 연속성과 응답 품질을 보장하였습니다.
이와 같은 설계를 통해 카사코리아는 고객 문의의 복잡도에 따라 유연한 처리를 가능하도록 하였고, 응답 속도, 정확성, 개인정보 보호를 모두 충족하는 AI 고객 상담 챗봇을 구현하였습니다.
아키텍처 개요
[전체 시스템 아키텍처]
카사코리아는 금융 관련 법률 및 규제 요건에 부합하는 안전한 인프라 아키텍처를 구축하기 위해 관련 법령과 가이드라인을 기반으로 AI 챗봇 아키텍처를 설계하였습니다.
모델 추론에 필요한 모든 API 호출은 Amazone Bedrock 서울 리전을 통해 처리되며, 네트워크는 AWS PrivateLink 또는 Private VPC 환경을 활용하여 외부와의 직접적인 연결을 차단하고, 데이터가 클라우드 외부로 노출되지 않도록 구성하였습니다. 특히 LLM 호출 과정에서 발생하는 요청 정보, 응답 결과, 프롬프트 로그 등 모든 메타데이터는 개인정보가 마스킹된 상태로 저장되며, 지정된 보안 통제 구역 내에서만 관리되고 외부로의 전송은 원칙적으로 차단됩니다.
또한, 챗봇 시스템 전반에는 사내 보안 정책과 연동된 Amazon IAM 기반의 접근 제어 체계를 적용하였습니다. 이를 통해 내부 접근 인원을 최소화하고, 세분화된 권한 관리를 통해 보안성과 시스템 안정성을 확보하였습니다.
카사 AI 챗봇 핵심 기술 적용 과정
FAQ Fast-Path 및 Amazon Bedrock 활용 전략
카사 AI 챗봇은 Amazon Bedrock 위에서 FAQ Fast-Path 전략을 적용해 “반복 질문은 순식간에, 복합 질문은 꼼꼼하게” 응답합니다. 사용자의 질문은 Titan 임베딩 엔진을 통해 벡터화되며, FAQ 임베딩 DB 검색을 통해 유사도를 계산합니다. 유사도 점수가 0.85 이상이면 LLM을 호출하지 않고 미리 준비된 답변을 즉시 반환해 평균 지연 시간을 효과적으로 낮춥니다. FAQ 매칭이 실패하거나 추가 정보가 필요한 경우에는 RAG 파이프라인으로 전환됩니다. 이때 챗봇은 지식 베이스에서 의미적으로 가장 가까운 문서 10건을 검색하고, 전용 Reranker로 중복과 노이즈를 제거해 고품질 근거만을 확보합니다.
개인화된 질문이 감지되면 내부 API를 호출해 유저 정보를 가져오고, 비식별화한 요약본만 컨텍스트에 저장해 LLM이 원본 데이터에 접근하지 못하도록 합니다. Claude Sonnet 모델은 정제된 문서와 비식별화 데이터를 결합하고 Guardrails·마스킹 로직을 적용해 신뢰도 높은 답변을 생성합니다.
이러한 구조를 적용하여 카사코리아의 챗봇은 대부분 사용자의 요구를 빠르게 충족하면서도 보다 세밀한 정보를 원하는 고객까지 폭넓게 커버할 수 있습니다.
PostgreSQL 기반 RAG 구성
AI 응답 품질을 높이기 위한 Retrieval-Augmented Generation(RAG) 아키텍처 설계 초기 단계에서, 카사코리아는 여러 벡터 검색 엔진 옵션을 대상으로 내부 테스트 및 성능 비교를 수행했습니다. 평가 대상에는 PostgreSQL, Amazon OpenSearch Service 등이 포함되었으며, 검색 정확도, 문맥 유지력, 응답 일관성과 같은 핵심 지표를 중심으로 실험을 진행했습니다.
실험 결과, 대부분의 기술이 일정 수준 이상의 성능을 보였으나, 실제 서비스에 적용할 아키텍처를 결정하는 데 있어 더 큰 영향을 미친 요인은 카사코리아의 기존 인프라와의 정합성이었습니다. 특히 다음과 같은 요소들이 중요하게 작용했습니다.
- 데이터팀과 개발팀 간 분석 및 협업 일관성 유지
- 기존 데이터 파이프라인과의 통합 용이성
- VPC 기반 보안 정책 하에서의 데이터 흐름 통합 용이성
- 인프라 복잡도를 최소화하고 운영 부담을 줄일 수 있는 구조
이러한 정량적·정성적 검토를 바탕으로, 챗봇 시스템의 검색 인프라는 카사코리아의 데이터 자산, 보안 정책, 조직 내 협업 방식에 최적화된 방향으로 설계되었으며, 그 결과 실제 운영 환경에서의 유연성과 확장성을 모두 확보할 수 있었습니다.
문서 유형별 Chunking 전략
RAG에서의 핵심 기술 요소 중 하나는 Chunking 전략입니다. 카사의 원본 문서는 Web page, Image, PDF 등 다양한 포맷으로 구성되어 있었고, 다음과 같은 문제점이 발견되었습니다.
- PDF의 표·도표가 제대로 인식되지 않아 응답 오류 발생
- 구버전 문서와 최신 문서 혼용으로 정보 충돌 및 오류 응답 발생
- 문답형 데이터 업로드시 다른 문답과 분리·혼합되어 데이터 오염으로 인한 오답 발생
이를 해결하기 위해 문서 유형별로 데이터를 정제하는 작업과, Chunking 전략을 차별화하여 적용하였습니다.
다양한 유형의 문서로부터 데이터를 정제하는 작업이 적용되었습니다. 문서들마다 특징을 분석하여 유형별로 정제할 수 있는 파이프라인을 구축하였습니다. 예를 들어, 표·도표 인식 이슈를 해결하기 위해 AWS Textract, 모델을 이용한 파싱정책을 사용하여 인식율을 높이고, Chunking 정책을 다양하게 활용하여 정제작업을 진행했습니다.
Chunk 크기를 조정하여 모델 처리시간을 효율화하였으며, Contextual Retrieval을 적용하여 임베딩 성능을 높이는 효과를 보았습니다. 비슷한 형식의 문서이지만 다른 주제를 가지고 있을 경우 , 메타데이터를 기반으로 자동 정제될 수 있도록 구현하였습니다. 이와 같은 RAG 전략은 검색 정확도와 응답 속도를 개선하는 데 눈에 띄는 결과를 도출해낼 수 있었습니다.
개인정보 보호를 위한 Amazon Bedrock Guardrails 적용
AI 챗봇의 도입에 있어 가장 핵심적으로 고려해야 할 요소 중 하나는 사용자 개인정보 보호입니다. 특히 금융 서비스 환경에서는 민감한 고객 정보가 유출되거나 잘못 처리될 경우, 서비스 신뢰도 저하와 법적 책임으로 이어질 수 있습니다. 이에 따라 카사코리아는 Amazon Bedrock Guardrails 기능을 활용하여, 고객 개인정보가 LLM에 노출되지 않도록 다계층 보호 체계를 구축하였습니다.
Bedrock Guardrails의 PII(개인 식별 정보) 필터링 기능을 활용하였으며, 개인정보의 민감도와 상담 업무 수행 시 필요 여부에 따라 두 가지 방식(Block, Mask)으로 구분하여 처리되도록 하였습니다.
처리 | BLOCK | MASK |
---|---|---|
LLM에 입력값 전달 여부 | 전달되지 않음 (LLM 호출 전 차단) | 전달됨 (LLM 호출 후, 출력 직전 마스킹) |
LLM 응답에 개인정보 포함 여부 | 미포함 (LLM 호출 전 차단) | 포함될 수 있음 → 이후 Guardrail이 마스킹 |
응답값 | “허용되지 않은 요청입니다” | 응답에서 민감정보만 “마스킹” |
사용 예시 | 주민등록번호, 신용카드번호 등 LLM에 전달되지 않아야 하는 중요 PII 정보 | 이름, 휴대전화번호 등 요구사항 처리를 위해 필요한 PII 정보 |
[Guardrail 기준으로 BLOCK, MASK 세팅 방법 예시]
먼저, 주민등록번호, 신용카드번호와 같은 고위험 PII는 LLM에 전달되기 전 사전 탐지되어 즉시 차단하고, 이름, 휴대전화번호 등 고객 요구사항 처리를 위해 필요한 정보는 LLM에 전달되기 전 마스킹 처리되도록 하여 입력, 처리, 출력 전반에 걸쳐 안전한 정보 보호 체계를 구현하였습니다.
그러나 Guardrails PII의 경우 기본적으로 영어 기반의 룰셋으로 설계되어 있어, 한국어 기반의 PII 탐지 정확도에 한계가 존재했습니다. 예를 들어, 주민등록번호, 계좌번호, 주소 등이 탐지 및 필터링 되지 않는 사례를 확인할 수 있었고, 이를 보완하기 위해 한국어 기반 PII 정규식을 커스텀하여 적용하였습니다. 이에 더해 Guardrails의 필터링 한계를 보완하기 위해 System Prompt 내 개인정보 보호 관련 지침을 명시적으로 포함하였습니다.
구분 | 정규식 | 탐지 시 행위 |
---|---|---|
주민등록번호 | \b\d{6}-[1-4]\d{6}\b | 차단 |
휴대전화번호 | \b01[0-9][-.\s]?\d{3,4}[-.\s]?\d{4}\b | 마스킹 |
계좌번호 | \b\d{2,4}[-.\s]?\d{2,4}[-.\s]?\d{4,6}\b | 마스킹 |
신용카드번호 | \b(\d{4})[- ]?(\d{4})[- ]?(\d{4})[- ]?(\d{4})\b | 차단 |
[PII 정규식 예시]
네트워크 보안 측면에서도 개인정보가 외부에 노출되지 않도록 설계하였습니다. Amazon Bedrock은 VPC와 AWS PrivateLink를 통해 호출되며, 이를 통해 외부 인터넷 경로를 차단하고 폐쇄망 내에서 안전하게 요청/응답이 처리될 수 있도록 구성하였습니다.
또한 고객의 투자 정보, 계좌 상태 등 민감도가 높은 데이터는 LLM이 직접 조회하지 않도록 설계하였습니다. 이러한 정보는 내부 API를 통해 별도 처리된 후, LLM에는 비식별화된 형태로만 전달됩니다.
이처럼 카사코리아는 LLM이 개인정보를 처리, 응답에 포함하지 않도록 하며, 금융 서비스 환경에서 요구되는 보안성과 신뢰성을 충족할 수 있도록 설계 및 구현하였습니다.
도입 효과 및 향후 계획
카사코리아의 AI 챗봇은 현재 서비스 내 적용을 앞두고 사내 테스트 및 품질 보완 단계에 있습니다.
초기 설계와 파일럿 테스트 결과를 기반으로 예상되는 효과는 다음과 같습니다.
항목 | 가치 수치 | 도입 효과 |
---|---|---|
응답 정확도 | 약 95% 이상 | 내부 테스트 기준 FAQ 중심 응답에서 안정적인 정확도 확보 |
자동 응답 커버리지 | 전체 문의 중 약 80% | 반복성 높은 질문 자동 처리 가능 |
CX 팀 업무량 | 최대 30% 이상 절감 | 단순/반복 문의 감소로 인한 인력 리소스 효율화 |
응답 속도 | 평균 3초 이내 | 실시간 응답, 고객 만족도 향상 기대 |
운영 비용 | 최대 연 수천만 원 절감 예상 | 외주 상담 인력 최소 + 24시간 대응으로 비용 효율성 강화 |
[AI 챗봇 도입 효과]
챗봇은 단순한 고객 응대를 넘어, 에이전트형 고객 경험 플랫폼으로의 진화를 목표로 하고 있습니다.
이를 위해 아래와 같은 단계적 확장 계획을 수립하고 있습니다.
- 콜센터 연계 및 하이브리드 CX 구조 도입
- AI 챗봇과 실시간 상담 인력 간 연동
- 상황 요약 기반 이관 기능 도입 (ex: “최근 공모 일정 문의 후 대기 중”)
- 법인 고객 및 전문 투자자 응대 확대
- B2B 고객 대상 맞춤형 응대 시나리오 구축
- 전문 투자자 등록 절차, 세무 안내 등 복잡도 높은 질의 처리
- 내부 시스템 통합 및 기능 고도화
- 공모 상태, 배당금 예측 등 시스템 연동
- Agent 기반 다단계 추론 흐름을 통한 고난이도 질문 대응
마무리
카사코리아의 AI 챗봇은 부동산 조각 투자라는 특수한 도메인을 고려하여 설계되었습니다. 고객 문의가 단순 정보 요청을 넘어 금융·부동산·법률 등 다양한 분야에 걸친 심층적인 질문으로 이어지는 경우가 많다는 점을 반영하여, 빠른 응답을 위한 Fast-Path 전략과 복잡한 질의에 정확하고 일관된 답변을 제공하는 Advanced RAG 구조를 적용했습니다. 또한, 금융 환경에서 필수적인 개인정보 보호를 위해 Amazon Bedrock Guardrails와 정규화된 한국어 PII 필터링을 병행하여, 높은 수준의 보안성과 안정성을 확보하였습니다.
앞으로도 카사코리아는 Amazon Bedrock의 안전하고 확장 가능한 인프라 위에서 더욱 정교하고 효율적인 고객 대응 기술을 지속적으로 발전시켜 나갈 예정입니다. 이 사례가 유사한 과제를 해결하려는 팀들에게 실질적인 참고가 되길 바랍니다.