인도의 글로벌 시스템 통합업체, NVIDIA AI와 함께 차세대 엔터프라이즈 에이전트 구축, 백오피스 및 고객 지원 혁신
Source: NVIDIA AI Blog
번역을 진행하려면 번역하고자 하는 전체 텍스트를 제공해 주시겠어요? 텍스트를 알려주시면 요청하신 대로 한국어로 번역해 드리겠습니다.
에이전틱 AI가 인도의 기술 환경을 변화시키다
인도의 기술 부문은 NVIDIA AI Enterprise와 NVIDIA Nemotron 모델을 활용하여 콜센터, 통신, 의료 등 다양한 산업 전반에 걸쳐 생산성과 효율성을 높이고 있습니다.
주요 기업
- Infosys
- Persistent
- Tech Mahindra
- Wipro
이 기업들은 NVIDIA AI Enterprise 기반의 에이전틱 AI 플랫폼을 통합하여 백오피스 운영과 고객 서비스 경험을 혁신하고 있습니다.
인도 AI 임팩트 서밋 하이라이트
- 2024 인도 AI 임팩트 서밋에서는 에이전틱 및 생성 AI로 구동되는 차세대 비즈니스 서비스를 선보였습니다.
- 시연을 통해 실제 적용 사례와 AI 기반 자동화의 실질적인 이점을 강조했습니다.
시장 전망
- **India Brand Equity Foundation (IBEF)**에 따르면, 인도 기술 산업은 2023년 약 2,500억 달러에서 2030년까지 5,000억 달러 매출을 달성할 것으로 예상됩니다.
- 이러한 성장은 AI 도입 급증에 힘입으며, 9월 한 달에만 38,000대의 GPU를 구매한 사례가 이를 입증합니다.
서밋에 대한 자세한 정보:
- 공식 사이트 방문: India AI Impact Summit
Wipro WEGA 플랫폼 – NVIDIA AI Enterprise 로 콜센터 효율성 향상
개요
Wipro의 AI‑에이전트 지원 솔루션은 WEGA 플랫폼과 NVIDIA AI Enterprise 위에 구축되어, 미국 대형 건강보험 제공업체가 회원에게 서비스를 제공하는 방식을 혁신하고 있습니다. 실시간 AI 지원과 중앙 데이터 허브를 결합함으로써, 에이전트가 보다 복잡한 요청을 처리하고 해결 시간을 단축하며 24시간 개인화된 지원을 제공할 수 있게 됩니다.
비즈니스 과제
| 이슈 | 왜 중요한가 |
|---|---|
| 계절별 채용 및 긴 교육 주기 | 피크 등록 기간 동안 빠르게 규모를 확대하기 어렵게 함. |
| 증가하는 콜량 및 파편화된 데이터 | 대기 시간을 늘리고 인간 에이전트에 압박을 가함. |
| 무거운 관리 업무 | 더 높은 가치의 상호작용에 사용할 수 있는 자원을 고갈시킴. |
| 규제 준수 | 엄격한 거버넌스와 데이터 프라이버시 보호가 필요함. |
솔루션 아키텍처
- 핵심 플랫폼: Wipro WEGA (엔터프라이즈급 컨택센터 플랫폼).
- AI 스택: NVIDIA AI Enterprise 제품군, 주요 구성 요소:
- NVIDIA NIM 마이크로서비스 – 프로덕션급, 수평 확장 가능한 추론 서비스.
- NVIDIA NeMo Guardrails – 규제 분야를 위한 내장 안전 및 준수 제어.
- 핵심 기능:
- AI‑에이전트 지원 – 실시간 프롬프트, 지식 검색, 대화형 셀프 서비스.
- 중앙 데이터 허브 – 회원 데이터를 집계해 개인화된 인사이트 제공.
- 자동화된 디지털화 – 다운스트림 프로세스에서 수동 단계를 제거.
참고: 모든 구성 요소는 200 ms 미만의 지연 시간으로 동작하며, 동시 900통의 콜 및 초당 164건 요청을 지원합니다.
결과
- **42 %**의 인바운드 콜이 이제 AI 에이전트만으로 완전 처리됩니다.
- 동시 900통의 콜에 대해 거의 즉각적인 응답성을 제공.
- 초당 164건의 처리량 달성.
- NVIDIA NeMo Guardrails가 준수와 안전을 보장합니다.
Wipro의 AI‑에이전트 지원 솔루션은 강력한 컨택센터 플랫폼과 NVIDIA AI Enterprise를 결합함으로써 더 빠르고 정확하며 규정을 준수하는 고객 경험을 제공하고, 업계에 새로운 표준을 제시합니다.
Tech Mahindra, NVIDIA NIM을 활용한 자율 네트워크 운영을 위한 대형 통신 모델(LTM) 배포
Tech Mahindra는 NVIDIA와 공동으로 구축한 새로운 플랫폼을 통해 AI 기반 네트워크 운영을 가속화하고 있습니다. 핵심은 **Large Telco Model (LTM)**으로, 현장 기술자에게 우선순위가 매겨진 데이터 기반 권고안을 제공하고, 네트워크 전반에 걸친 과거 성공률에 따라 각 수리를 순위화합니다. 그 결과: 한 번의 방문으로도 빠르고 정확한 해결이 가능해지며, Level‑4‑plus 운영 성숙도로 가는 명확한 경로가 열립니다.
주요 혜택
- 첫 번째 시도 성공률 상승 → 재방문 감소.
- 서비스 레이어 이슈 해결 개선 → 서비스 복구 속도 향상.
- 고객 경험 강화 → 이탈률 감소 및 만족도 점수 상승.
- 백오피스 효율성 향상 → 품질 높은 티켓과 에스컬레이션 감소.
플랫폼 작동 방식
| 구성 요소 | 역할 | NVIDIA 기술 |
|---|---|---|
| Semantic Search | 텔레메트리, 로그, 문서를 색인하고 관련 정보를 검색합니다. | NVIDIA Nemotron 임베딩 모델 |
| Reranking | 검색 결과를 정제하여 가장 실행 가능한 인사이트를 표시합니다. | Nemotron reranking model |
| Inference Engine | 낮은 지연 시간으로 대규모 모델 서비스를 제공합니다. | NVIDIA NIM 마이크로서비스 |
| Workflow Orchestration | 네트워크 도메인 전반에 걸쳐 에이전트 작업을 조정합니다. | NVIDIA NeMo Agent Toolkit |
배포 하이라이트
- 마이크로서비스 아키텍처는 NVIDIA NIM을 사용해 빠르고 안정적인 AI 추론을 가능하게 합니다.
- 에이전시 운영은 NeMo Agent Toolkit으로 조정되어 여러 네트워크 도메인에서 자율적인 의사결정을 지원합니다.
- 확장성: 연간 매출 > $1.5 조를 처리하는 글로벌 통신 사업자를 지원하도록 설계되어, 작은 가동 시간 향상만으로도 막대한 경제적 효과를 창출합니다.
산업적 영향
Tech Mahindra가 자율 네트워크 운영을 도입함으로써 AI가 통신 분야를 어떻게 변혁시킬 수 있는지를 보여줍니다—가시적인 가동 시간 개선, 운영 비용 절감, 연간 $1.5 조 규모 시장에서의 경쟁 우위 확보가 그 예입니다.
기본 모델에 대해 자세히 알아보기: NVIDIA Nemotron Foundation Models
Infosys, NVIDIA AI Enterprise와 함께 엔터프라이즈급 코딩 소형 언어 모델 구축
Infosys는 **소프트웨어 개발용 25억 파라미터 소형 언어 모델(SLM)**을 선보였습니다. 이 모델은 NVIDIA AI Enterprise의 일부인 NVIDIA NeMo 프레임워크를 기반으로 하며 **Infosys Topaz Fabric**에 통합되었습니다. 최첨단 성능을 제공하면서도 다음 환경에 배포할 수 있을 만큼 가볍습니다:
- 온‑프레미스 엔터프라이즈 데이터 센터
- 퍼블릭 클라우드 환경
- 일반 데스크톱 머신
주요 기능
| 기능 | 설명 |
|---|---|
| 에이전트 개발 | AI 기반 코딩 어시스턴트 및 멀티‑에이전트 파이프라인을 만들 수 있습니다. |
| 코드 생성 | 여러 프로그래밍 언어에 대해 구문적으로 올바른 코드 스니펫을 생성합니다. |
| 리팩토링 | 기존 코드베이스에 대한 구조적 개선 및 최적화를 제안합니다. |
| 엔드‑투‑엔드 소프트웨어 엔지니어링 워크플로 | 설계·구현부터 테스트·디버깅까지 전체 수명 주기를 지원합니다. |
학습 데이터 및 성능
- 데이터 구성: 선별된 고품질 코드 저장소, 합성 코드, 수학적 추론 데이터셋, 자연어 입력 등.
- 벤치마크 결과: MBPP, MBPP+, BFCL 벤치마크에서 최첨단 모델 수준의 성능을 달성했습니다.
안전성, 신뢰성 및 보안 코딩
- 안전 정렬 학습: 유해하거나 편향된 출력을 감소시키면서 유창성을 유지하기 위해 책임 있는 AI 관행을 적용했습니다.
- 보안 코딩 검증: Stanford AIR‑Bench 및 Meta’s CyberSecEval와 같은 산업 벤치마크에 대해 테스트되어, 기업이 보안 중심 코드 제안에 대한 신뢰를 가질 수 있습니다.
전형적인 사용 사례
- 일상적인 작업을 위한 자동 코드 생성
- 지능형 디버깅 및 오류 해결 지원
- AI 기반 권고를 통한 레거시 코드베이스 리팩토링
- 복잡한 소프트웨어 프로젝트를 위한 멀티‑에이전트 개발 파이프라인 구축
Infosys의 코딩 SLM은 엔터프라이즈급 AI가 보안이나 신뢰성을 희생하지 않고도 소프트웨어 제공 속도를 가속화할 수 있음을 보여줍니다.
Persistent는 NVIDIA BioNeMo 및 NeMo Agent Toolkit을 활용한 AI 기반 분자 발견을 가속화합니다
Persistent Systems는 NVIDIA와 협력하여 초기 단계 약물 발견을 속도와 과학적 정확성의 새로운 시대로 이끌고 있습니다. Persistent의 깊은 생명과학 엔지니어링 전문성과 NVIDIA의 풀스택 가속 컴퓨팅 플랫폼을 결합함으로써, 연구자들은 AI 실험에서 프로덕션 수준의 발견 워크플로우까지 강력한 경로를 확보하게 됩니다.
제공되는 내용
- GenMoIVS (Generative Molecules and Virtual Screening) – NVIDIA BioNeMo 플랫폼과 NeMo Agent Toolkit을 기반으로 구축된 솔루션.
- 도메인‑특화 대형 모델은 분자 행동을 높은 정확도로 시뮬레이션하여, 후보 물질이 실제 실험실에 도달하기 전에 생성 및 평가합니다.
- 에이전트 기반 워크플로우는 가상 스크리닝, 우선순위 지정, 실험 계획 전반에 걸쳐 지속적으로 추론하여 팀이 초기 발견 단계의 위험을 낮추고 개발 주기를 단축하도록 돕습니다.
기술 기반
- NVIDIA AI Enterprise 소프트웨어와 NIM 마이크로‑서비스를 포함한 NVIDIA 가속 컴퓨팅 스택에서 실행됩니다.
- 규제 환경에서도 고처리량 시뮬레이션과 실시간 과학적 의사결정을 가능하게 합니다.
- 프로덕션‑레디 에이전트 AI와 결합된 확장 가능한 인프라스트럭처.
왜 중요한가
- 화합물 공간의 빠른 탐색 – AI 기반 생성 및 스크리닝을 통해 유망 후보를 식별하는 데 필요한 시간이 크게 단축됩니다.
- 비용 효율적인 발견 – 필요한 습식 실험 수를 줄여 전체 R&D 비용을 낮춥니다.
- 하위 단계 성공률 향상 – 초기 단계 예측 정확도가 높아져 후속 단계 성공 가능성이 높아집니다.
확장 가능한 하드웨어, 정교한 AI 모델, 그리고 프로덕션‑레디 툴링을 결합함으로써 Persistent와 NVIDIA는 생명과학 조직에 새로운 치료제 발견을 더 빠르고 신뢰성 있게 수행할 수 있는 방법을 제공하고 있습니다.