Job Summary
We are seeking technical and experienced AI Agentic Solutions Architects to join our advanced technology group. This role is dedicated to the hands-on design, development, and deployment of sophisticated Agentic AI solutions. You will be responsible for executing complex Proof of Concepts (PoCs) that demonstrate cutting-edge AI capabilities for our key customers. The role requires building and optimizing AI agents on high-performance Nvidia-based GPU infrastructure (including A100 and H100 systems) and leveraging Cognizant's proprietary ATK platform. The ideal candidate is a hands-on architect with a strong background in MLOps and extensive experience with modern agentic frameworks, advanced data semantics, and the Nvidia AI ecosystem.
Key Responsibilities
Architect, build, and optimize multi-agent AI solutions using frameworks like LangChain, LlamaIndex, and AutoGen.
Design and implement complex data ingestion and processing pipelines, ensuring robust data semantics for Retrieval-Augmented Generation (RAG) architectures.
Develop and fine-tune Large Language Models (LLMs) and other foundational models using the Nvidia NeMo framework.
Deploy and manage high-throughput, low-latency model inference services using Nvidia Triton Inference Server.
Conduct performance profiling and optimization of AI workloads on Nvidia A100 and H100 Tensor Core GPUs.
Integrate and manage specialized vector databases such as Milvus, Pinecone, and Weaviate for high-dimensional data indexing and search.
Leverage Cognizant's ATK platform to orchestrate complex agentic workflows and ensure seamless integration with enterprise systems.
Collaborate with infrastructure teams to ensure optimal configuration of Kubernetes clusters for GPU-accelerated workloads.
Required Skills and Experience
Agentic Frameworks: Minimum 2+ years of hands-on experience with LangChain and/or LlamaIndex. Demonstrable ability to build complex chains, tools, and autonomous agents.
Vector Databases: Proven expertise in deploying and managing at least one of the following: Milvus, Pinecone, Weaviate, or ChromaDB. Deep understanding of embedding models, indexing strategies (e.g., HNSW, IVF), and semantic search.
Nvidia Software Stack:
Nvidia Triton Inference Server: Hands-on experience deploying and scaling models for production.
Nvidia NeMo: Experience in training or fine-tuning models.
CUDA/cuDNN: Strong understanding of the CUDA programming model and library ecosystem for GPU acceleration.
Nvidia Hardware Stack: Demonstrable experience working with and optimizing for Nvidia A100 or H100 GPUs. Familiarity with concepts like Multi-Instance GPU (MIG) is highly desirable.
ML Frameworks & MLOps: Expert-level proficiency in Python and PyTorch. Strong experience with MLOps principles and tools, including containerization with Docker and orchestration with Kubernetes.
Problem-Solving: Advanced analytical and debugging skills for complex, distributed AI systems.
Preferred Qualifications
Experience with advanced RAG techniques, including re-ranking and query transformation.
Familiarity with Nvidia's full enterprise software suite.
Experience in a customer-facing role, delivering technically complex PoCs or solutions.
Active contributions to open-source projects in the AI/ML ecosystem.
コグニザントのコミュニティ:
私たちは、互いを尊重し支え合う優秀な人材の集まりです。社員一人ひとりが成長し、力を発揮できるよう、エネルギッシュで協力的かつインクルーシブな職場環境を大切にしています。
- コグニザントは、世界中に30万人以上のアソシエイトを擁するグローバルコミュニティです。
- 私たちは、より良い方法を夢見るだけでなく、それを実現します。
- 人、クライアント、企業、地域社会、そして環境に対して、常に「正しいこと」を行うことで責任を果たします。
- あなたにとって最適なキャリアパスを築くことができる、革新的な環境を提供します。
私たちについて:
コグニザント(NASDAQ: CTSH)は、AI builderおよびテクノロジーサービスプロバイダとして、AI投資を企業価値へとつなげるフルスタックのAIソリューションを提供しています。業界、業務プロセス、エンジニアリングに関する深い専門性を強みに、各企業固有のコンテキストをテクノロジーシステムに組み込み、人の力を最大限に引き出すとともに、具体的な成果の創出と、急速に変化する世界におけるグローバル企業の競争力維持を支援します。詳しくは、当社ウェブサイト www.cognizant.com をご覧ください。
コグニザントは機会均等を重視する雇用主です。応募者および候補者は、人種、肌の色、性別、宗教、信条、性的指向、性自認、国籍、障がい、遺伝情報、妊娠、退役軍人の地位、または連邦、州、地方の法律で保護されているその他の特性に基づいて差別されることはありません。
免責事項:
応募者は、対面またはビデオ会議による面接への参加を求められる場合があります。また、各面接の際に、現住所または政府発行の身分証明書の提示が必要となる場合があります。