ข้ามไปที่เนื้อหาหลัก

Sr. AWS Data Engineer

00068084172

*Please note, this role is not able to offer visa transfer or sponsorship now or in the future*

Role Tile: Senior AWS Data Engineer

About the role

Design, build, and operate scalable, cloud‑native data platforms supporting batch and streaming use cases, with strong focus on governance, performance, and reliability.

Responsibilities

  1. Programming

· Python: Strong hands-on experience with Python for data engineering tasks, including scripting, automation, and ETL logic development

· PySpark: Proficiency in writing and optimizing PySpark jobs for large-scale data transformations

· SQL: Advanced SQL skills for data querying, transformation logic, and stored procedure conversion from SQL Server

  1. Big Data Processing Frameworks

· Apache Spark: Strong experience with Spark core concepts — RDDs, DataFrames, Datasets, partitioning, and performance tuning

· Data partitioning and optimization: Experience with data skew handling, broadcast joins, caching strategies, and Spark tuning

· AWS Services (Hands-On Experience Required)

  1. AWS Glue ETL: Developing and deploying Glue jobs (Python Shell and Spark), job bookmarks, dynamic frames, and custom connectors

· AWS Glue Data Catalog: Managing databases, tables, crawlers, classifiers, and schema versioning

· AWS Lake Formation: Configuring data lake permissions, fine-grained access control, and data filtering

· AWS Step Functions: Designing and implementing state machines for ETL workflow orchestration, error handling, and retry logic

· AWS Lambda: Writing serverless functions for event-driven triggers, lightweight transformations, and pipeline utilities

· Amazon Aurora: Working with Aurora PostgreSQL compatible for relational data storage and query optimization

· Amazon DynamoDB: Designing and querying NoSQL tables

· Amazon S3: Proficiency in S3 data lake design — partitioning strategies, storage classes, lifecycle policies, and S3 event notifications

· AWS IAM: Understanding of roles, policies, and least-privilege access patterns relevant to data pipeline security

  1. ETL Development & Migration

· Informatica PowerCenter (working knowledge): Ability to read and interpret Informatica workflows, sessions, mappings, and transformations to support conversion to AWS Glue

· ETL framework development: Experience building reusable, configurable ETL frameworks with logging, error handling, retry mechanisms, and metadata-driven execution

· Data pipeline design patterns: Familiarity with incremental loads, CDC (Change Data Capture), full loads, and SCD (Slowly Changing Dimensions)

· SQL Server (working knowledge): Ability to understand SQL Server schemas, stored procedures, and SSIS packages for migration analysis

5. Data Engineering Best Practices

· Data quality and validation: Implementing data quality checks, reconciliation logic, and exception handling within pipelines

· Metadata-driven frameworks: Building configurable pipelines driven by metadata stored in Aurora or DynamoDB

· Logging and observability: Integrating CloudWatch logging, custom metrics, and alerting into data pipelines

· Unit and integration testing: Writing test cases for ETL logic using frameworks such as pytest

· Version control: Proficiency with Git for source code management, branching strategies, and code reviews

What you need to have to be considered

· 8+ years in IT related role

· Strong hands on experience in AWS Cloud, SQL and Python

· Good experience with Kafka/Flink, AWS Glue and Airflow

Work model: On Site

At Cognizant, we strive to provide flexibility wherever possible, and we are here to support a healthy work-life balance though our various wellbeing programs. Based on this role’s business requirements, this is an onsite position requiring 5 days a week in a client or Cognizant office in Charlotte, NC.


ชุมชนของค็อกนิแซนท์:
เราเป็นทีมงานคุณภาพสูงที่ให้ความสำคัญกับการเคารพและสนับสนุนซึ่งกันและกัน พนักงานของเราร่วมกันสร้างสภาพแวดล้อมการทำงานที่เปี่ยมด้วยพลัง ความร่วมมือ และความหลากหลาย ซึ่งทุกคนสามารถเติบโตและประสบความสำเร็จได้

  • ค็อกนิแซนท์เป็นชุมชนระดับโลกที่มีพนักงานมากกว่า 300,000 คนทั่วโลก
  • เราไม่ได้เพียงแค่ฝันถึงวิธีที่ดีกว่า แต่เราลงมือทำให้เกิดขึ้นจริง
  • เราดูแลพนักงาน ลูกค้า องค์กร ชุมชน และสิ่งแวดล้อม ด้วยการยึดมั่นในการทำสิ่งที่ถูกต้อง
  • เราส่งเสริมสภาพแวดล้อมแห่งนวัตกรรม ที่คุณสามารถสร้างเส้นทางอาชีพที่เหมาะสมกับตัวคุณเองได้

เกี่ยวกับเรา:
ค็อกนิแซนท์ (NASDAQ: CTSH) เป็นผู้ให้บริการด้านเทคโนโลยีและ AI Builder ที่ทำหน้าที่เชื่อมโยงการลงทุนด้าน AI เข้ากับมูลค่าทางธุรกิจขององค์กร ผ่านการพัฒนาโซลูชัน AI แบบฟูลสแตกให้กับลูกค้า ด้วยความเชี่ยวชาญเชิงลึกในอุตสาหกรรม กระบวนการ และวิศวกรรม เรานำบริบทเฉพาะของแต่ละองค์กรไปผสานเข้ากับระบบเทคโนโลยี เพื่อเพิ่มศักยภาพของมนุษย์ สร้างผลลัพธ์ที่จับต้องได้ และช่วยให้องค์กรระดับโลกก้าวนำหน้าในโลกที่เปลี่ยนแปลงอย่างรวดเร็ว ดูข้อมูลเพิ่มเติมได้ที่ www.cognizant.com หรือ @cognizant

ค็อกนิแซนท์เป็นนายจ้างที่ให้โอกาสอย่างเท่าเทียม ใบสมัครและการพิจารณาผู้สมัครจะไม่ขึ้นอยู่กับเชื้อชาติ สีผิว เพศ ศาสนา ความเชื่อ รสนิยมทางเพศ อัตลักษณ์ทางเพศ สัญชาติ ความพิการ ข้อมูลทางพันธุกรรม การตั้งครรภ์ สถานะทหารผ่านศึก หรือคุณลักษณะอื่นใดที่ได้รับการคุ้มครองตามกฎหมายของรัฐบาลกลาง รัฐ หรือท้องถิ่น

ข้อสงวนสิทธิ์:
ผู้สมัครอาจถูกขอให้เข้าร่วมการสัมภาษณ์แบบพบตัวต่อตัวหรือผ่านการประชุมทางวิดีโอ นอกจากนี้ ผู้สมัครอาจต้องแสดงบัตรประจำตัวที่ออกโดยรัฐหรือหน่วยงานของรัฐบาลในระหว่างการสัมภาษณ์แต่ละครั้ง

เข้าร่วมชุมชนบุคลากรผู้มีพรสวรรค์ของเรา

ยังไม่พบโอกาสที่ใช่ ใช่หรือไม่? รับข้อมูลล่าสุดเกี่ยวกับโอกาสในการทำงาน กิจกรรมสรรหาบุคลากร และข่าวสารเกี่ยวกับบริษัทต่างๆ ที่คัดสรรเพื่อคุณโดยเฉพาะ

ลงทะเบียน