Overslaan en naar de inhoud gaan

Databricks with Pyspark

00066458171

ob Title: - Databricks with Pyspark
Location: - AIA Hyderabad
Minimum 9 to 12 years of experience

1. Job Title : Architect 2. Job Summary : Join our dynamic team as a Demand Role Architect where you will leverage your extensive experience in Spark in Scala Delta Sharing and Databricks technologies. You will play a pivotal role in designing and implementing cutting-edge data solutions ensuring seamless data integration and management. Your expertise will drive innovation and efficiency contributing to our companys success and societal impact. 3. Experience : 12 - 16 years 4. Required Skills : Technical Skills: Spark in Scala Delta Sharing Databricks Unity Catalog Admin Databricks CLI Delta Live Pipelines Structured Streaming Risk Management Apache Airflow Amazon S3 Amazon Redshift Python Databricks SQL Databricks Delta Lake Databricks Workflows PySpark Domain Skills: 5. Nice to have skills : Domain Skills: 6. Technology : Cloud Modernization/Migration 7. Shift : Day 8. Responsibilities : - Design and implement scalable data architectures using Spark in Scala and Databricks technologies to optimize data processing and analytics workflows. - Oversee the integration of Delta Sharing and Databricks Unity Catalog Admin to enhance data governance and security across the organization. - Provide technical expertise in Databricks CLI and Delta Live Pipelines to streamline data operations and improve workflow automation. - Collaborate with cross-functional teams to develop and maintain structured streaming solutions ensuring real-time data processing and analysis. - Implement risk management strategies to mitigate potential data-related risks and ensure compliance with industry standards. - Utilize Apache Airflow for orchestrating complex data workflows ensuring efficient data pipeline management and execution. - Manage data storage and retrieval processes using Amazon S3 and Amazon Redshift optimizing data accessibility and performance. - Develop and maintain Python scripts for data manipulation and transformation enhancing data processing capabilities. - Leverage Databricks SQL and Databricks Delta Lake to perform advanced data analytics and drive data-driven decision-making. - Implement and manage Databricks Workflows to automate data processing tasks and improve operational efficiency. - Utilize PySpark for large-scale data processing ensuring high performance and scalability of data solutions. - Collaborate with stakeholders to understand business requirements and translate them into effective data solutions. - Ensure data solutions align with the companys strategic goals and contribute to overall business success. Qualifications - - Possess a minimum of 12 years of experience in data architecture and engineering roles with a strong focus on Spark in Scala and Databricks technologies. - Demonstrate proficiency in Delta Sharing Databricks Unity Catalog Admin and Databricks CLI for effective data management. - Exhibit expertise in Delta Live Pipelines and Structured Streaming for real-time data processing. - Have a solid understanding of risk management principles and practices in data environments. - Show experience with Apache Airflow Amazon S3 and Amazon Redshift for data workflow orchestration and storage management. - Proficient in Python programming for data manipulation and transformation tasks. - Skilled in Databricks SQL and Databricks Delta Lake for advanced data analytics. - Experience with Databricks Workflows and PySpark for automating data processes and large-scale data processing. 9. Job Location : Primary Location :INTNCHNA16(ITIND COG KITS Campus(CKC)SDB2&3 SEZ) Alternate Location :NA NA Alternate Location 1 :NA NA 10. Job Type : Manager - Projects [50PM00] 11. Demand Requires Travel? : No 12. Certifications Required : NA


De Cognizant Community
We zijn een team dat elkaar helpt om doelen te bereiken op het hoogste niveau. Zonder ons team zouden we niet in staat zijn om de huidige energieke, samenwerkende en inclusieve werkomgeving te behouden. Een omgeving gericht om iedereen te laten slagen. 

  • Cognizant is een globale community van 300.000+ collega’s
  • We dromen niet alleen van een betere wereld, wij helpen het te maken
  • We zorgen voor onze mensen, de klanten, het bedrijf, de community en het klimaat door te doen wat goed is
  • We zetten in op een innovatieve omgeving waar je zelf kan bouwen aan een carriere pad dat bij jou past. 

Over ons
Cognizant (NASDAQ: CTSH) is een bouwer van AI-oplossingen en een leverancier van technologiediensten. Wij slaan de brug tussen AI-investeringen en ondernemingswaarde door het bouwen van full-stack AI-oplossingen voor onze klanten. Onze diepgaande kennis van sectoren, processen en engineering stelt ons in staat om de unieke context van een organisatie te verankeren in technologische systemen. Deze systemen versterken het menselijk potentieel, realiseren tastbaar rendement en geven wereldwijde ondernemingen een voorsprong in een snel veranderende wereld. Ontdek hoe op www.cognizant.com of @cognizant.

Cognizant is een werkgever die gelijke kansen biedt. Uw sollicitatie en kandidatuur worden niet in overweging genomen op basis van ras, huidskleur, geslacht, religie, geloofsovertuiging, seksuele geaardheid, genderidentiteit, nationale afkomst, handicap, genetische informatie, zwangerschap, veteranenstatus of enig ander kenmerk dat beschermd wordt door federale, staats- of lokale wetgeving.

Disclaimer: 
De informatie omtrent compensatie is accuraat ten tijde van deze posting. Cognizant heeft het recht om deze informatie aan te passen. Met lokale wetgeving in achtneming. 

Sluit je aan bij onze Talent Community

Nog niet de juiste kans tegengekomen? Ontvang de nieuwste updates over vacatures, wervingsevenementen en bedrijfsnieuws, speciaal op maat gemaakt voor jou!

Aanmelden