Skill: Azure Architect, Kafka, Spark, Casandra, CICD, Dynatrace
Experience: 13 to 19 years
Location: Bangalore
Job Summary
We are seeking an experienced Architect with 13 to 19 years of experience to join our team. The ideal candidate will have expertise in Databricks SQL Databricks Workflows and PySpark. This hybrid role offers the opportunity to work on cutting-edge projects during day shifts with no travel required. The Architect will play a crucial role in designing and implementing data solutions that drive our company’s success.
Responsibilities
- Design and implement scalable data architectures using Databricks SQL and Databricks Workflows to meet business requirements.
- Collaborate with cross-functional teams to gather and analyze data requirements ensuring alignment with organizational goals.
- Develop and optimize PySpark scripts to process large datasets efficiently enhancing data processing capabilities.
- Ensure data quality and integrity by implementing robust data validation and cleansing processes.
- Provide technical guidance and support to team members fostering a collaborative and innovative work environment.
- Monitor and troubleshoot data workflows to ensure seamless operation and minimal downtime.
- Stay updated with the latest industry trends and technologies to continuously improve data architecture solutions.
- Contribute to the development of best practices and standards for data management and analytics.
- Work closely with stakeholders to understand their data needs and deliver actionable insights that drive decision-making.
- Implement security measures to protect sensitive data and ensure compliance with relevant regulations.
- Optimize data storage and retrieval processes to enhance system performance and efficiency.
- Document data architecture designs and processes for future reference and knowledge sharing.
- Participate in code reviews and provide constructive feedback to improve code quality and maintainability.
Qualifications
- Possess strong expertise in Databricks SQL and Databricks Workflows with a proven track record of successful implementations.
- Demonstrate proficiency in PySpark with the ability to write and optimize complex scripts.
- Exhibit excellent problem-solving skills and the ability to work independently and collaboratively.
- Have a solid understanding of data modeling ETL processes and data warehousing concepts.
- Show experience in working in a hybrid work model effectively managing time and priorities.
- Display strong communication skills with the ability to convey technical concepts to non-technical stakeholders.
- Hold a bachelors degree in computer science information technology or a related field.
コグニザントのコミュニティ:
私たちは、互いを尊重し支え合う優秀な人材の集まりです。社員一人ひとりが成長し、力を発揮できるよう、エネルギッシュで協力的かつインクルーシブな職場環境を大切にしています。
- コグニザントは、世界中に30万人以上のアソシエイトを擁するグローバルコミュニティです。
- 私たちは、より良い方法を夢見るだけでなく、それを実現します。
- 人、クライアント、企業、地域社会、そして環境に対して、常に「正しいこと」を行うことで責任を果たします。
- あなたにとって最適なキャリアパスを築くことができる、革新的な環境を提供します。
私たちについて:
コグニザント(NASDAQ: CTSH)は、AI builderおよびテクノロジーサービスプロバイダとして、AI投資を企業価値へとつなげるフルスタックのAIソリューションを提供しています。業界、業務プロセス、エンジニアリングに関する深い専門性を強みに、各企業固有のコンテキストをテクノロジーシステムに組み込み、人の力を最大限に引き出すとともに、具体的な成果の創出と、急速に変化する世界におけるグローバル企業の競争力維持を支援します。詳しくは、当社ウェブサイト www.cognizant.com をご覧ください。
コグニザントは機会均等を重視する雇用主です。応募者および候補者は、人種、肌の色、性別、宗教、信条、性的指向、性自認、国籍、障がい、遺伝情報、妊娠、退役軍人の地位、または連邦、州、地方の法律で保護されているその他の特性に基づいて差別されることはありません。
免責事項:
応募者は、対面またはビデオ会議による面接への参加を求められる場合があります。また、各面接の際に、現住所または政府発行の身分証明書の提示が必要となる場合があります。