CGI

Data Engineer (Intermediate)

Montréal, QuébecFull-time
About the Job
Data Engineer (Intermediate) -

Missions:
  • Deliver day-to-day services supporting Investment and Corporate Banking units and their clients as part of Global Banking Technology & Operations (GBTO) in Canada.
  • Contribute to an accelerated agile transformation by promoting technology and data culture, shortening decision-making processes, and applying an industrial delivery approach.
  • Join the Counterparty Credit Risk (CCR) team within the XRM (Cross Risk Metrics) department, supporting tools primarily used by the Risk function.
  • Develop and maintain post-origination portfolio monitoring applications shared by first and second lines of defense (1LOD and 2LOD).
  • Digitize key forms and decisions to automate manual processes and permanent controls.
  • Create and maintain clean audit trails and generate real-time reporting.
  • Improve data quality and reliability across applications.
  • Work within an Agile Scrum framework to ensure continuous and transparent communication with functional partners.
  • Contribute to a strong team dynamic focused on long-term value delivery and application sustainability.
  • Design, build, and maintain scalable and robust data pipelines for ingesting, processing, and transforming large volumes of structured and unstructured data.
  • Participate in data remodeling initiatives supporting migration from on-premises private cloud environments to Microsoft Azure.
  • Develop, test, and maintain databases, large-scale processing systems, and data warehouses optimized for cloud deployment.
  • Collaborate with risk analysts and other stakeholders to gather data requirements and deliver high-quality datasets for analytics and machine learning.
  • Optimize data delivery by redesigning infrastructure for scalability, reliability, and efficiency.
  • Implement and enforce data security, governance, and compliance standards in line with internal policies and regulatory requirements.
  • Monitor and troubleshoot data systems to ensure data integrity, availability, and performance.
  • Automate repetitive data tasks and workflows to improve operational efficiency.
  • Stay up to date with industry trends, tools, and cloud technologies to continuously improve data engineering practices.
  • Document data engineering processes, data flows, and system configurations.
  • Manage release processes, including release notes, deployment scripts, contingency plans, and rollback procedures.
  • Participate in L3 production support and incident management, including root cause analysis and resolution.

Profile
Requirements:
  • Bachelor’s degree in Computer Science or a related field.
  • 3 to 5 years of professional experience as a Data Engineer or in a similar role.
  • Strong proficiency with MS SQL Server 2022, including complex queries, stored procedures, and performance tuning.
  • Experience with Azure Synapse Analytics for large-scale data warehousing.
  • Expertise in designing, building, and maintaining ETL pipelines.
  • Hands-on experience with Apache Spark and Databricks for big data processing and transformation.
  • Solid knowledge of Microsoft Azure cloud services, including data services and infrastructure management.
  • Proficiency in Python for data manipulation, automation, and scripting.
  • Strong skills in Power BI and advanced Excel to build dashboards and reports.
  • Proficiency with GitHub for source code management and collaborative development workflows.
  • Comfort working in Unix/Linux environments.
  • Ability to communicate effectively in English, both orally and in writing.
  • Ability to work in a bilingual environment (French and English).
  • Nice to Have
  • Experience with containerization technologies such as Kubernetes and Docker.
  • Familiarity with Infrastructure as Code tools such as Terraform.
  • Experience with .NET technologies (.NET 7, .NET 8) and Entity Framework.
  • Experience with Angular 14+ and Bootstrap 5.
  • Knowledge of Credit and Counterparty Risk concepts.
  • Strong understanding of capital market products, including secured financing transactions, derivatives, or corporate loans.
  • Knowledge of US or international financial regulations.
  • ITIL certification.
  • Azure Cloud certification.

Language: English and French

Ability to communicate in English, both orally and in writing, is required as the person in this position will collaborate regularly with colleagues and partners in the United States.

-----------------------------------------------------------------------

Ingénieur de données (intermédiaire)

Missions:
  • Fournir des services quotidiens pour soutenir les unités de Banque d’Investissement et de Financement ainsi que leurs clients dans le cadre des activités de Global Banking Technology & Operations (GBTO) au Canada.
  • Contribuer à l’accélération de la transformation agile en promouvant une culture technologique et orientée données, en réduisant les délais de prise de décision et en appliquant une approche industrielle de livraison.
  • Rejoindre l’équipe en charge du risque de contrepartie (CCR) au sein du département XRM (Cross Risk Metrics), en soutenant des outils principalement utilisés par la fonction Risque.
  • Développer et maintenir des applications de suivi de portefeuille post-origination, utilisées par la première et la deuxième ligne de défense (1LOD et 2LOD).
  • Digitaliser les formulaires clés et les processus décisionnels afin d’automatiser les tâches manuelles et les contrôles permanents.
  • Créer et maintenir des pistes d’audit fiables et produire des rapports en temps réel.
  • Améliorer la qualité et la fiabilité des données à travers les applications.
  • Travailler dans un cadre Agile Scrum afin d’assurer une communication continue et transparente avec les partenaires fonctionnels.
  • Contribuer à une dynamique d’équipe forte axée sur la création de valeur à long terme et la pérennité des applications.
  • Concevoir, développer et maintenir des pipelines de données scalables et robustes pour l’ingestion, le traitement et la transformation de grands volumes de données structurées et non structurées.
  • Participer aux initiatives de refonte des données dans le cadre de la migration d’environnements de cloud privé on-premises vers Microsoft Azure.
  • Développer, tester et maintenir des bases de données, des systèmes de traitement à grande échelle et des entrepôts de données optimisés pour le cloud.
  • Collaborer avec les analystes de risques et les parties prenantes afin de recueillir les besoins en données et fournir des jeux de données de haute qualité pour l’analytique et le machine learning.
  • Optimiser la livraison des données en repensant les infrastructures pour améliorer la scalabilité, la fiabilité et la performance.
  • Mettre en œuvre et faire respecter les normes de sécurité, de gouvernance et de conformité des données conformément aux politiques internes et aux exigences réglementaires.
  • Surveiller et dépanner les systèmes de données afin de garantir leur intégrité, leur disponibilité et leur performance.
  • Automatiser les tâches et processus de données répétitifs pour améliorer l’efficacité opérationnelle.
  • Se tenir à jour des tendances du secteur, des outils et des technologies cloud afin d’améliorer continuellement les pratiques d’ingénierie des données.
  • Documenter les processus d’ingénierie des données, les flux de données et les configurations des systèmes.
  • Gérer les processus de mise en production, incluant les notes de version, les scripts de déploiement, les plans de contingence et les procédures de retour arrière.
  • Participer au support de production de niveau 3 (L3) et à la gestion des incidents, incluant l’analyse des causes racines et leur résolution.

Profil
Exigences:
  • Baccalauréat en informatique ou dans un domaine connexe.
  • 3 à 5 ans d’expérience professionnelle en tant qu’ingénieur de données ou dans un rôle similaire.
  • Solide maîtrise de MS SQL Server 2022, incluant les requêtes complexes, les procédures stockées et l’optimisation des performances.
  • Expérience avec Azure Synapse Analytics pour les entrepôts de données à grande échelle.
  • Expertise dans la conception, le développement et la maintenance de pipelines ETL.
  • Expérience pratique avec Apache Spark et Databricks pour le traitement et la transformation de données massives.
  • Bonne connaissance des services cloud Microsoft Azure, incluant les services de données et la gestion d’infrastructure.
  • Maîtrise de Python pour la manipulation des données, l’automatisation et les scripts.
  • Solides compétences en Power BI et Excel avancé pour la création de tableaux de bord et de rapports.
  • Maîtrise de GitHub pour la gestion du code source et les workflows de développement collaboratif.
  • Aisance dans les environnements Unix/Linux.
  • Capacité à communiquer efficacement en anglais, à l’oral comme à l’écrit.
  • Capacité à travailler dans un environnement bilingue (français et anglais).
  • Atouts
  • Expérience avec les technologies de conteneurisation telles que Kubernetes et Docker.
  • Connaissance des outils d’Infrastructure as Code tels que Terraform.
  • Expérience avec les technologies .NET (.NET 7, .NET 8) et Entity Framework.
  • Expérience avec Angular 14+ et Bootstrap 5.
  • Connaissance des concepts de risque de crédit et de contrepartie.
  • Bonne compréhension des produits de marchés de capitaux, incluant les opérations de financement sécurisé, les dérivés ou les prêts corporatifs.
  • Connaissance des réglementations financières américaines ou internationales.
  • Certification ITIL.
  • Certification Azure Cloud.

Langues:
français et anglais

La maîtrise de l’anglais, à l’oral et à l’écrit, est requise, car la personne occupant ce poste devra collaborer régulièrement avec des collègues et partenaires aux États-Unis.