Teld NANGA NDOULOBA 746205 202403260240 Resume

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Teld NANGA

Data Engineer(Python, Spark, Databricks, AWS, Azure)


Vincennes (94) 94300
[email protected]
+33 6 19 85 49 25

Je suis à la recherche d'un contrat en CDI dans le Big Data, de préférence sur les technologies Python,
en tant que Data Engineer, dans le cloud idéalement.

Points forts

• Plus de 4 années d’expérience en Big Data


• Bac + 5 spécialité Big Data et Business Intelligence, obtenu à l'ESTIAM de Paris
• Maîtrise en Programmation : Python, JavaScript (Node JS), R, SQL
• Développement Big Data : PySpark, MongoDB, Pandas, Elasticsearch
• Data visulisation: Kibana, Matplotlib, Seaborn
• Connaissance AWS dans un contexte Big Data : EMR, EC2, LAMBDA, S3, ATHENA, GLUE,
QUICKSIGHT
• Connaissance Azure dans un contexte Big Data : Azure Databricks, Azure Data Factory
• Développement Spark avec Databricks en Python
• Méthodologie de développement: TDD, Développement fonctionnel en Python, utilisations de
linters(Mypy, Flake8)
• Développement Python dans des conteneurs avec Docker
• Orchestration de workflow avec Apache Airflow
• Devops: Azure Devops
• Cloud: Azure, AWS
• Indexation de données avec Elasticsearch
• Transformation de données avec DBT
• Infrastructure programmable avec AWS CDK
• Anglais : Bulats niveau B2 validé

• Domaines d’interventions :

1. Compétences en Data : Extraction, Nettoyage, Transformation et Visualisation des données


2. Compétences en développement d’Apis : Réalisation de tests avec Postman, Développement avec
Express.js.
3. Méthodes & Transverse : Agile, Collecte de besoins, Rédactions de documentation, Modélisation,
Communication, Organisation.

• Certifications
AWS Certified Solutions Architect - Associate (obtenue le 22 juin 2023)

Expérience

Senior Cloud Data Engineer GCP(Google Cloud Platform)


Epsilon France(Groupe Publicis) - Paris 11e (75)
janvier 2024 - aujourd'hui
• Développement de programmes d'ingestion de données multi sources
• Mise en place de pipelines de traitements de données
• Modélisation de données
• Tests et déploiements dans un contexte DevOps
• Assurer la veille technologique sur les composants d’une plateforme Datalake(Google Cloud Storage),
Cloud(GCP)
• Rédiger des documents projets (design, réalisation, déploiement, …)
• Montée en compétence sur GCP afin de se familiariser à la plateforme et choisir les bons services
à utiliser en fonction des besoins. Avec pour objectif l'obtention de la certification Google Certified
Professional Data Engineer
• Manipulation & définition de données via SQL(BigQuery)
• Transformation de données avec Spark / Python exécuté sur Google Cloud Dataproc
• Orchestration de workflow avec Google Cloud Composer

Cloud Data Engineer(AWS)


Mangrove - Paris (75)
février 2023 - décembre 2023
• Concevoir, implémenter et maintenir du code d'intégration de données basé sur Spark (PySpark,
Databricks)
• Développement de fonctions python sur AWS Lambda
• Stockage de données sur S3 et requêtage en SQL à l’aide AWS Athena
• Utilisation de AWS Glue pour réaliser des jobs ETL
• Transformation de données avec dbt(data build tool)
• Identification, création, préparation des données nécessaires aux solutions BI modernes
• Construction de diverses solutions de BI à l'aide de services existants fournis par le cloud
• Création et documentation des tests pour répondre aux exigences
• Migration des applications d'entreprise et des données associées vers le cloud
• Conception et déploiement de nouvelles applications directement dans le cloud
• Identification des meilleures pratiques pour le monitoring et la gestion des services cloud et mise en
avant de ces meilleures pratiques dans toute l'entreprise
• Recherche et mise en œuvre de services cloud pour prendre en charge les applications cloud et
maintenir les services cloud
• Monitoring des performances des applications cloud et résolution des problèmes de performances
• Identification et mise en œuvre des stratégies de réduction des coûts pour réduire les dépenses cloud
en cours
• Automatisation des services et des tâches clés dans les systèmes cloud pour accroître l'efficacité et
réduire davantage les coûts liés cloud
Technologies: dbt, Glue, Athena, AWS CDK, AWS Lambda, S3, AWS CloudFormation, Python, PySpark,
Databricks, SQL, Delta Lake

Product Software Engineer(Python, PySpark, Azure Databricks)


Redslim Consulting - Paris (75)
mai 2021 - janvier 2023
Développement Big Data en langage Python avec Databricks dans le cloud Azure.

• Design, développement et maintenance de solutions de consolidation de données et de reporting pour


les fabricants et vendeurs de produits de grande consommation.
• Gestion des projets clients et internes, incluant une contribution à la définition des besoins et de la
solution, et le reporting régulier de l'avancement des projets.
• Contribution à l'amélioration des outils et process internes liés aux solution de consolidation et de
reporting.
• Concevoir, implémenter et maintenir du code d'intégration de données basé sur Spark (PySpark,
Databricks).
• Orchestration de transformations de données depuis des notebooks spark sur Azure Databricks avec
Azure Data Factory.
• Fournir la documentation technique, le soutien aux demandes d'opérations internes liées à la
plateforme de données.
• Réalisation de tests unitaires à l'aide Pytest
• Mesure de la qualité du code avec SonarQube

Technologies : Python, Spark, Databricks, Azure, Azure DevOps, VSCode, Pytest, Unittest, RabbitMq, Pika,
Git, Scrum, Azure Blob storage, Azure Data Factory, SonarQube

Data Engineer (Python, AWS)


Digiteka Technologie - Paris (75)
mars 2020 - avril 2021
Serverless Data Engineering avec AWS Glue, AWS Lambda, Step Functions, Athena, QuickSight, EMR et
S3.

Faire évoluer l’architecture Big Data afin de répondre aux besoins métiers. A partir des données,
concevoir et maintenir des solutions intelligentes pour le développement de la Plateforme Vidéo.
Travailler la donnée sous toutes ses formes (collecte, stockage, nettoyage, modélisation, visualisation)
afin d’alimenter les projets Big Data.

• Développement de fonction python sur AWS Lambda


• Stockage de données sur S3 et requêtage en SQL à l’aide AWS Athena
• Réaliser des exports de données en en fonction des besoins clients en SQL à l’aide de AWS Athena
• Utilisation de AWS Glue pour réaliser des jobs ETL
• Création de cluster à partir de EMR dans le but de créer et exécuter des jobs spark
• Développement Python à l’aide de Jupyter Notebook
• Manipulation et analyse de données en python avec Pandas
• Réalisation de dashboards à l’aide de AWS QuickSight

Technologies : AWS, Elastic Stack, Python, Jupyter Notebook, Zepplin Notebook, Apache Spark, Spark
SQL, Dataframe, Data visualisation, SQL, ETL, SPICE, API REST, Jira, GitLab, Jupyter Notebook, Pandas

Développeur Node.js et Big Data


Orange Cyberdefense(Groupe Orange) - La Défense (92)
septembre 2018 - janvier 2020
Développement d’Apis dans le but d’alimenter une application permettant de détecter les vulnérabilités
logicielles et d’optimiser la défense contre les attaques des systèmes d’information. Mise en place de
solutions Big Data dans le but de collecter les données issues de l’application, de les analyser et d'aider
à la prise de décision.

• Développement d’APIs avec Node.js dans le but d’alimenter les applications consommant les données.
• Migration, stockage au sein d’une base de données de type relationnelle (MySQL, PostgreSQL) à une
base de données NoSQL orientée document (MongoDB)
• Développement d’applications clients pour consommer les Apis
• Manipulation et analyse de données en python avec Pandas
• Calcul distribué sur des données massives à l’aide de PySpark.
• Création de jobs Spark à l'aide de Databricks
• Collecte, transformation et manipulation de données
• Data visualisation avec Matplotlib

Technologies : MongoDB, SQL, Python, Pandas, PySpark, Databricks, DBFS, PostgreSQL, MySQL, Jira,
React.js, Node.js, Javascript, Express.js, API REST, HTML5, Ubuntu, Gitlab, Jade, Bootstrap 3 et 4, Git,
GitLab, Mongoose, JSON

Data Analyst
IPG Mediabrands - Levallois-Perret (92)
septembre 2017 - août 2018
Besoin d’automatisation, et de centralisation des données entre les régies, les responsables des
campagnes et l’équipe Data. Projet de réduction du nombre important d’actions manuelles et d’utilisation
des Macros Excel.

• Extractions des données et statistiques concernant une campagne publicitaire donnée.


• Réalisation des rapports hebdomadaires de suivi de campagnes publicitaires.
• Analyse de données en langage R avec R Studio et en Python avec Pandas. Utilisation de jupyter
notebook pour effectuer l’analyse de données liées aux différentes campagnes publicitaires.
• Indexation des données avec Elasticsearch, data visualisation avec Kibana.
• Développement d’une application web
• Saisie des plans médias à partir d’un formulaire
• Sauvegarde des plans medias dans une base de données NoSQL
• Authentification des utilisateurs
• Suivi des modifications des plans media
• Possibilité de faire des recherches textuelles
• Export Excel des plans medias
• Opérations CRUD (Create Read Update Delete) sur les plans médias

Environnement Technique : HTML5, Javascript, Express.JS, Node.JS, CSS3, BOOTSTRAP 3, Ubuntu, Shell,
MongoDB, GIT, GITLAB, JSON, Swagger, API REST, Pentaho, ELK, Kibana, R, R STUDIO, PANDAS, Jupyter
Notebook

Analyste développeur PHP


AramisAuto.com - Arcueil (94)
septembre 2016 - août 2017
Contexte : Sécurisation d’API, étude de la mise en place d'un outil d'API Management.

• Etude de la mise en place en d’un outil d’API Management afin de sécuriser une API REST, de créer
et documenter des APIs.
• Mise en place d’un système d’authentification SSO à l’aide de SimpleSamlphp (Symfony2, PHP natif)
• Etude des outils d’API Management présents sur le marché.
• Tests et installation des outils
• Développement en PHP afin de corriger des bugs présents sur le site de vente d’Aramis ou dans le
but de le faire évoluer.

Environnement Technique : PHP, HTML, Javascript, Symfony2, CSS, Ubuntu, Apache2, Shell, MySQL,
Redmine, GIThub, XML, JSon, Webservices, Wadl, Saml, SSO, Swagger, API Rest.

Analyste développeur web PHP


Cre Ratp - Bagnolet (93)
janvier 2016 - avril 2016
• Développement en PHP et maintenance de programmes et interfaces d’intégration entre un progiciel
de Gestion de réservations de Centres de Vacances et le site WEB vitrine du CRE RATP développé avec
eZ-Publish.
• Participation au chantier de mise en œuvre des Web Services d’alimentation des données :
• Assurer l’intégration des modules natifs du progiciel dans le site WEB vitrine existant au sein du CRE
RATP,
• Participer au chantier de mise en œuvre des webservices d’alimentation des données Tiers depuis le
SI du CRE RATP vers le progiciel,
• Concevoir le développement (dont la documentation, les cas de recette, les tests de non régression
et le cahier de maintenance),
• Assurer la maintenance des applications et interfaces mises en œuvre,
• Veiller à la conformité des développements dans le respect des normes et méthodes, procédures et
consignes de sécurité,
• Assurer l’interface avec les prestataires externes en représentant le CRE RATP

Environnement Technique : PHP, JAVASCRIPT, HTML5, EZ-PUBLISH, SYMFONY2, LAMP, WEBSERVICES,


BITBUCKET, REDMINE

Analyste développeur PHP/Administration système Linux


Essilor - Vincennes (94)
octobre 2013 - septembre 2015
Contexte : Mise en place PHP, sous environnement Linux (LAMP) d’un intranet permettant la gestion
centralisée des machines afin de réaliser des statistiques d’utilisation et faciliter la réalisation de
certaines tâches au quotidien. Interface web permettant la gestion de comptes utilisateurs et certaines
informations systèmes.

Missions :

• Rédaction de procédures et documentations (en français et en anglais)


• Développement web en PHP et administration système linux.
• Administration system Linux / Unix
• Développement de composants OpenSource
• Développement de modules d’automatisation de certaines tâches quotidiennes en PHP

Environnement technique : PHP, HTML, Javascript, CSS, Redhat, Apache2, Shell, MySQL, SQL
Formation

Bac +5 (Master / MBA) en Big Data et Business Intelligence en alternance


Estiam Paris - Paris (75)
octobre 2016 - juillet 2018

Bac+5 - Titre RNCP Niveau 1 en Ingénierie informatique


Ingetis - Paris (75)
septembre 2016 - juillet 2018

Bac +5 (Master / MBA) en Informatique et Systèmes d'Information en


apprentissage
CNAM de Paris - Paris (75)
septembre 2012 - juillet 2015

Bac +2 (BTS, DUT, DEUG) en Informatique industrielle


IUT d'Angers - Angers (49)
septembre 2010 - juillet 2012

Compétences
• python (4 ans)
• aws (2 ans)
• node.js (2 ans)
• javascript (2 ans)
• pandas (2 ans)
• R (1 an)
• apache airflow (Moins d'un an)
• docker (Moins d'un an)
• pyspark (4 ans)
• java (Moins d'un an)
• express.js (2 ans)
• jupyter notebook (2 ans)
• SQL (4 ans)
• postgresql (1 an)
• elastic stack (1 an)
• mongodb (2 ans)
• aws S3 (3 ans)
• mysql (3 ans)
• aws athena (2 ans)
• aws glue (1 an)
• matplotlib (2 ans)
• aws lambda (1 an)
• aws quicksight (1 an)
• tableau (Moins d'un an)
• databricks (3 ans)
• Analyse des données
• Azure Devops (1 an)
• RabbitMq (1 an)
• databricks (2 ans)
• dbt (Moins d'un an)
• AWS CDK (Moins d'un an)
• Scala (Moins d'un an)

Vous aimerez peut-être aussi