Ce site récupère une partie de ses emplois auprès de: Emploi Ventes | Camionneur | Travail de la Maison

Le meilleur site pour trouver ton prochain emploi francophone à Montréal!

Pour poster une offre, connexion ou créer un compte |  Publier une offre

   emploi montréal   

Tu cherches un nouvel emploi à Montréal? Ici c'est ton dernier arrêt.

previous arrow
next arrow
Slider

Scientifique des données (Askuity)

Home Depot of Canada Inc.

C'est un Temps-Plein job à Montreal, QC publiée le avril 26, 2021.

Basée à Toronto, Askuity est une entreprise offrant une plateforme logicielle d’analyse en commerce de détail qui exerce ses activités en tant que nouvelle division novatrice de Home Depot.

Sa mission consiste à transformer la collaboration négociant-fournisseur entre Home Depot et ses fournisseurs de produits en favorisant une prise de décision basée sur des données et une exécution de la vente au détail en temps réel incomparables.

À titre d’ingénieur des données au sein de l’équipe d’Askuity, le titulaire du poste cherche à comprendre et à améliorer l’ensemble de données principal et l’architecture de traitement des données.

En plus d’élaborer des solutions libre-service pour les équipes commerciales élargies, le titulaire du poste doit mettre en place des processus efficaces de capture et de transformation de données, de même que des modèles de données complexes pour soutenir l’infrastructure de base des données en vue de permettre aux analystes et scientifiques des données d’exercer leurs fonctions.

Il travaillera en étroite collaboration avec le chef et le vice-président de l’Exploitation ainsi que des experts externes pour développer les capacités d’Askuity en matière de science des données.

L’entreprise est à la recherche de candidats qui possèdent un esprit d’initiative et un sens aigu de l’urgence, qui peuvent progresser dans un environnement où les activités se déroulent à un rythme rapide, qui aiment relever les défis que peuvent poser des contextes techniques très complexes où sont gérés des centaines de téraoctets de données et, par-dessus tout, qui sont passionnés par les données et l’analytique.

Responsabilités liées au poste Concevoir, construire, tester et entretenir un pipeline de données et un environnement évolutifs en vue d’analyses futures.

Assembler de grands ensembles de données complexes qui répondent aux exigences de l’entreprise.

Déterminer, concevoir et mettre en œuvre des améliorations de processus internes : automatisation de processus manuels, optimisation de la transmission des données, restructuration de l’infrastructure pour une plus grande évolutivité, etc.

Construire l’infrastructure requise pour optimiser l’extraction, la transformation et le chargement de données à partir d’une grande variété de sources à l’aide des technologies de mégadonnées SQL et AWS.

Créer des outils d’analyse qui utilisent un pipeline de données pour fournir des informations exploitables aux fournisseurs, aux négociants et aux autres intervenants.

Travailler en étroite collaboration avec des experts (de BlackLocus, de Home Depot, de consultants externes, etc.) pour nettoyer, analyser et interpréter les données.

Créer des outils de données pour les équipes d’analyse et de données scientifiques, qui les aident à construire et à optimiser notre produit de façon innovante pour qu’il se hisse en tête de l’industrie.

Expérience et connaissances requises Répondre aux exigences minimales relatives à l’ancienneté (un an) et au code de rendement (M, répond aux attentes et incarne constamment les valeurs) Posséder une connaissance pratique approfondie du langage SQL, une expérience pratique des bases de données relationnelles et de la formulation de requête (en langage SQL), ainsi qu’une familiarité pratique avec diverses bases de données.

Avoir de l’expérience dans la construction et l’optimisation de pipelines, d’architectures et d’ensembles de mégadonnées.

Détenir d’excellentes compétences analytiques liées à l’utilisation d’ensembles de données non structurés.

Savoir construire des processus compatibles à la transformation des données, à la structure de données, aux métadonnées, à la dépendance et à la gestion de la charge de travail.

Posséder d’excellentes aptitudes pour la communication, tant à l’écrit qu’à l’oral, de manière à annoncer clairement les objectifs et les résultats.

Démontrer des compétences exemplaires en matière d’organisation et de gestion de projets.

Détenir un diplôme en informatique, statistiques, science de l’information, systèmes d’information ou dans un autre domaine quantitatif.

De plus, savoir utiliser les logiciels et outils suivants : Outils de mégadonnées : Hadoop, Spark, Kafka, etc.; Bases de données relationnelles SQL et NoSQL, y compris Postgres et Cassandra; Outils de gestion de flux et de pipeline de données : Azkaban, Luigi, Airflow, etc.; Services infonuagiques AWS : EC2, EMR, RDS et Redshift; Systèmes de traitement de flux de données : Storm, Spark Streaming, etc.; Langages de script cibles et orientés objet de programmation fonctionnelle : Python, Java, C++, Scala, etc.