Accédez au profil complet de mysterion186
Créez un compte en 2 minutes et accédez au profil complet de nos 309 679 prestataires.
Ingénieur de formation à l'ESIEE Paris, je dispose d'une base solide en programmation dans plusieurs langages (Python, C/C++, Java, JavaScript/React ...).
Passionné par le développement informatique, j'ai été amené à mobiliser diverses compétences dans plusieurs technologies informatiques (Datavisualisation, Machine/Deep Learning, Scrapping, Développement web ...) au cours de mon parcours.
Je jouis d'une expérience significative au sein du département de recherche de l'ENS Paris-Saclay, ainsi que chez l'ARN APY (regroupement des laboratoires LIGM,LISIS et LTCI).
Avide de défis, adaptable et consciencieux , je seurais vous donner satisfaction dans les tâches que vous me confierez.
Dans le cadre du projet OVD-SaaS, l'ENS voulait créer un site web sur lequel des utilisateurs peuvent utiliser les algorithmes développés par les chercheurs.
J'ai été mandaté par l'ENS Paris-Saclay pour développer une technologie générique de détection de ruptures sur des signaux. L'objectif est de permettre aux utilisateurs (chercheurs, médecins, ingénieur ...) d'effectuer les tâches de labélisations et d'entraîner un modèle leur permettant de procéder à la détection et au téléchargement de signaux indexés aux points de ruptures.
Le projet consiste en deux étapes :
La première parti est le développement du module :
- Constitution des jeux de donnés
- Entraînement du module
- Evaluation du modèle de détection
La seconde partie est le développement de l'interface web et des fonctionnalités permettant d'utiliser ce module :
- Labélisation aux points de ruptures
- Déplacement et Suppression des labels (en cas d'erreurs)
- Entraînement du module de détection de rupture
- Téléchargement des signaux indexés
- Création de compte pour gérer les signaux uploadé
Technologies utilisée :
- JavaScript
- Django
- Docker
Travail en collaboration avec l'entreprise Wizdéo et ANR APY (qui est un regroupement de trois laboratoires LIGM, LISIS et LTCI). Le but de ce projet est de développer une application pour l’analyse de vidéo YouTube par des approches Deep Learning.
Les différentes phases du projet et les technologies utilisées peuvent se découper de trois manières distinctes :
La partie scraping :
Elle consiste à télécharger les dites vidéos YouTube (400 000 vidéos à peu près) et un ensemble d'information relatives aux vidéos comme le nombre de like, de vue, de commentaires ...
Pour réaliser cette tâche, le module python YouTube-dl a été utilisé avec une base de données de type NoSQL (MongoDB) pour y stocker les informations
La partie Deep Learning :
Développement d'une intelligence artificielle qui aura pour but de reconnaître un certains nombre d'éléments sur les vidéos comme les personnes présentes, les placements de produits ou bien même les émotions chez les vidéastes ...
La partie interface graphique :
Création d'une interface graphique qui permettra la visualisation des vidéos que l'on a récupérées dans la première partie, les résultats des analyses fournit par l'intelligence artificielle. Elle devra aussi permettre au utilisateur de cette dernière d'annoter les vidéos (par exemple en lui donnant un thème ou tout autres caractéristique qui pourraient être intéressant à analyser grâce à notre intelligence artificielle).
Tout au long de ce projet plusieurs outils ont été utilisées pour maximiser nos performances. Pour cela, le système de contrôle de version git a été utilisé pour que chacun puisse facilement travailler sur sa partie le tout en ayant un code régulièrement mis à jour. Il y a eu le recours à Docker pour que tous les membres puissent avoir un environnement de travail similaire.
Création d'un site web pour la start-up Aven à l'aide de plusieurs technologies.
Le site web a été réalisé avec le framework Django, il incluait plusieurs fonctionnalités comme l'inscription/la connexion des utilisateurs, la possibilité d'acheter des leads (informations sur les étudiants/élèves qui sont sur le site).
Pour gérer toutes ces données, on a utilisé une base de données relationnelle (PostgreSQL).
Dans le but de d'avoir un environnement de développement uniforme entre tous les développeur nous avons utilisé Docker.
Travail de grande qualité. Julien est une personne très efficace.
Statistiques
depuis la création du compte
Votre navigateur Web n’est plus à jour. Il ne permet pas d’afficher correctement le site Codeur.com.
Nous vous invitons à mettre à jour votre navigateur ou à utiliser un autre navigateur plus récent.