Skip to content
mimi

Ingénieur Crawler

LouerAgile / Jinka

Remote (Global) Full-time Senior €55k – €65k/yr Today

About the role

About

Jinka est un hub d'annonces immobilières augmentées. En quelques chiffres, Jinka c’est 4 millions d’utilisateurs, 3 millions de notifications par jour et des annonces issues de plus de 5 000 sites immobiliers.

Plus qu’un portail d’annonces, nous sommes l’allié stratégique des particuliers dans leur recherche immobilière : nous transformons cette démarche en une expérience optimisée grâce à notre modèle propre d’intelligence artificielle.

Notre mission est de référencer l’ensemble des annonces immobilières publiées sur internet, et les qualifier pour ne proposer à nos usagers que des annonces authentiques et sécurisées, correspondant précisément à leurs critères de sélection, sous la forme de notifications.

Job Description

En surface, la mission du crawler paraît simple : récupérer toutes les annonces du marché, pour alerter en temps réel 4 millions d’utilisateurs.

Mais sous le capot, c’est une vraie machine de guerre : scrapers dopés au LLM, algos de matching costauds, détection de doublons et de scams, catégorisation avec nos modèles IA.

En rejoignant une équipe petite mais redoutablement efficace, tu plongeras au cœur de tous les défis nécessaires pour rendre la recherche immobilière toujours plus simple, plus rapide, plus intelligente.

Responsibilities

  • Couverture (Toutes les annonces) : ajouter de nouvelles sources, fiabiliser les flux existants, maintenir les flows IA qui écrivent et corrigent les parsers.
  • Fraîcheur (En temps réel) : analyser les retards, améliorer les performances, industrialiser les pipelines.
  • Qualité (Le contenu de l’annonce) : extraction, classification, détection d’arnaques, d’annonces expirées mais toujours en ligne, de prix incohérents… un mélange de regex, d’heuristiques et de LLM.

Requirements

  • Data‑first : face à une anomalie, ton premier réflexe est de faire une requête pour mesurer l’impact, pas de balancer un commit à l’aveugle.
  • Défis techniques : affronter le web tel qu’il est vraiment (rate limiting, anti‑bots, pages dynamiques, encodages éclatés).
  • Pragmatisme : une bonne regex qui règle 80 % d’un problème vaut mille fois mieux qu’un modèle ML parfait dans six mois.
  • Autonomie : capable de mener un sujet de bout en bout, avec peu de process : on discute, on décide, on livre, on ajuste quand c’est utile.
  • Prod‑Ready : mettre en production dès la première semaine, surveiller les métriques, écouter le Sentry.
  • AI‑Augmented : utiliser Claude, Copilot ou Cursor comme alliés du quotidien ; l’IA accélère, mais tu restes le pilote.

Tech Stack

  • Crawler : Typescript (en cours de migration), BullMQ, Inngest, Runpod, Puppeteer, FTP, MySQL.
  • Matching : Typescript, ElasticSearch, MySQL.
  • Infra : Kubernetes.
  • Outils & process : Gitlab CI/CD (pipelines de déploiement automatisés), VSCode devcontainer (environnement de dev identique pour tous), dernières IA (Copilot, Claude, Droid, Codex).

Daily Tasks

  • Examiner les métriques, les bugs, les quick wins et la roadmap.
  • Échanger et prioriser dans Fibery (notre Trello/Notion).
  • Ship la feature (Kubernetes).
  • Surveiller : logs (Signoz), métriques (Grafana/Prometheus), erreurs (Sentry), retours utilisateurs.

Location

C’est toi qui choisis ! Télétravail total possible, ou bureau à Paris quand ça t’arrange.

Additional Information

  • Type de contrat : CDI
  • Date de début : 04 mai 2026
  • Lieu : Paris (ou télétravail)
  • Niveau d’études : Bac + 5 / Master
  • Expérience : plus de 3 ans
  • Salaire : entre 55 000 € et 65 000 € / an
  • Télétravail : total possible

Requirements

  • On cherche un Ingénieur qui aime analyser avant de builder
  • Face à une anomalie, ton premier réflexe est de faire une requête pour mesurer l'impact, pas de balancer un commit à l'aveugle
  • Affronter le web tel qu'il est vraiment ne te fait pas peur
  • Pour toi, une bonne regex pondue aujourd'hui qui règle 80% d'un problème vaut mille fois mieux qu'un modèle ML parfait dans 6 mois
  • Tu es capable de mener un sujet de bout en bout
  • Tu mets en prod dès la première semaine
  • L'infra & le Devops ne te font pas peur
  • Tu appuies sur le bouton, tu surveilles tes métriques, tu écoutes le Sentry
  • Claude, Copilot ou Cursor sont tes alliés du quotidien pour itérer plus vite
  • L'IA est ton accélérateur, mais c'est toi qui restes le pilote

Responsibilities

  • Ajouter de nouvelles sources
  • Fiabiliser les flux existants
  • Maintenir les flows IA qui écrivent et corrigent les parsers
  • Analyser les retards
  • Améliorer les perf
  • Industrialiser les pipelines
  • Extraction
  • Classification
  • Détection d'arnaques, d'annonces expirées mais toujours en ligne, de prix incohérents

Skills

BullMQCopilotCursorDockerElasticSearchFTPGitlab CI/CDGrafanaInngestKubernetesLLMMySQLPuppeteerPrometheusReactRunpodSentryTypescriptVSCode devcontainer

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free