Intelligence artificielle Heure d’arrivée estimée (ETA) : comment l’IA peut fiabiliser cette information cruciale

Pour approfondir le sujet

Sur le même thème :

Tout juste créée, Bioptimus lève 35 millions de dollars pour appliquer l’IA générative à la biologie

La start-up française Bioptimus, fondée par d'anciens chercheurs de Google DeepMind et des experts d'Owkin est sortie hier du mode furtif avec l'annonce d'une...

DevCon 2024 : L’IA au coeur des nouvelles fonctionnalités annoncées pour la plateforme d’UiPath

Fondée en 2005 par Daniel Dines et Marius Tirca à Bucarest, en Roumanie, UiPath est devenue l'un des leaders mondiaux dans le domaine de...

SoftBank, à la recherche d’investisseurs pour se lancer dans la fabrication de puces d’IA

Après Sam Altman, c'est au tour de Masayoshi Son, fondateur et PDG de SoftBank de partir à la recherche de fonds pour créer sa...

CRAG : une méthode pour améliorer la génération de texte basée sur la récupération de connaissances

La génération de texte basée sur la récupération de connaissances (RAG) permet aux LLM de produire des textes informatifs et cohérents à partir de...

Heure d’arrivée estimée (ETA) : comment l’IA peut fiabiliser cette information cruciale

L’expérience client est devenue fondamentale dans tous les secteurs, et la logistique doit plus que jamais prendre en compte cette satisfaction en bout de chaîne. Permettant la coordination de chaque maillon, l’ETA s’avère aussi être un outil précieux pour le client final, surtout à l’ère du “selfcare”, encourageant son autonomie. Dans ce contexte, le recours à l’IA s’avère crucial pour fiabiliser l’ETA et rendre la chaîne logistique plus efficiente.

L’heure d’arrivée estimée – ou ETA, pour Estimated Time of Arrival – est de longue date une information à forts enjeux pour tous les acteurs de la chaîne logistique. En effet, la fiabilité de l’ETA fournie par chaque maillon de la chaîne a des répercussions sur les opérations de tous les maillons suivants. Chacun se fonde sur la prévision de l’acteur le précédent pour planifier ses opérations, mais aussi calculer l’ETA communiquée au maillon suivant.

Dans les secteurs où les opérations sont très organisées, la précision de l’heure d’arrivée estimée (ETA) est essentielle pour que tout fonctionne efficacement. Cela concerne non seulement la performance de chaque personne impliquée, celle de l’ensemble de la chaîne logistique. Que l’on parle de livraisons aux clients finaux ou de services effectués sur place, il est essentiel de de pouvoir donner une heure d’arrivée estimée fiable. En plus de cela, il y a deux facteurs de plus en plus importants à prendre en compte : la perception de la qualité de service par le client et sa satisfaction.

Mobiliser l’IA pour fiabiliser l’ETA

La prévision de l’heure d’arrivée – d’un cargo, d’un camion ou d’un livreur à domicile – est un exercice complexe, tant les paramètres à prendre en compte sont nombreux. Dans le monde du transport, de nombreux outils prédictifs s’appuyant sur l’IA sont désormais utilisés. Ces outils ont pour objectif d’améliorer la fiabilité de la prévision, mais aussi d’ajuster la prédiction en temps réel, en prenant en compte une multitude de donnés remontées par les différents maillons de la chaîne logistique. En apprenant des opérations passées, l’intelligence artificielle permet de faire évoluer le modèle de prévision lui-même.

Un contexte favorable à l’utilisation de l’IA

Aujourd’hui, l’accès à l’IA s’est largement démocratisé et son usage s’est enrichi. Du point de vue de la chaîne logistique, il n’y a jamais eu autant de données d’une telle précision, disponibles à chacun des niveaux de la chaîne.

Ensuite, la puissance de calcul nécessaire pour traiter ces masses de données est désormais accessible à des prix tout à fait abordables, surtout au regard de la valeur « business » de l’information obtenue en retour. Enfin, grâce aux bibliothèques open-source, l’accès aux algorithmes d’analyse prédictive et de machine learning s’est largement démocratisé.

Le recours à l’IA pour justifier et affiner le calcul d’heure d’arrivée est désormais largement plébiscité par les professionnels. Cependant, si les initiatives se sont multipliées, l’étape du POC (Proof of concept) se révèle souvent difficile à dépasser. Il y a à cela deux raisons majeures, communes à tous les domaines d’applications potentiels de l’intelligence artificielle : la disponibilité effective des données et l’expertise nécessaire en data science.

Pas d’ETA fiable sans partage des données

Tout le monde sait désormais que les performances du machine learning dépendent de la quantité et de la qualité des données d’apprentissage. Si dans le domaine du transport les données ne manquent pas, l’absence de partage et de mutualisation de ces données entre les acteurs reste un frein à l’obtention de résultats convaincants en matière d’ETA.

Pour d’évidentes raisons statistiques, plus l’algorithme est entraîné sur un gros volume de données d’activité de bonne qualité, plus la marge d’erreur est réduite. Un petit transporteur qui se lancerait seul dans l’aventure n’aurait accès qu’à ses propres historiques, une base insuffisante pour entraîner un algorithme à couvrir tous les cas de figure possibles et imaginables sur tous les trajets, à toutes les heures, dans toutes les conditions météo, pour tous les types de véhicules. Un gros transporteur serait nettement avantagé, mais cependant moins que plusieurs transporteurs mettant en commun leurs données. Cela suffit à expliquer et justifier l’apparition de plateformes collaboratives proposant des services de calcul d’ETA basés sur les données réelles des membres utilisateurs – données dont ils restent individuellement propriétaires, mais dont l’exploitation commune bénéficie in fine à tous – petits et gros – en termes de fiabilité des ETA calculées et délivrées par l’intelligence artificielle.

Des compétences rares et chères

Le fait que les algorithmes de machine learning soient disponibles en open source ne signifie pas que chacun puisse s’en emparer pour développer sa propre IA de calcul d’ETA. L’algorithme ne fait pas tout et ne fait même pas grand-chose sans un sérieux travail préalable de modélisation. La modélisation est, avec l’analyse de données et la connaissance des cas d’usage des algorithmes du marché, le cœur de métier des data scientists. Ce profil est recherché par tous les grands acteurs, chargeurs comme transporteurs. Malgré l’augmentation du nombre de data scientists formés chaque année, la demande est insatisfaite et les enchères salariales s’envolent…

Qu’il s’agisse de prévoir des capacités, d’optimiser des tournées ou de calculer l’heure d’arrivée estimée, une alternative à l’intégration de tels profils consiste à se tourner vers des fournisseurs de services et des éditeurs de solutions d’optimisation logistique. Ces éditeurs recrutent depuis toujours des spécialistes de la donnée et de la modélisation, travaillant notamment sur l’IA, aujourd’hui pleinement intégrées à ce type de solutions.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
Pluralisme par Magic LEMP

Magic lemp et lexbase ont lancé le site pluralisme.fr, première base de discours politique issue des médias et généré en temps (quasi) réel. le sit...

 

Contributeur expert

Jérémy Mandon

Jérémy Mandon est directeur commercial de Nomadia, leader eu

Partager l'article

Tout juste créée, Bioptimus lève 35 millions de dollars pour appliquer l’IA générative à la biologie

La start-up française Bioptimus, fondée par d'anciens chercheurs de Google DeepMind et des experts d'Owkin est sortie hier du mode furtif avec l'annonce d'une...

DevCon 2024 : L’IA au coeur des nouvelles fonctionnalités annoncées pour la plateforme d’UiPath

Fondée en 2005 par Daniel Dines et Marius Tirca à Bucarest, en Roumanie, UiPath est devenue l'un des leaders mondiaux dans le domaine de...

SoftBank, à la recherche d’investisseurs pour se lancer dans la fabrication de puces d’IA

Après Sam Altman, c'est au tour de Masayoshi Son, fondateur et PDG de SoftBank de partir à la recherche de fonds pour créer sa...

CRAG : une méthode pour améliorer la génération de texte basée sur la récupération de connaissances

La génération de texte basée sur la récupération de connaissances (RAG) permet aux LLM de produire des textes informatifs et cohérents à partir de...