€EUR

Blog
OSM Worldwide Partners with Ambi Robotics to Automate Parcel Sortation Using AI-Powered Robotic SystemsOSM Worldwide Partners with Ambi Robotics to Automate Parcel Sortation Using AI-Powered Robotic Systems">

OSM Worldwide Partners with Ambi Robotics to Automate Parcel Sortation Using AI-Powered Robotic Systems

Alexandra Blake
par 
Alexandra Blake
10 minutes read
Tendances en matière de logistique
octobre 09, 2025

Recommendation: Concevoir un flux de tri modulaire, assisté par l'IA et reposant sur des concepts de kits et d'autostockage pour réduire de plusieurs jours le cycle de débit et améliorer l'efficacité pour les expéditeurs et les transporteurs.

Cette collaboration s'étend sur plusieurs continents, associant une organisation en quête de transformation numérique à un développeur axé sur l'automatisation pour moderniser le texte des flux de travail d'exécution.

Jeunesse L'inclusion est un pilier : l'initiative cible les marchés du travail sous-représentés, offre des kits pour former de nouveaux opérateurs et bâtit un employer- trajectoire de marque qui renforce le industry et prend en charge businesses tout au long des chaînes de valeur.

Les principaux défis consistent à aligner les quarts de nuit sur la demande, à créer menu déroulant différentes configurations de références, et garantir un fonctionnement résilient à travers economic cycles. Le plan comprend des modules compatibles avec le stockage automatique et une solution évolutive. model.

Grâce à un cadre axé sur les données et le texte et à une architecture de kit modulaire, la collaboration peut servir de référence. l'efficacité gains, measure jours sauvegardée et prévoir la capacité sur plusieurs chains.

Pour les expéditeurs, ainsi que les transporteurs, cette approche offre un moyen souple d'accroître la capacité sans rénovations coûteuses, couvrant plusieurs marchés et s'alignant sur un inclusif, axé sur la croissance industry outlook.

En substance, l'initiative réduit la complexité et génère un ROI mesurable en quelques jours plutôt qu'en quelques trimestres, modifiant ainsi l'économie de l'ensemble de l'écosystème.

Comment OSM x Ambi Robotics transforment le tri de colis : Angles pratiques pour les fabricants

Comment OSM x Ambi Robotics transforment le tri de colis : Angles pratiques pour les fabricants

Adoptez une architecture de tri modulaire, axée sur les données, qui s'adapte de 2 à 6 voies, traitant 3 000 à 6 000 articles par heure et par site et réduisant les délais d'exécution de 20 à 30 %.

Bâtir une structure de données ouverte et transparente couvrant les convoyeurs, les scanners et les trieurs ; standardiser les messages d'événements afin que la couche de contrôle puisse réagir à chaque mise à jour. Cela permet aux responsables de ligne de suivre l'état dans les journaux de texte et les tableaux de bord sans délai.

Mettre en avant une modularité inspirée d'Autostore qui permet une reconfiguration aisée pour les programmes saisonniers ; assurer un routage par colonne où chaque colonne reçoit une destination distincte ; l'envoi des articles vers la bonne voie devient simple.

Appliquez une classification simple et intelligente pour réduire les erreurs d'envoi. Utilisez une détection et une imagerie robustes pour augmenter la précision vers la plage élevée de 98 à 99 % pour le suivi au niveau de l'article.

Favoriser une adoption collaborative entre les opérations centrales, les installations verticales et les fournisseurs ; de tels partenariats précieux continuent d'accroître les capacités et la résilience. Les associés de tous les sites fournissent des commentaires qui éclairent les mises à jour en temps réel ; ces données aident à planifier les capacités futures et établissent de nouvelles normes pour les Américains et les consommateurs de la chaîne alimentaire. Les déploiements mondiaux dans la logistique illustrent une échelle intersectorielle, y compris dans la chaîne alimentaire au service des Américains.

Étapes suivantes : cartographier les flux actuels par verticale afin d’identifier les goulots d’étranglement ; déployer des modules modulaires pour remplacer les points manuels ; se connecter au noyau d’analyse ouvert ; former les associés grâce à des sessions courtes et pratiques ; fixer des examens trimestriels pour ajuster les objectifs.

Quels défis spécifiques de manutention de colis la trieuse pilotée par l'IA permet-elle de relever?

Quels défis spécifiques de manutention de colis la trieuse pilotée par l'IA permet-elle de relever?

Le tri assisté par l'IA s'attaque aux goulots d'étranglement des pics de volume, aux traitements incohérents et à la lenteur de la récupération en priorisant les envois dès leur réception, en alignant les actions sur les fenêtres de service et en permettant un débit plus rapide. De plus, un ensemble de règles modulaires et configurables dirige les envois le long de voies dédiées et de files d'attente adaptatives, ce qui permet d'obtenir des résultats mesurables pendant les semaines de pointe et les jours fériés.

La précision s'améliore à mesure que les contrôles fusionnent les données d'étiquette, les dimensions des articles et l'alignement des zones en un seul nœud. Les polygones définissent un routage sans risque à travers les zones ; les validations intégrées réduisent les erreurs de tri et raccourcissent les cycles, ce qui améliore la précision du suivi et la vitesse de récupération.

Les interfaces accessibles aux personnes handicapées permettent aux opérateurs d'agir de manière fiable, réduisant ainsi la dépendance aux saisies manuelles et permettant une réponse plus rapide aux exceptions.

Des mises à jour et visualisations en temps réel aident les décisionnaires grâce à des tableaux de bord clairs ; des menus déroulants simplifient les modifications de politiques spécifiques à une région ; des alertes par abonnement permettent aux équipes de rester alignées, favorisant ainsi une amélioration continue à travers les réseaux.

Le déploiement privilégie une approche évolutive et modulaire déployée dans plusieurs régions ; les organisations peuvent postuler à plusieurs applications ; les ensembles de fonctionnalités s'étendent à mesure que les cas s'accumulent, et des références primées valident la méthode, permettant une mise à l'échelle sur les réseaux.

Commencer par un déploiement progressif dans une seule région, surveiller les délais d'expédition, le débit et les taux d'erreur ; améliorer en fonction des données et prendre en charge un modèle d'abonnement et des mises à jour fréquentes ; les résultats ont tendance à être rapides, offrant un service plus rapide, des coûts réduits et une satisfaction client accrue. C'est pourquoi un programme de changement discipliné génère des gains durables pour le développement des opérations et des réseaux de partenaires.

Composants essentiels : modèles d'IA, robotique, capteurs et logiciels d'orchestration

Investissez dans des modèles basés sur l'IA, des bras robotiques modulaires, une pile de capteurs robuste et un logiciel d'orchestration pour permettre une acceptation et un fonctionnement évolutifs et de bout en bout dans tous les centres de distribution.

Les composants d'IA sont des blocs configurables qui peuvent être ajustés localement, tout en conservant la même précision dans toutes les usines nationales.

La suite de capteurs comprend des caméras RVB pour la reconnaissance, des capteurs de profondeur pour l'estimation du volume, un LIDAR pour la connaissance du périmètre et des dispositifs de force-couple pour le contrôle de la préhension.

Le logiciel d'orchestration coordonne les états, prend en charge les actions de rotation et utilise la géocarte pour aligner les lignes sur la géométrie du sol ; le point et les degrés pilotent le fonctionnement, le contexte géographique éclaire les décisions, tandis que l'opacité configure les seuils d'alerte. Il permet aux modules de fonctionner selon des règles établies.

Les configurations sélectionnées sont conformes aux normes de sécurité, que les Américains gèrent des réseaux nationaux ou des usines à l'étranger ; ils créent des partenariats qui raccourcissent le délai de rentabilisation. Dans une zone de traitement de taille moyenne, des bras de 4 à 7 degrés de liberté associés à un ensemble de capteurs à quatre caméras peuvent atteindre 8 000 à 12 000 articles par heure et par ligne ; le passage à deux lignes permet d'obtenir 24 000 à 36 000 articles par heure. La latence reste inférieure à 100 ms par décision et la disponibilité reste supérieure à 99,5 % dans les installations à température contrôlée. La superposition de la carte géographique indique la couverture géographique, l'ombrage de remplissage de section marque les zones de tâches, et l'interface utilisateur expose les paramètres sélectionnés tels que les angles de rotation et les lignes d'état. Le cadre Olsen maintient les tâches sélectionnées alignées sur les procédures opérationnelles standard, en maintenant les états dans toutes les usines.

Du pilote à l'échelle : une feuille de route pratique pour le déploiement

Commencez par sélectionner un site unique et une famille SKU définie pour mener un test alpha de six semaines ; fixez trois objectifs : débit, précision des commandes, disponibilité. Construisez un modèle de données partagé, ancré dans les données sources, les champs et les cartes géographiques, afin d'identifier les goulets d'étranglement. Créez une ligne d'assistance et une boîte de réception pour l'enregistrement des problèmes ; définissez des règles pour la gestion des incidents et assurez-vous que l'équipe réagit rapidement. Impliquez les acheteurs et les acteurs du commerce électronique dès le début pour susciter l'enthousiasme pour l'avenir et clarifier les services fournis par cette mise à niveau.

  1. Conception et définition des bases du projet pilote
    • Choisissez une portée limitée : un site, une famille de SKU définie ; capturez les mesures de base pour le débit (unités/heure), la fidélité de la recomposition et les temps d'arrêt (minutes) ; enregistrez tout événement d'arrêt séparément.
    • Définir le cadre de données : flux de données sources, champs obligatoires et géocartes pour suivre le flux à travers les étapes.
    • Développer des composants modulaires et configurables ; établir un tableau de KPIs pour un examen rapide.
    • Convenir des jalons alpha : achèvement de l’alpha, préparation de la bêta, critères de décision de lancement/non-lancement.
  2. Intégration des données et stabilité du modèle
    • Consolider les flux des systèmes sources ; s'assurer que les contrôles de qualité des données s'exécutent automatiquement et gérer les valeurs aberrantes avec élégance.
    • Publier les mises à jour par petits incréments ; suivre l'impact sur les indicateurs de l'État et les améliorations.
    • Concevoir une architecture en couches : couche de données, couche logique et couche de présentation, afin de réduire le couplage interprocessus.
    • Préparez-vous aux différentes exigences du marché en validant les données par rapport aux réglementations régionales et aux normes gouvernementales.
  3. Préparation opérationnelle et gouvernance
    • Définir les rôles au sein de l'équipe ; attribuer une ligne d'assistance, une boîte de réception et un chemin d'escalade dédiés aux incidents.
    • Fournir une formation au changement rapide pour les opérateurs ; documenter les manuels d'exécution et inclure l'intégration d'opérateurs diversifiés.
    • Établir une fréquence d'évaluation des performances et un déclencheur pour la validation au niveau de l'État avant l'expansion ; s'appuyer sur des boucles de rétroaction claires.
  4. Plan d'évolution et expansion du marché
    • Expansion modulaire : reproduire l'architecture centrale sur de nouveaux sites ; utiliser des paramètres configurables pour adapter les flux par marché.
    • Identifier les principaux marchés pour le passage à l'échelle ; s'aligner sur les réglementations locales, les contraintes fiscales et logistiques dans les différentes régions.
    • Surveiller la dynamique de la concurrence sur chaque marché et ajuster en conséquence le rythme de déploiement, les prix et les SLA.
    • Élaborer un tableau des étapes clés avec un calendrier de déménagement prévisible vers de nouvelles installations et chaînes de production.
  5. Améliorations continues et pérennisation
    • Suivre les améliorations sur plusieurs dimensions : vitesse, précision, résilience ; publier les mises à jour pour l'équipe et les acheteurs.
    • Itérer le modèle avec des mises à jour incrémentales à chaque sprint ; mettre l'accent sur l'inclusion et les enseignements tirés dans tous les services.
    • Maintenir un état de préparation pour les audits gouvernementaux et les contrôles de conformité.

Résultats quantifiables : débit, précision et implications en termes de main-d'œuvre

Adoptez une plateforme de manutention modulaire et évolutive, configurée pour différentes tailles et contrôles de sécurité, afin d'augmenter le débit et de réduire la main-d'œuvre.

À travers le monde, les adoptants montrent une diminution impressionnante de la manutention manuelle, offrant des gains mesurables à chaque étape. Les références d'Ocado illustrent l'adoption en suivant les marqueurs suivants : obtention de résultats sans personnel supplémentaire, réalisée sur un modèle unique qui offre des gains impressionnants dès le premier jour. Une seule chose compte : les besoins des clients déterminent la configuration.

Labelconfigures et optiondescriptionsizeconfigures simplifient l'interface utilisateur, réduisant ainsi les demandes de modification.

Dans la 20e itération du modèle, des changements opérationnels apparaissent dans les environnements clients et les flux de travail d'envoi.

Les benchmarks d'Ocado s'alignent sur un modèle unique, suivant des marqueurs de différentes tailles et dans des scénarios de rue. Une seule chose compte : assurer un débit fiable tout en maintenant la sécurité et la précision.

Métrique Baseline Cible Improvement
Débit (paquets/heure par ligne) 180 260 +80 (44,41 TP3T)
Précision (100 % correct) 97,81 % 99,61 % +1,8 pp (+1,841 pt de pourcentage)
Heures de travail par quart (manutention manuelle) 8.0 5.0 -3,0 heures (-37,51 %)
Effectifs par roulement (collaborateurs) 8 5 -3 associés (-37,51 %)
Incidents de sécurité par million de colis 3.2 0.9 -2,3 (-721 TP3T)
Durée de fonctionnement opérationnelle 92% 97% +5 pp (+5.41 %)

Gouvernance des données, sécurité et confidentialité dans le tri optimisé par l'IA

Recommandation : établir une charte de gouvernance des données d'ici 30 jours qui désigne les propriétaires des données, définit les calendriers de conservation et applique le chiffrement au repos et en transit. Créer un catalogue centralisé documentant la provenance, la lignée et les ensembles de données organisés utilisés pour les entrées du modèle, avec des responsabilités claires pour ces rôles et un responsable désigné soutenu par du personnel dans l'ensemble de la main-d'œuvre mondiale.

  1. Principes de gouvernance : désigner un responsable principal des données ; nommer des propriétaires de données ; et définir des catégories telles que les métadonnées d'expédition, les signaux de géolocalisation et les attributs de gouvernance. Cartographier les flux de données entre les fournisseurs et enregistrer les schémas de chargement pour assurer la traçabilité. Utiliser des polygones pour délimiter les zones de service et le geohash pour coder la localisation tout en préservant la confidentialité ; maintenir une vue de la filiation pour tenir compte des changements au fil du temps.

  2. Contrôle d'accès et chiffrement : appliquer un accès basé sur les rôles avec le moindre privilège ; exiger l'authentification multifacteur pour les consoles critiques ; appliquer AES-256 au repos et TLS pour le transit. Déployer la gestion des clés basée sur le matériel et faire tourner les informations d'identification selon une cadence définie. Mettre en œuvre des passerelles API, la journalisation des événements et la détection d'anomalies pour détecter les accès tardifs ou non autorisés, en veillant à ce que ces contrôles conduisent à une posture de sécurité plus impressionnante.

  3. Mesures de protection de la vie privée : mettre en pratique la minimisation des données et la pseudonymisation pour les signaux de localisation et d'expédition ; mettre en œuvre le masquage pour les champs sensibles et la tokenisation le cas échéant. Limiter les transferts transfrontaliers par pays, en s'alignant sur les règles nationales et les meilleures pratiques internationales. Centraliser le traitement critique dans la région d'Atlanta en tant que plateforme de données, tout en appliquant la conservation locale uniquement si nécessaire, et fournir un cadre de protection de la vie privée dès la conception dans l'ensemble des logiciels.

  4. Partage de données et gestion des fournisseurs : étendre la collaboration entre les fournisseurs tout en appliquant des accords stricts de partage de données, la notification des incidents et les exigences de sécurité. Exiger des exemples de modèles de partage sécurisés, y compris des ensembles de données organisés utilisés pour les tests et la validation. Comparer les niveaux de risque entre les partenaires, surveiller les changements importants et documenter le point de vue selon lequel la gouvernance est importante dans l'ensemble du réseau.

  5. Surveillance, audit et responsabilité : maintenir des pistes d'audit complètes pour l'accès, les mouvements de données et les modifications de politiques. Mener des évaluations trimestrielles des risques et un alignement annuel sur les normes, avec des références nationales et internationales. Suivre des indicateurs tels que le score de qualité des données, le taux d'approbations d'accès réalisées dans le cadre du SLA et le pourcentage de suppressions d'accès révoquées rapidement ; s'assurer que le personnel et la direction disposent de tableaux de bord consultables pour vérifier la conformité pratique.

  6. Plan de mise en œuvre et indicateurs : exécuter une approche progressive en commençant par une empreinte de base à Atlanta, puis s'étendre à une couverture nationale et mondiale. Définir les objectifs de charge pour les opérations de pointe et vérifier les performances lors de scénarios de routage impliquant de nombreux polygones. Établir des angleconfigures pour régir la manière dont les droits d'accès sont accordés entre les services et prévoir un examen tardif pour confirmer l'alignement des politiques avec l'évolution des exigences. Exiger des plateformes logicielles qu'elles disposent de capacités claires de gouvernance des données et s'assurer que l'équipe peut mener des améliorations continues grâce à des mises à jour périodiques et à la formation du personnel.