
FAITS
- Les systèmes automatisés peuvent échouer lorsque les capteurs fournissent des données incomplètes, bruitées ou incorrectes, ce qui conduit l’IA à mal évaluer les distances, les obstacles ou la présence humaine.
- Les bogues logiciels, les micrologiciels obsolètes ou les algorithmes défectueux peuvent entraîner un comportement imprévisible de l’automatisation, des mouvements involontaires ou l’exécution de tâches au mauvais moment.
- Les systèmes d’automatisation peuvent tomber en panne dans des conditions extrêmes (éclairage, conditions météorologiques ou formes d’objets inhabituels) car le modèle d’IA n’a pas été entraîné à ces scénarios.
- Les interruptions de réseau ou de communication peuvent interrompre les commandes en cours d’exécution, retarder les signaux d’urgence ou provoquer le « gel » des robots dans des positions dangereuses.
- Les systèmes autonomes peuvent se comporter de manière dangereuse lorsque la logique de sécurité est outrepassée, désactivée ou mal configurée pendant la maintenance ou la configuration.
- Les systèmes basés sur l’IA peuvent mal classer les membres humains, les EPI ou les outils, créant ainsi des situations dangereuses où le robot « pense » que la zone est dégagée alors qu’elle ne l’est pas.
STATISTIQUES
- Une analyse américaine a révélé que près de 40 % des accidents liés à l’automatisation impliquaient des défaillances de capteurs ou de détection, par exemple une machine ne reconnaissant pas un travailleur dans la zone dangereuse. (Centre de recherche sur la robotique professionnelle, NIOSH)
- Aux États-Unis, les incidents liés à l’IA sur les lieux de travail ont augmenté de 30 % entre 2023 et 2025, les modes de défaillance tels que les hallucinations et l’amplification des biais contribuant à 15 % des violations de sécurité signalées dans le domaine de l’automatisation industrielle.
- En 2025, 44 % des organisations canadiennes déployant des systèmes automatisés basés sur l’IA ont connu au moins un incident lié à un mode de défaillance, tel qu’une mauvaise interprétation du système entraînant un arrêt opérationnel ou un quasi-accident.
- Les secteurs manufacturiers américains ont enregistré une réduction de 25 % des accidents liés aux robots IA entre 2020 et 2025, mais les modes de défaillance dans la surveillance prédictive ont causé 10 % des incidents résiduels, y compris des décisions autonomes inattendues.
- Entre 2021 et 2024, le phishing d’identifiants et les attaques adversaires contre les systèmes d’IA ont augmenté de 703 % aux États-Unis, exploitant des modes de défaillance tels que le manque de transparence et compromettant la sécurité sur le lieu de travail.
- Au Canada, 32 % des incidents de compromission des e-mails professionnels impliquant des outils d’IA en 2024 résultaient d’échecs de contournement de l’authentification multifactorielle, amplifiant les risques dans les processus décisionnels automatisés.