Présentation

Article

1 - INTERACTION ROBOT-VISION

2 - INTERACTION ROBOT-EFFORT

3 - VERS UNE INTERACTION ROBOT-VISION-EFFORT

Article de référence | Réf : S7780 v1

Interaction robot-vision
Intégration robot-capteur

Auteur(s) : Jacques GANGLOFF, Philippe POIGNET

Relu et validé le 05 févr. 2015

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

RÉSUMÉ

En règle général, les robots industriels exécutent une séquence de mouvements répétitifs, c’est-à-dire qu’ils fonctionnent en mode répétition. Ainsi, la moindre erreur de positionnement peut entraîner erreurs et inprécisions. C’est pourquoi des retours sensoriels externes sont désormais inclus dans certains types de robots. Cet article propose un récapitulatif de l’interaction robot-capteur pour deux capteurs extéroceptifs les plus courants que sont la caméra et le capteur d’effort. Pour chacun de ces deux cas, les motivations, l’acquisition, le traitement, les commandes (qu’elles soient par vision ou par effort), puis des études de cas sont présentés. Une ouverture sur l’interaction robot-vision-effort est proposée en fin d'article.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

ABSTRACT

Industrial robots generally carry out a sequence of repetitive movements i.e. they operate in repetition mode. Therefore, the slightest error in their positioning can generate errors and imprecisions. This is the reason why external sensory feedbacks have been included in certain types of robots. This article provides an overview of the interaction robot-sensor for two most common exteroceptive sensors: the camera and the effort sensor. In both cases, motivations, acquisition, processing, control devices (vision or effort) as well as case studies are presented. The article concludes on the development of the robot-vision-effort interaction .

Auteur(s)

  • Jacques GANGLOFF : Professeur à l’université de Strasbourg

  • Philippe POIGNET : Maître de conférences à l’université de Montpellier 2, LIRMM (Laboratoire d’informatique, de robotique et de microélectronique de Montpellier)

INTRODUCTION

La grande majorité des robots industriels installés fonctionne dans un mode de répétition : ils exécutent une séquence de mouvements appris. La réactivité par rapport à un événement externe est très limitée : elle se borne souvent à des réactions basiques déclenchées par des événements de type « tout ou rien ».

L’environnement doit donc être constant et connu avec une grande précision. Pour un poste de soudage robotisé, par exemple, les pièces à souder doivent être positionnées avec précision face au(x) robot(s) avant que celui-ci effectue sa tâche apprise. Toute erreur dans ce positionnement se répercutera directement sur la précision de la tâche.

D’autre part, lorsque le robot travaille au contact (ce qui est le cas des tâches d’insertion, de polissage ou de vissage, par exemple), en l’absence de capteur additionnel et si les cotes ou le positionnement de la pièce s’éloignent des valeurs nominales, les efforts engendrés peuvent croître de manière très importante, pouvant aller jusqu’à la destruction de la pièce ou de l’outil.

Afin de donner au robot plus de flexibilité et d’adaptabilité, il est nécessaire d’inclure dans sa commande des retours sensoriels externes.

La vision permet de prendre en compte des variations dans l’environnement de travail du robot. On parle alors de « commande par vision » ou « asservissement » visuel. Lorsque le robot travaille au contact, la mesure des efforts d’interaction fournie par un capteur d’effort permet de contrôler, et donc de limiter, ces efforts d’interaction. On parle alors de « commande en effort ».

Cet article est dédié à l’interaction robot-capteur pour les deux capteurs extéroceptifs les plus couramment utilisés en robotique : la caméra et le capteur d’effort.

Les aspects théoriques concernant les différentes architectures de commande sont abordés de façon très synthétique, en donnant au lecteur la possibilité d’approfondir le sujet à travers la citation de références.

La technologie des capteurs, des exemples et des études de cas réels, constituent le volet pratique de l’article.

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-s7780


Cet article fait partie de l’offre

Robotique

(60 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation

1. Interaction robot-vision

1.1 Motivations

Le capteur visuel est un capteur dit « extéroceptif ». Il est capable, avec une grande richesse d’informations, d’appréhender l’environnement de travail du robot.

L’information extraite de l’image permet, par exemple, de corriger la trajectoire du robot de manière à s’adapter à une variation dans les cotes des pièces à traiter. On peut aussi imaginer un système robotique capable de reconnaître automatiquement le type de pièce qui se présente et d’adapter la tâche en fonction de la pièce et/ou de sa position par rapport au robot.

Le capteur visuel fournit un flux d’informations. Le caractère temps-réel de cette information peut être utilisé pour corriger en temps réel la position du robot, notamment pour réaliser une tâche à la volée sur une pièce circulant sur un convoyeur.

Les deux premiers exemples mentionnés ont tendance à devenir de plus en plus courants dans l’industrie. Ceci a été rendu possible, ces dernières années, grâce à l’augmentation de la puissance de traitement de l’image (qui suit la courbe des fréquences des microprocesseurs) et, aussi, en raison de l’accès à un certain degré de maturité et donc de robustesse des algorithmes de traitement d’image.

Dans ces exemples le fonctionnement du système est séquentiel : on regarde, on traite et on bouge le robot en fonction du résultat du traitement. Cette approche est dénommée « look then move » dans la littérature scientifique et ne permet pas une correction active de la tâche.

Le dernier exemple qui consiste à suivre une pièce en train de bouger, relève de ce qu’on nomme la « vision active » ou « visual servoing ». Dans ce cas, les commandes envoyées au robot sont réactualisées à une fréquence égale ou harmonique de la fréquence d’acquisition d’images.

Le système peut être vu comme un asservissement de position avec un capteur visuel.

Ce type d’approche est encore très rare dans l’industrie mais elle est courante dans le milieu de la recherche où on a démontré son intérêt et son efficacité.

Dans cette partie, les différentes notions fondamentales en commande par vision sont abordées de manière progressive et didactique. Une section est dédiée aux capteurs...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Robotique

(60 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Interaction robot-vision
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - HORAUD (R.), MONGA (O.) -   Vision par ordinateur : outils fondamentaux  -  . Ed. Hermes (1995).

  • (2) - JÄHRE (B.) -   Digital Image Processing  -  . Ed. Springer (1995).

  • (3) - BOVIK (A.) -   Handbook of image and video processing  -  . Ed. Academic Press (2000).

  • (4) - DUDA (R.O.), HART (P.E.), STORK (D.G.) -   Pattern Classification  -  . Ed. Wiley Interscience (2000).

  • (5) - GONZALEZ (R.C.) -   Digital Image Processing  -  . Ed. Prentice Hall (2002).

  • (6) - CHAUMETTE (F.) -   De la perception à l’action : l’asservissement visuel ; de l’action à la perception : la vision active  -  . Habilitation à diriger des recherches de l’Université de Rennes 1, IRISA (janvier 1998) (http://www.irisa.fr/lagadic/pdf/ 1998_hdr_chaumette.pdf).

  • ...

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Robotique

(60 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS