Conditionnement d’une simple référence en Pick & Place

V.1.1

Conditionnement d'une simple référence en Pick & Place

Difficulté : facile

Temps : ~20 min

Note

Ce tutoriel est fonctionnel à partir de :
La version v3.0.0 de la ned_ros_stack
La version v3.0.0 de Niryo Studio
La version v3.1.0 de PyNiryo

Introduction

L’objectif de ce démonstrateur est de vous proposer plusieurs exemples d’applications de ce que vous pouvez faire avec le Set Vision et Ned/Ned2, mais également pour avoir une première approche des process industriels qui peuvent être réalisés avec Ned/Ned2. Ce process consiste en la saisie de n’importe quel objet depuis une zone de travail et leur conditionnement dans une zone dédiée.

Ce dont vous avez besoin

Connaissances :
  • Connaissances basiques en Python

  • Savoir utiliser Ned/Ned2

  • Avoir étudié le manuel utilisateur du Set Vision

  • Avoir pris connaissance de la documentation PyNiryo

Matériel :
  • Un Set Vision

  • Un Ned (ou un Ned2)

  • La bibliothèque PyNiryo installée sur votre ordinateur

Le script de cette application peut être retrouvé ici : `Conditionnement par vision d'une simple référence <https://github.com/NiryoRobotics/ned_applications/tree/master/examples/Vision_Conditioning_One_Reference>`_

Le script de cette application peut être retrouvé ici : Conditionnement par vision d’une simple référence

Les opérations du script

Le script offre un exemple de comment utiliser le Set Vision de Ned/Ned2 afin de conditionner tout type d’objet donné.

Le script fonctionne de deux manières :
  • Une dans laquelle tous les process de vision sont faits par le robot.

  • Une autre dans laquelle les process de vision sont faits par l’ordinateur.

L’objectif de la première est de montrer à quel point il est facile d’utiliser le Set Vision de Ned/Ned2 avec PyNiryo.

La seconde a pour objectif de montrer comment faire du traitement d’images depuis l’ordinateur d’un utilisateur. Il met en exergue le fait que vous puissiez imaginer tout type de process sur votre ordinateur. Les objets seront conditionnés dans une grille aux dimensions indiquées dans grid_dimension. Si la grille est complète, alors les objets seront à un niveau inférieur.

Note

Le code est commenté afin de faciliter votre compréhension de la façon dont cette application fonctionne.

Avant de lancer ce démonstrateur, il vous faudra changer les variables ci-dessous :
  • robot_ip_address

  • tool_used

  • workspace_name

Vous pouvez changer la variable grid_dimension ci-dessous si vous souhaitez créer votre propre environnement :
  • grid_dimension

  • vision_process_on_robot

  • display_stream

Pour finir, vous pouvez également modifier les variables suivantes pour adapter parfaitement cette application à votre environnement :
  • observation_pose

  • center_conditioning_pose

  • sleep_pose