Conditionnement en Pick & Place avec un convoyeur

V.1.1

Conditionnement en Pick & Place avec un convoyeur

Difficulté : moyenne

Temps : ~30 min

Note

Ce tutoriel est fonctionnel à partir de :
La version v3.0.0 de la ned_ros_stack
La version v3.0.0 de Niryo Studio
La version v3.1.0 de PyNiryo

Objectifs

  • Cette application montre de multiples exemples d’applications que vous pouvez réaliser avec le Set Vision et Ned/Ned2.

  • Obtenez une première approche des process industriels qui peuvent être réalisés avec Ned/Ned2.

Ce dont vous aurez besoin

  • Connaissances basiques en Python

  • Savoir utiliser Ned/Ned2

  • Avoir étudié le manuel utilisateur du Set Vision

  • Avoir étudié le manuel utilisateur du convoyeur

  • Avoir pris connaissance de la documentation PyNiryo

Matériel requis

  • Un Set Vision

  • Un Ned (ou un Ned2)

  • Un convoyeur

  • La bibliothèque PyNiryo installée sur votre ordinateur

Conditionnement avec un convoyeur et un Set Vision

Ce process consiste en la saisie de toute type d’objet depuis le convoyeur et leur conditionnement dans une zone de dédiée.

Retrouvez ci-dessous un schéma de cette application vous permettant de le visualiser.

Ned

Le script de cette application peut être retrouvé ici : Conditionnement par la vision avec un convoyeur

Explication du script

Ce script montre un premier exemple de comment utiliser le Set Vision de Ned/Ned2 avec le convoyeur.

Au début de cette application, la caméra du robot est placée au dessus du convoyeur. Quand un objet est détecté, le convoyeur est arrêté et le robot effectuer une opération de Pick & Place, comme celle que l’on retrouve dans le premier exemple.

Note

Le code est commenté afin de faciliter votre compréhension de la façon dont cette application fonctionne.

Avant de lancer ce démonstrateur, il vous faudra changer les variables ci-dessous :
  • robot_ip_address

  • tool_used

  • workspace_name

Vous pouvez également changer les variables ci-dessous si vous souhaitez réaliser votre propre environnement :
  • grid_dimension

  • vision_process_on_robot

  • display_stream

Pour finir, vous pouvez également modifier les variables suivantes pour adapter parfaitement cette application à votre environnement :
  • observation_pose

  • center_conditioning_pose

  • sleep_pose