Bildverarbeitungssoftware

IBV mit Deep Learning

IBV mit Deep Learning

IBV mit Deep Learning

Robotvision mit der EyeVision Bildverarbeitungssoftware von EVT.

Palettieren oder Depalettieren

Das Palettieren oder Depalettieren basiert immer darauf, dass Objekte (z. B. Kartons, Beutel etc.) sicher und schnell erkannt werden und die ermittelten Greifdaten dann an den Roboter weitergegeben werden. Die Basis für das korrekte Greifen ist die Hand-Eye-Kalibrierung, damit der Roboter an der Position greift, wo die Kamera das Objekt sieht. Damit das Erkennen zuverlässig und sicher funktioniert, ist eine sichere Erkennung der Objekte notwendig.

Die Grundlage dafür ist die neue Erkennung basieren auf Deep Learning. Sobald die Objekte mittels Deep Learning erkannt wurden, werden die Greifpositionen und Winkel im 3D Bild bestimmt. Durch die Punktewolke wird dann ermittelt, welches der Objekte an oberster Stelle liegt und das Depalettieren beginnt. Die in der EyeVision vordefinierten neuronalen Netze erlauben dieses Vorgehe für eine Vielzahl an Objekten. Sollte ein Objekt noch nicht bekannt sein, kann es mit dem integrierten Lerntool schnell Zeit eingelernt werden, sodass auch diese Objekte sicher erkannt werden.

Bin Picking mit EyeVision

Bin Picking wird immer wichtiger. Dabei garantiert die EyeVision Software in Kombination mit einem Roboter, die Bauteile sicher aus dem Behältnis zu entnehmen. Dies erfolgt durch den leistungsfähigen Deep Learning Recognizer. Jener ermöglicht, in Verbindung mit einer 3D-Kamera, dass auch bei Schüttgütern die Bauteile sicher entnommen werden und beinhaltet zahlreiche schon vortrainierte Objekte.

Kompakte embedded Systeme mit bis zu 6 MIPI Kameras und 15 m Kabellänge können von der EyeVision Software angesteuert werden. Dabei erfolgt die Auswertung wie immer komplett ohne Programmierung nur durch grafische Konfiguration.

Durch den Deep Learning Recognizer, die Hand-Eye-Kalibrierung und der Korrektur der Absolutgenauigkeit durch die EyeVision Software können selbst kleinste Bauteile im gesamten Arbeitsbereich gegriffen werden. Das Ablegen der Objekte kann dann entweder blind an eine vorgegebene Stelle erfolgen oder aber ebenfalls über das Roboterauge, abhängig von der Anforderung, mit einem 2D oder 3D Sensor, kontrolliert werden.

Teilen