Die Aufgabenstellung dieser Arbeit war, einen kamerageführten Greifprozess eines Roboters von einem laufenden Transportband weg zu realisieren. Aufbauend auf die Objekterkennungssoftware der Kamera, welche die Position eines Objektes in einem Bild in Koordinaten umwandelt, war es meine Aufgabe, nun über Zeitmessungen ein Signalkonzept zu erarbeiten, um zu verstehen, wie die Signale aussehen, weitergegeben werden und wie lange ihre Verarbeitung dauert. Somit konnte der Gesamtprozess vom Erkennen bis zum Greifen in Teilprozesse aufgeteilt werden, welche sich leichter untersuchen und programmieren ließen. Über die Dauer der Einzelprozesse konnte eine Totzeit zwischen Bildentstehung und dem Zeitpunkt, wenn dem Roboter die Zielkoordinaten der Greifbewegung zur Verfügung stehen, ermittelt werden. Dadurch kann man im Programm eine Positionskorrektur vornehmen, da sich das Objekt in dieser Totzeit auf dem Förderband unerkannt weiterbewegt.
Realisiert wurde diese Aufgabe mit einem DVT SmartImage Sensor und einem Industrieroboter ABB IRB 2400/10.
* Zu Beginn wurden die benötigten Zeitmessungen durchgeführt, welche zur Entwicklung eines
Signalkonzeptes nötig waren. Am Ende stand dann ein autonomer Greifprozess. Gemessen wurden
dabei die Löschzeit der RS232-Schnittstelle
* die Auslesezeit des von der Kamera übertragenen Koordinatenstrings aus der seriellen Schnittstelle
und Umrechnung in Koordinaten (x, y, Ψ)
* Messung der Bildverarbeitungszeit der Kamera
Der autonome Greifprozess, oder auch als „Dual Prozess“ bezeichnet, beinhaltet auch das Auftreten mehrerer Objekte auf dem Förderband. Ein besonderer Zusatz ist die automatische Prozessrücksetzung in einem Fehlerfall, der über Fehlerroutinen abgehandelt wird. Auf Grund der gewonnen Messwerte war meine Ergebnis eine sich ständig ändernde, in jedem Zyklus automatisch gemessene, Gesamtzykluszeit. Diese ist identisch mit der oben genannten Totzeit.
INHALTSVERZEICHNIS
1 Einleitung
1.1 Der Industrieroboter
1.1.1 Begriffsdefinition „Roboter“
1.1.2 Die Geschichte der Industrieroboter
1.1.3 Ihre Anwendungsgebiete und heutige Entwicklung
1.2 Das Ziel der Arbeit
1.3 Der Aufbau der Arbeit
2 Die Grundlagen
2.1 Der Industrieroboter IRB 2400/
2.1.1 Mögliche Anwendungsbereiche
2.1.2 Die S4C-Steuerung
2.1.3 Die Programmiersprache Rapid
2.2 Die Kamera – der Smart Vision Sensor DVT
2.2.1 Die Grundlagen
2.2.2 Die Technischen Daten des Systems im Überblick
2.2.3 Die Benutzeroberfläche „Framework“
2.2.4 Die Kommunikation
2.2.5 Das TCP/IP – Protokoll
2.2.6 Beschaltung der I/O-Ports der Kamera
2.2.7 Der Inspektions-Modus
2.2.8 Die Herstellerangaben zu Zyklus– und Prozesszeiten während einer Inspektion
3 Der Messaufbau
4 Vorüberlegungen
4.1 Grundlegende Anforderungen
4.2 Der Zweck der Messungen
4.3 Das Signalkonzept
4.4 Der Koordinatentransfer zwischen Kamera und Roboter
5 Die Messungen
5.1 Die Prozesszeitmessungen der Robotersteuerung
5.1.1 Die Prozessdauer „Löschen der seriellen Schnittstelle“
5.1.2 Die Auslesedauer eines Strings aus der seriellen Schnittstelle
5.2 Die Prozesszeitmessungen der Kamera
5.2.1 Die Messung der Inspektionszeit
5.2.2 Die Signalabfolge in der Kamera
5.3 Die Messung der Förderbandgeschwindigkeit
6 Die Umsetzung
6.1 Die Implementierung der Zykluszeit
6.2 Greifprozessrealisierung am laufenden Transportband
6.3 Die Bilddokumentation des Greifprozesses
6.4 Die Realisierung eines Endlosprozesses
6.4.1 Der Ablauf der Abstapelung
6.4.2 Die Aufsplittung der Greifwinkel
6.4.3 Der Test des Endlosprozesses
6.5 Die Bewertung des Endlosprozesses
7 Das Fazit
7.1 Die Reaktion der Kamera bei mehreren Objekten
7.2 Die I/O – Ports der Robotersteuerung
7.3 Anmerkungen zu Benutzerhandbüchern
7.4 Ein Resümee
7.5 Ein Ausblick
8 Anhang
8.1 entfällt
8.2 Kurzanleitung für die Neuinstallation des Robotersystems
8.3 Programmmodul für die Messung der Auslesezeit
8.4 Die Kameraeinstellungen
8.5 Der Greifprozess in kommentierter Form
8.6 Der Endlosprozess ausdokumentiert
8.7 Der Roboter als „Master“, die Kamera als „Slave“
9 Literaturverzeichnis
1 Einleitung
1.1 Der Industrieroboter
Industrieroboter - ein Fluch für die Arbeitnehmer?
Fakt ist, dass die moderne industrielle Fertigung von heute nicht mehr ohne Industrieroboter denkbar ist! Mit ihrer Hilfe können feststehende Routineaufgaben schneller und kostengünstiger durchgeführt werden und man setzt sie oft an Gesundheitsgefährdenden Arbeitsplätzen ein.
1.1.1 Begriffsdefinition „Roboter“
Was jedoch verstehen wir genau unter einem Industrieroboter?
Der Roboter ist ein selbständiges, programmierbares, elektromechanisches Gerät und wird in der Industrie und wissenschaftlichen Forschung für spezielle, sich oft wiederholende Arbeitsvorgänge eingesetzt.
1.1.2 Die Geschichte der Industrieroboter
Im 18. Jahrhundert wurden einige Uhrmacher berühmt durch die von ihnen gebauten, komplizierten mechanischen Puppen.
Heute bezeichnet der Begriff „Roboter“ oft mechanische Geräte, die rein darauf beschränkt sind, Bewegungen von Lebewesen nachzuahmen.
Die ursprüngliche Idee bei der Konzeption von Robotern lag in dem Bestreben, einige oder alle Arbeitsschritte in der Fabrikation zu automatisieren.
Die ersten Geräte dieser Art begann man im 18. Jahrhundert in der Textilindustrie zu bauen. Einzelne Webstühle aus jener Zeit wurden von gelochten Papierstreifen gesteuert.
Mit dem Beginn der industriellen Revolution baute man Fabrikationsstätten, die einen höheren Automatisierungsgrad für wiederholte Arbeitsschritte am Fliessband vorweisen sollten. Bis zur Erfindung des Computers in den vierziger Jahren des 20. Jahrhunderts und der fortschreitenden Miniaturisierung von Computerbauteilen waren leistungsfähigere Roboter, wie sie heutzutage in der Industrie anzutreffen sind, nicht möglich. Einer der ersten echten Roboter war ein Experimentalmodell mit dem Namen SHAKEY, der von den Forschern am Standford Research Institute (USA) in den späten sechziger Jahren entworfen wurde. Er konnte einzelne Bausteine stapeln, wobei eine Fernsehkamera als visueller Sensor diente. Die Informationen verarbeitete der Roboter mit Hilfe eines kleinen Computers.
Der Folgeschritt war der Versuch, roboterähnlichen Geräten sinnvollere Aufgaben beizubringen. Mitte der siebziger Jahre finanzierte die Firma General Motors ein Entwicklungsprogramm, bei dem der Forscher Victor Scheinman des Massachusetts Institute of Technology einen von ihm erfundenen motorgetriebenen „Arm“ verbesserte, um den so genannten „Programmable Universal Manipulator for Assembly“ (PUMA: Programmierbarer Universalmanipulator für die Fertigung) zu produzieren. Die entstandenen PUMA’s markierten den Beginn des Zeitalters der Roboter.
Heutige Computer sind mit einem oder mehreren kleinen Mikroprozessoren ausgerüstet. Diese werten jene Daten aus, die durch verschiedene Sensoren aus der Umgebung aufgenommen werden. Durch das Prinzip der Rückkopplung können Roboter in einem gewissen Maß ihre Funktionsweise dem veränderten Verhalten ihrer Umgebung anpassen. Der wirtschaftliche Einsatz von Robotern ist weithin verbreitet, einerseits durch die steigende Automatisierung in den Fabriken und andererseits durch ihre grundlegende Unersetzlichkeit in vielen Laborprozessen. Die neueste Entwicklung tendiert zu Echolotsystemen als Orientierungseinheit für frei bewegliche Roboter anstelle von visuellen Sensoren in Form einer Kamera.
In Deutschland ist eine stark wachsende Anzahl von eingesetzten Robotern zu verzeichnen. So spielen Roboter beispielsweise in der Montagetechnik, der Handhabungstechnik und der Automatisierung Gesundheitsgefährdender Arbeitsplätze eine zunehmend wichtigere Rolle. An vorderster Front in der Nutzung der Vorteile der Robotertechnologie steht unumstritten Japan.
1.1.3 Ihre Anwendungsgebiete und heutige Entwicklung
So veröffentlichte ABB in einem Presseartikel der Firma Ende des Jahres 2004: „ABB verkauft weltweit als erstes Unternehmen 100 000 Roboter“. Dies unterstreicht klar den weit gefächerten Einsatz der neuen Robotertechnologie in verschiedensten Anwendungsgebieten der Automobilindustrie, Konsumgüter- und Nahrungsmittelindustrie oder Pharma- und Unterhaltungselektronikindustrie.
1974 begann ABB mit der Produktion von Industrierobotern. Zu dieser Zeit wurden Industrieroboter hauptsächlich für die Materialhandhabung und zur Maschinenbestückung eingesetzt.
Heute, fast 30 Jahre später, beträgt der Marktanteil in diesem Bereich weltweit ca. 30% des Robotergeschäfts. Nach Informationen der International Federation of Robotics ist Schweißen in der Automobilindustrie weltweit das Einsatzgebiet Nummer eins.
Mitte der 80er Jahre komplettierte ABB sein Roboter-Portfolio durch spezielle Lackierroboter-Applikationen für die Automobilindustrie. ABB ist heute führend in dieser Applikation.
Das in Schweden, Norwegen, den USA, Deutschland und Japan tätige Roboterteam erweiterte in den letzten Jahren die ABB-Roboterpalette. Beispiele für die zahlreichen Einsatzgebiete der ABB-Roboter sind unter anderem die Verpackungsaufgaben für Schokoladenhersteller wie Lind und Nestlé oder die Sortierung von Pillen für Pharmaunternehmen wie Novartis und Bayer. Bekannte Konsumgüterhersteller wie Harley-Davidson verwenden ABB-Roboter für die Montage und das Lackieren von Motorrädern, und der US-Postdienst setzt ABB-Roboter für die Brief- und Paketsortierung ein.
Heute ist ABB der führende Lieferant von robotergestützten Automatisierungs-Lösungen, -produkten, -systemen und -leistungen, die für die Marktsegmente Automobil-, Konsumgüter-, Kunststoff- und Metallverarbeitende Industrie sowie für Gießereien und Schmieden standardisiert sind.
1.2 Das Ziel der Arbeit
Die Aufgabenstellung dieser Arbeit ist, einen kamerageführten Greifprozess eines Roboters von einem laufenden Transportband weg zu realisieren.
In der vorangegangenen Arbeit von Bernd Helferich wurde der Greifprozess von einem ruhenden Transportband weg bearbeitet, so dass auf diese Ergebnisse zurückgegriffen werden konnte.
Der Greifprozess musste nun auch möglich gemacht werden, wenn sich das Förderband mit konstanter Geschwindigkeit bewegt. Die Lage des Objektes auf dem Förderband wurde mit Hilfe einer Kamera lokalisiert und in dreidimensionale Raumkoordinaten umgewandelt.
Die Aufgabe bestand somit darin, mit Hilfe von Zeitmessungen ein Signalkonzept zu erarbeiten, um zu verstehen, wie die verwendeten Signale aussehen, weitergegeben werden und wie lange ihre Verarbeitung dauert. Dadurch konnte der Gesamtprozess in Teilprozesse aufgeteilt werden, welche sich leichter untersuchen und programmieren ließen.
Über die Dauer der Einzelprozesse konnte eine Totzeit zwischen Bildentstehung und dem Zeitpunkt, wenn dem Roboter die Zielkoordinaten der Greifbewegung zur Verfügung stehen, ermittelt werden. Dadurch konnte im Programm eine Positionskorrektur vorgenommen werden, da sich das Objekt während dieser Totzeit auf dem Förderband unerkannt weiterbewegt.
1.3 Der Aufbau der Arbeit
Im zweiten Abschnitt werden die beiden Hardwaremodule Kamera und Roboter vorgestellt, um später nachvollziehen zu können, wie Kamera und Roboter miteinander kommunizieren.
Der dritte Abschnitt beschreibt den Messaufbau.
Der Hauptteil der Arbeit zerfällt in die drei Abschnitte vier, fünf und sechs.
In Abschnitt vier werden verschiedene Vorüberlegungen und nötige Voraussetzungen vorgestellt, welche in ein Signalkonzept münden. Aus diesem wird klar, welche Messungen notwendig sind und wie die Umsetzung der Aufgabenstellung in einen Quellcode in lösbare Teilprobleme aufzusplitten ist.
In Abschnitt fünf stehen die einzelnen durchgeführten Messungen.
Diesem folgt im letzten Abschnitt sechs die Erstellung des Quellcodes in dokumentierter Form.
Ein Fazit mit einem kleinen Ausblick auf komplexere Anwendungen des Quellcodes schließt die Arbeit ab.
2 Die Grundlagen
2.1 Der Industrieroboter IRB 2400/10
Abbildung in dieser Leseprobe nicht enthalten
Der Industrieroboter IRB 2400/10 wurde im Jahre 1998 anlässlich des 100-jährigen Bestehens der Fachhochschule Mannheim von der Firma ABB gespendet. Er steht den Studenten im Institut für Produktionstechnik (IPM) zur Verfügung.
Abbildung 2.1.a : Der Industrieroboter IRB 2400/10
2.1.1 Mögliche Anwendungsbereiche
Die IRB 2400 Serie ist eine komplette Familie anwendungsoptimierter Roboter.
Ihre Hauptanwendungsbereiche in der Industrie liegen im Lichtbogenschweißen, Kleben und Abdichten, Reinigen, Schneiden und Endgraten, der Materialhandhabung und der Maschinenbedienung.
Der hier verwendete Roboter ist ein IRB 2400/10. Der Index „10“ steht für eine Tragfähigkeit von 10 kg. Dieser Robotertyp zeigt gemäß Herstellerangaben bei Prozessapplikationen wie Schneiden und Endgraten oder Kleben eine hervorragende Leistung.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1.1.a : Industrieroboter beim Bierausschank auf einer Messe
2.1.2 Die S4C-Steuerung
Das Herzstück des Roboters ist die S4C-Steuerung. Im online – Archiv von ABB befindet sich jedoch nur ein Datenblatt für eine S4CPlus-Steuerung, welche jedoch vermutlich einige kleinere Abweichungen gegenüber der S4C-Steuerung des IRB 2400/10 in unserem Institut aufweist, da einige Funktionen nur optional vorhanden sind. Äußerlich sind beide Steuerungsgeräte identisch.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1.2.a : S4CPlus-Steuerung
Das Datenblatt der S4CPlus – Steuerung befindet sich auf der beiliegenden CD als PDF-Dokument. Es enthält jedoch keine Informationen über die Rechenleistung der Steuerung und der daraus resultierenden Prozesszeiten.
2.1.3 Die Programmiersprache Rapid
Rapid ist eine von ABB eigens entwickelte Programmiersprache, die in den Steuerungssystemen der ABB Industrieroboter eingesetzt wird. Sie beinhaltet die Standardbefehle für if-Schleifen, for-Schleifen und while-Schleifen. Die Verarbeitung digitaler und analoger Signale ist gewährleistet. Diese Programmiersprache umfasst außerdem eine integrierte Fehlerbehandlung, benutzerdefinierte Signal- und Variablennamen, die Möglichkeit, Programme rückwärts auszuführen, Multitasking und Interrupts. Allerdings ist das Arbeiten mit Interrupts und Multitasking sehr stark von der Prozessorleistung des jeweiligen Steuerungssystems abhängig.
2.2 Die Kamera – der Smart Vision Sensor DVT 600
2.2.1 Die Grundlagen
Ein Smart Image Sensor ist ein System, das eine CCD-Kamera, eine auswertende Bildverarbeitung und die dazugehörige Datenaustauschkommunikation in sich vereint. Diese Einheit ist ein „schlaues“ oder englisch „smart“ System, da es sowohl die
- Bildaufnahme
- Bildverarbeitung: Objekterkennung, Vermessung, Ergebnisberechnung und Bilden eines Datenstrings
- Kommunikation und Datenübertragung auf zwei Arten:
- über serielle Schnittstelle (RS422 / RS232)
- über digitale Ein- und Ausgänge
- Online Programmierbarkeit über eine Ethernetschnittstelle
beinhaltet.
Der Smart Vision Sensor arbeitet auf Hardware-Basis. Er stellt Informationen in Form von Daten bereit. Der Smart Image Sensor ist eine CCD-Kamera. CCD steht für Charge Coupled Devise. Die CCD-Kamera besteht aus kleinen Bildaufnahmeelementen, Pixel genannt. Diese wandeln die Lichtstärke in eine elektrische Spannung um, welche gemessen wird. Der Smart Image Sensor hat eine Auflösung von 640x480 Pixel. CCD-Kameras zeichnen sich durch ihre hohe Lichtempfindlichkeit
(<1 Lux) aus. Ihre Belichtungszeit variiert zwischen 1/60s und 1/1000s.
2.2.2 Die Technischen Daten des Systems im Überblick
- Größe: 114 mm x 55 mm x 40 mm (ohne Objektiv) + zusätzliche 50 mm Kabelabstand
- Stromversorgung: 24 Volt Gleichspannung, 210 mA bei 24 Volt (oder minimal 5 W), geregelt und vom Netz getrennt. Pro verwendetem DVT LED-Array („Blitzlicht“) werden 30 W Leistung benötigt.
- Betriebstemperaturbereich: 0 - 45° C (entspricht 32 - 113° F)
- Bildsensor: 4,8 mm x 3,6 mm (1/3”-Zoll-Format) CCD, Auflösung 640 x 480 Punkte, quadratische Pixel mit einer Abmessung von 7,4 µm x 7,4 µm
- Elektronischer Verschluss: (1 µs – 1 s Belichtungszeit)
- Externe Schnittstellen: 15-polig High-Density, D-Sub-Stecker (Stromversorgung und Digital-E/A), RJ-45 (10/100 Megabit Ethernet - Kommunikation, Protokoll TCP/IP ), RJ-11 (RS-422 serielle Kommunikation)
- Digital-E/A: 24 Volt Gleichspannung geregelt, 12 konfigurierbare Ein- und Ausgänge, Eingänge sind Stromsenken, PNP (Stromquellen) Ausgänge, H-aktive Signale. Die Eingänge können bis zu 1,5 mA aufnehmen und die Ausgänge maximal 100 mA abgeben.
- Zertifikate: CE-zertifiziert
2.2.3 Die Benutzeroberfläche „Framework“
Das FrameWork besteht aus drei Haupt-Bestandteilen. Zum einen aus der FrameWork - Benutzersoftware, welche auf einem PC installiert und ausgeführt wird und zum anderen der FrameWork Firmware, die in die Kamera eingebettet ist und von der Kamera direkt ausgeführt wird. Und schließlich noch einem FrameWork Emulator, der die Hardware in Abwesenheit eines Smart Vision Sensors emuliert.
Mit Hilfe von Framework richtet man eine „Inspektion“ ein, d.h. einen Bildverarbeitungsablauf, der in der Kamera gespeichert wird und danach unabhängig vom PC abläuft.
2.2.4 Die Kommunikation
Für die Kommunikation zwischen PC und Smart Vision Sensor stehen zwei Kommunikationsanschlüsse zur Verfügung.
Die serielle Anbindung über einen Konverter (RS-422 zu RS-232) kann zur Konfiguration der Firmware vom PC aus in der Kamera verwendet werden, dient aber primär zum Datenaustausch mit industriellen Geräten (z.B. Roboter).
Die Ethernet – Verbindung dient beim Einrichten einer Inspektion zum Datenaustausch mit der FrameWork Software und ermöglicht gleichzeitig eine Visualisierung der Inspektion im Einrichtbetrieb. Der direkte Datenaustausch eines PC mit der Kamera läuft ebenfalls über das Ethernet Kabel.
Der Datenaustausch wird durch das TCP/IP – Protokoll gewährleistet.
2.2.5 Das TCP/IP – Protokoll
Die Kommunikation basiert auf dem Client - Server Prinzip. Dadurch kann der Datenaustausch zwischen Client und Server in beide Richtungen erfolgen. Der DVT Smart Image Sensor arbeitet als TCP-Server, die andere Anwendung als Client. Nach Verbindungsaufbau tauschen Client und Server Daten in beiden Richtungen aus. Die FrameWork Benutzerschnittstelle fungiert als Client. Der PC stellt eine Verbindung zum Smart Image Sensor her und eröffnet eine FrameWork-Sitzung.
Für den korrekten Verbindungsaufbau einer Client–Anwendung muss diese Anwendung sowohl die richtige IP-Adresse enthalten, als auch den richtigen TCP-Port ansprechen. Durch die Verbindung der IP-Adresse mit dem TCP-Port wird ein eindeutiger „Pfad“ festgelegt. Man bezeichnet diesen Vorgang als „ Socket-Erstellung “. Ein „Socket“ enthält alle Informationen, welche eine Client-Anwendung für den Bezug ihrer Informationen benötigt.
Die Adresskonfiguration des Rechners befindet sich bei Windows XP in der Systemsteuerung unter
à Arbeitsplatz à Systemsteuerung à Netzwerk à Rechtsklick auf das TCP- Protokoll (à siehe Abbildung 2.2.5).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2.5.a: Konfiguration der IP–Adresse für den mit der Kamera verwendeten PC
2.2.6 Beschaltung der I/O-Ports der Kamera
Das DVT Smart Image Sensorsystem der Serie 600 hat 12 Mehrzweck – Ein- und Ausgänge. Diese können entweder als Eingänge oder als Ausgänge konfiguriert werden. In der folgenden Tabelle (Abbildung 2.2.6.a Tabelle1) sind die verfügbaren Ausgabefunktionen zusammengefasst. Jede dieser dargestellten Funktionen kann jedem beliebigen Ausgang zugewiesen werden. Eine Ausnahme bildet der digitale Ausgang mit der Nummer 12. Dieser Ausgang wurde vom Hersteller für das Ausgangssignal „ Strobe (Blitzlicht)“ reserviert, welcher nur für die Blitzlichtsteuerung verwendet werden kann. Blitzleuchten können deshalb nur diesem Kontakt zugewiesen und an demselben angeschlossen werden. Bei anderweitiger Belegung dieses Anschlusses muss sichergestellt sein, dass die Beleuchtungsfunktion in dem verwendeten Produkt deaktiviert ist.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2.6.a: Tabelle 1: Vordefinierte Variablen für Ereignisse einer Inspektion
2.2.7 Der Inspektions-Modus
Der Inspektions-Modus kann sich in den Zuständen Running (läuft) oder Stopped (angehalten) befinden. Nur wenn der Smart Image Sensor eingeschaltet ist, sind alle digitalen Ein- und Ausgänge und alle Kommunikationsformen aktiviert. Im angehaltenen Zustand erfolgen keine digitalen Ausgaben und die Kommunikation steht still.
Als Symbol steht dieser Button in der „FrameWork 2.2 Beta“ zur Verfügung: Abbildung in dieser Leseprobe nicht enthalten. Ist die Schaltfläche aktiviert, so ist der Inspektions- Modus im Zustand Running.
Als Grundlage für eine Inspektion wurde in dieser Studienarbeit der „ObjectFind“ eingesetzt. ObjectFind ist ein Werkzeug zur Positionssuche. Mit Hilfe von ObjectFind können aus einem CCD-Kamerabild die Bildkoordinaten einer erlernten Form (Shape) bestimmt werden. Alle weitern SoftSensors, die sich auf ObjectFind beziehen, werden relativ zu den gefundenen Koordinaten positioniert.
2.2.8 Die Herstellerangaben zu Zyklus– und Prozesszeiten während einer Inspektion
In diesem Abschnitt werden die Zeitangaben, die der Hersteller des DVT Smart Image Sensors in seinem Handbuch zur Verfügung stellt, kurz vorgestellt. Für die gestellte Aufgabe ist es von enormer Wichtigkeit, die Zeitdauer und die zeitliche Abfolge der Inspektionsschritte genau zu kennen.
Die Gesamtbearbeitungszeit für eine Inspektion setzt sich aus drei Teilzeiten zusammen. Die Addition der Zeiten der einzelnen folgenden Abschnitte ergibt die Gesamtbearbeitungszeit für ein Bild.
Dem Herstellerhandbuch der Kamera sind folgende Angaben zu entnehmen:
Erster Abschnitt: Die Belichtungszeit
Die Belichtungszeit wird im Dialogfeld Image Parameters oder in der Framework – Werkzeugsliste in Millisekunden angegeben. Dieser Wert liegt normalerweise zwischen 1-10 ms.
Zweiter Abschnitt: Die Bildaufnahme
Nachdem die CCD-Kamera für eine bestimmte Belichtungszeit dem Licht ausgesetzt wurde, muss das Bild vom CCD-Chip in den Datenspeicher der Kamera übernommen werden. Die A/D-Umwandlung dauert bei der Serie 600 und einer Bildgröße von 640x480 Pixel ungefähr 40 ms.
Dritter Abschnitt: Die Inspektionszeit
Die gesamte Verarbeitungszeit einer einzelnen Inspektion stellt FrameWork einem so genannten „Inspection Times Graph“ in Form einer Kurve zur Verfügung. Diese gibt die Dauer der Inspektion in Millisekunden an.
3 Der Messaufbau
Im folgenden Kapitel wird der detaillierte Systemaufbau an Hand einer graphischen Übersicht (siehe Abbildung 3.1.a) vorgestellt. Diese gibt Auskunft über den Verlauf der digitalen Signale, welche einzeln gemessen wurden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.1.a: Detaillierter graphischer Systemaufbau
Das in Abbildung 3.1.a dargestellte und für diese Arbeit verwendete System besteht hauptsächlich aus den Hardwaremodulen Kamera und Roboter.
Bei der Kamera wurden vier I/O – Ports für die digitale Signalübertragung belegt.
IO1 wird als digitaler Eingang verwendet, IO9, IO11 und IO12 als digitale Ausgänge.
Bei der Robotersteuerung sind für die Signalverarbeitung vier IO – Ports in Gebrauch. Der digitale Ausgang X2 Out (Pin 7) der Robotersteuerung ist mit dem Eingang IO1 der Kamera verbunden. Über dieses Signal kann die Kamera durch den Roboter extern getriggert werden. Die Eingänge X4 IN (Pin 15), X4 IN (Pin 6) und X4 IN (Pin 8) des Roboters sind mit IO11, IO12 und IO9 der Kamera verbunden.
Über IO11 (Signal 13 der Robotersteuerung) wird von der Kamera ein High – Signal gesendet, wenn ein Objekt auf dem Förderband erkannt wurde. Die Kamera sendet über IO12 (Signal 14 der Robotersteuerung) ein High – Signal, wenn zu Beginn der Bildaufnahme der Blitz eingesetzt wird. Über IO9 (Signal 16 der Robotersteuerung) wird von der Kamera ein High – Signal gesendet, während sie „busy“ ist, d.h. die Bildverarbeitung begonnen hat. Das High – Signal bleibt bis zur Signalisierung des Inspektionsergebnisses Pass oder Fail bestehen.
Zusätzlich dargestellt sind noch die Anschlüsse für das Transportband, welche auf X2 Out (Pin 8) der Robotersteuerung angeschlossen sind. Befindet sich das Förderband in Betrieb, kann es durch Setzen und Rücksetzen dieses digitalen Signals an- und ausgeschalten werden.
Der Belegungsplan der aktuellen digitalen Anschlüsse der I/O – Unit der Robotersteuerung (Abbildung 3.2.a) vervollständigt das Kapitel Messaufbau..
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.2.a: Belegungsplan der digitalen Anschlüsse in der Robotersteuerung
4 Vorüberlegungen
4.1 Grundlegende Anforderungen
Für einen erfolgreichen Objektabgriff müssen folgende Voraussetzungen erfüllt sein:
- Das Objekt befindet sich im Blickfeld der Kamera (Suchbereich des Sensors).
- Das Objekt befindet sich im operativen Radius des Roboters.
- Das passende Greifwerkzeug (z.B. Zwei-Backengreifer) des Roboters ist montiert.
- Der geringe Hub der Greiferbacken des Zwei-Backengreifers begrenzt die Objekthöhe auf ca. 20 mm.
- Die Objektgröße beeinflusst den Schattenwurf und somit den Fehler für den daraus angegebenen Lagewinkel. Eine geringe Objektgröße liefert durch den schmalen Schattenwurf einen großen Fehler für den Lagewinkel.
4.2 Der Zweck der Messungen
Ziel der Messungen ist es herauszufinden, wie lange die Verarbeitungszeit in der Kamera dauert, und wie schnell die Robotersteuerung die erhaltenen Signale in einen Greifbefehl umsetzen kann. Diese Thematik ist ausführlich in Kapitel 5 abgehandelt.
4.3 Das Signalkonzept
Das Signalkonzept definiert eine genaue Abfolge der digitalen Signale.
Das nachfolgend dargestellt Signaldiagramm (Abbildung 4.3.1.a) veranschaulicht den genauen Ablauf eines Greifprozesses, dessen Anfang durch die Arbeitweise der Kamera durch die Bildverarbeitungssoftware vorgegeben ist, dann jedoch nur noch über die Funktionsweise der Robotersteuerung definiert ist. Dem Signalkonzept wird die interne Triggerung der Kamera mit 1000 ms zu Grunde gelegt.
Das Signaldiagramm in Abb. 4.3.1.a enthält die genaue Abfolge der Signale in der Kamera und die Funktionsweise der Robotersteuerung. Der Ablauf wird durch die Kamera gesteuert. Die Kamera ist als Master, und der Roboter als Slave definiert. Die Bildaufnahme wird durch einen internen Trigger von 1000 ms der Kamera gesteuert.
[...]
- Arbeit zitieren
- Martin Pfrommer (Autor:in), 2005, Kamerageführte Greifvorgänge am laufenden Transportband, realisiert mit einem DVT Smart Vision Sensor und einem Industrieroboter ABB IRB 2400, München, GRIN Verlag, https://www.grin.com/document/47918
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.