Wie können Softwaresysteme lernen, ihre Umgebung wahrzunehmen? Diese Frage steht im Mittelpunkt der Entwicklung von Perception-Systemen. Um leistungsstarke Perception-Lösungen zu realisieren, ist umfassendes und aktuelles Methodenwissen von entscheidender Bedeutung. Wir unterstützen Sie bei der Entwicklung Ihres Perception-Systems – sei es für hohe Taktzeiten in der industriellen Fertigung oder für die Interpretation komplexer Szenarien in autonomen Robotern und Fahrzeugen.
Es ist Kern unserer Arbeit die individuellen Anforderungen unserer Kunden zu verstehen und passgenaue Lösungen zu finden. Schwerpunkte unseres Portfolios bilden dabei Engineering-Lösungen aus den Bereichen Environment Perception, Machine Vision, Sensor Fusion und Sensor Services.
Environment Perception
Die Environment Perception ermöglicht die präzise Wahrnehmung und Interpretation der Umgebung durch Sensoren und Algorithmen. Dazu setzen wir 3D-Kartierungs- und Lokalisierungsverfahren sowie Objekterkennungs- und Tracking-Methoden ein, um eine ideale Planung und Navigation für autonome Systeme zu ermöglichen. Zudem bieten wir mit 3DTM ein Framework zur automatisierten Reaktion auf Hindernisse oder Untergründe an, das ebenfalls die Analyse und Klassifizierung von Objekten zulässt. So wird die Sicherheit autonomer Systeme erhöht und innovative Produktfeatures ermöglicht.
Durch fortschrittliche Machine-Vision-Systeme kann die Effizienz in der Produktion häufig deutlich gesteigert werden. Wir liefern maßgeschneiderte Lösungen, basierend auf spezifischen Kundenanforderungen, sei es für die Virtualisierung der Fabrik, Objekterkennung, Objektlokalisation, Roboterführung für Pick-and-Place, 3D-Rekonstruktion oder vollautomatisierte Sichtprüfung in 2D und 3D. Angefangen bei der effizienten Umsetzung von Standardaufgaben bis hin zur Konzeption, Umsetzung und Erprobung innovativer Lösungsansätze für hochkomplexe Herausforderungen: Gemeinsam analysieren wir die Produktionsprozesse im Detail, um diese gezielt zu automatisieren und dadurch zuverlässiger, schneller und wirtschaftlicher zu gestalten.
Bei der Sensor Fusion werden Daten aus unterschiedlichen Sensoren zusammengeführt, um eine präzise, umfassende und zuverlässige Repräsentation der Umgebung oder des überwachten Systems zu erzeugen. Dabei kommen Sensoren wie Kameras, Radar, Lidar, Ultraschall, GPS/IMU sowie weitere Messinstrumente zum Einsatz. Durch die Kombination der Daten aus verschiedenen Sensoren können die Stärken und Schwächen jedes einzelnen Sensors ausgeglichen werden, was zu einer verbesserten Genauigkeit, Zuverlässigkeit und Abdeckung führt. Es können sowohl Rohdaten als auch bereits prozessierte Informationen, wie beispielsweise detektierte Objekte, fusioniert werden. Techniken der Sensor-Fusion finden in den verschiedensten Bereichen Anwendung, dazu zählen das autonome Fahren, die Robotik, Überwachungssysteme und Medizingeräte.
Sensor Services
Unsere Sensor Services reichen von der Auswahl und Beschaffung der passenden Sensoren über die Integration in bestehende Systeme bis hin zur Kalibrierung, Datenerfassung und -analyse. Außerdem implementieren wir Algorithmen zur Verarbeitung von Daten, für die verschiedensten Sensorarten wie Kamera-, Radar-, Ultraschall-, Infrarot- oder Lidar-Sensoren. Die Designphase begleiten wir mit individuell auf den Anwendungsfall zugeschnittenen Sensor- und Umgebungssimulationen (iVESS).
ITK Engineering – Ihr Entwicklungspartner für Perception-Systeme
Umsetzungskompetenz
Egal ob bewährte Computer-Vision oder modernste Deep-Learning-Methoden – wir kombinieren umfassendes Methodenwissen mit Umsetzungskompetenz. Wir unterstützen in der Umsetzung oder der Optimierung Ihres Perception-Systems. Dabei greifen wir auf unser bewährtes, datengetriebenes Entwicklungsvorgehen, moderne Software-Entwicklungsmethoden und unsere langjährige Erfahrung mit Embedded-, Edge- oder Cloud–Technologien zurück.
Simulationsexpertise
Wir setzen auf modernste Simulationsmethoden zum Entwurf, zur Entwicklung und zum Testen unserer Systeme. Neben der Erfahrung mit etablierten Simulationstools können wir auf unser Simulations-Framework iVESS zur Sensor- und Umgebungssimulation zurückgreifen. So lassen sich Problemstellungen im Kontext der Sensor-Auswahl und ‑Konfiguration, der Bereitstellung von gelabelten, synthetischen Trainingsdaten sowie der Absicherung kritischer Szenarien flexibel begegnen.
Maßgeschneiderte Lösungen
Unser Entwicklerteam kennt die Herausforderungen, Technologien und Standards der verschiedenen Branchen unserer Kunden. Dies ermöglicht es uns, Wissen gewinnbringend über Branchengrenzen hinweg anzuwenden. Mit unseren flexiblen Zusammenarbeitsmodellen begleiten wir Sie von der Konzeptfindung, über die Entwicklung bis zum Deployment Ihres Perception-Systems.
Ein Blick in unsere Referenzprojekte:
Effizienzsteigerung der industriellen End-of-Line-Qualitätsprüfung durch automatisierte, visuelle Sichtprüfung
Herausforderung: Bei der Einführung des visuellen Sichtprüfungssystems für die End-of-Line-Prüfung stellten die hohe Taktrate, die hohen Genauigkeitsanforderungen sowie die Variantenvielfalt der Bauteile die größten Herausforderungen dar. Weiterhin musste das Sichtprüfungssystem in einen bestehenden Fertigungsprozess integriert werden. Außerdem brachte das industrielle Einsatzumfeld des Systems zahlreiche Störeinflüsse mit sich, die eine robuste Prüfung der Bauteile erschwerten.
Unser Lösungsweg: Unser Lösungsweg begann mit einer Klärung der genauen Zielsetzung und der vorliegenden Anforderungen in Zusammenarbeit mit unserem Kunden. Dies umfasste etwa eine genaue Beschreibung der Prüfmerkmale, der verschiedenen Bauteilvarianten sowie der Anforderungen zur Integration in die bestehende Anlage. Darauf folgte die Umsetzung des nachrüstbaren Machine-Vision-Systems auf Basis einer datengetriebenen, iterativen Entwicklung der Auswertealgorithmik für die verschiedenen Bauteilvarianten. So konnte flexibel und gemeinschaftlich auf sich ändernde Rahmenbedingungen und aufgekommene Unwägbarkeiten reagiert werden. Um den Fertigungsablauf zu unterstützen, wurde eine Visualisierung abweichender Merkmale über ein von uns entwickeltes User-Interface bereitgestellt sowie eine Datenhaltung für die Prüfhistorie umgesetzt und in das bestehende IT-Umfeld integriert. Die Laufzeitanforderungen konnten eingehalten werden, in dem das Bauteil lasergestützt unter Rotation erfasst und noch während der Erfassung mit Streaming-Algorithmen verarbeitet wurde. Zur Erfüllung der hohen Genauigkeitsanforderungen wurden für jedes Merkmal individuelle algorithmische Ansätze evaluiert und implementiert. Die Grundlage hierfür lieferte unsere leistungsfähige Datenvorverarbeitung, welche einen gegenüber Störeinflüssen (Vibrationen, Lichtverhältnisse, etc.) robusten Betrieb des Systems ermöglicht.
Kundenmehrwert: Durch das gelieferte visuelle Sichtprüfungssystem konnte der Kunde die End-of-Line-Qualitätsprüfung automatisieren. Gleichzeitig wurde die Effizienz und die Genauigkeit der Qualitätsprüfung verbessert, was zu einem unmittelbaren Wettbewerbsvorteil führte. Das flexible, wiederverwendbare System wurde bei 25 Bestandsmaschinen in verschiedenen Arbeitsumgebungen und Ländern nachgerüstet.
Entwicklungsunterstützung für ADAS Perception
Herausforderung: Die Entwicklung eines Echtzeit-Sensorsystems birgt gleich mehrere Herausforderungen, darunter die Anforderungen an Echtzeitverarbeitung, begrenzte Speicherressourcen, die Anpassung an die Zielarchitektur und die Notwendigkeit einer ASIL-konformen Softwareentwicklung. In einem solch komplexen Gesamtsystem müssen Inputs von Sensoren und Komponenten in unterschiedlicher Güte verarbeitet und verschiedenste Anforderungen miteinander vereint werden.
Unser Lösungsweg: Unser Lösungsweg umfasste die Entwicklung eines Perception-Systems zur Wahrnehmung statischer Objekte wie beispielsweise Fahrspurmarkierungen, einschließlich der Reprojektion von 2D-Informationen in ein 3D-Modell für die Spurerfassung. Darüber hinaus wurden Algorithmen implementiert, die es dem Fahrzeug ermöglichen, dynamische Objekte in seiner Umgebung zu erkennen, zu klassifizieren und zu verfolgen. Hierbei wurden ein Tracking Algorithmus zur präzisen Bewegungsverfolgung und Vorhersage der zukünftigen Position der Objekte implementiert. Außerdem haben wir die Optimierung der Deep-Learning-Modelle für die Zielplattform durchgeführt, die Modellversionen auf der Zielhardware getestet und optimiert sowie Multi-Task-Modelle integriert.
Kundenmehrwert: Durch den punktgenauen Einsatz von bewährten Computer-Vision-Algorithmen und modernsten KI-Methoden, konnten wir eine hardwarenahe Implementierung bereitstellen, die die komplexen Anforderungen des Projekts erfüllten. Dabei profitierte unser Kunde von unserer umfangreichen Erfahrung bei der Entwicklung von serienreifen Echtzeit-Perception-Systemen. Zudem sind die Fusions-Algorithmen für eine Vielzahl an Sensortechnologien verwendbar: eine flexible und zukunftssichere Lösung.
Beratung für Perception-System
Herausforderung: Die Interaktion von Mensch und Maschine kann, neben all den Vorteilen, in manchen Situationen auch gewisse Risiken mit sich bringen. In Zusammenarbeit mit einer Berufsgenossenschaft sollte deswegen ein sensorbasiertes Sicherheitskonzept zur Vorbeugung von Unfällen im Kontext einer sogenannten Sternanlage entworfen und umgesetzt werden. Zentrale Aspekte waren neben der Identifikation und Definition kritischer Situationen auch der Einbezug von Normen sowie die Erstellung eines individuellen Sensor- und Warnkonzepts.
Unser Lösungsweg: Unser Lösungsweg begann mit der Definition kritischer Situationen und der Identifikation verschiedener Sicherheitsbereiche. Darauf aufbauend wurden im Anschluss ein individuelles kamerabasiertes Sensorkonzept entworfen und die passenden Komponenten ausgewählt. Zur Unterstützung dieser ersten Schritte wurde parallel eine Simulation entwickelt, die das Testen verschiedener Szenarien, verschiedener Sensorpositionen und verschiedener Sensorcharakteristiken effizient ermöglichte. Für die Detektion von Personen und Objekten wurde ein Deep-Learning-System entwickelt, wofür zunächst entsprechende Daten aufgezeichnet werden mussten. Um die Reproduzierbarkeit und Nachverfolgbarkeit bis hin zu den eingesetzten Daten sicherstellen zu können, wurde eine MLOps-Pipeline, bestehend aus verschiedenen Tools und automatisierten Abläufen, geschaffen. Die Detektionen wurden über ein von uns entwickeltes Tracking-Verfahren nachverfolgt, um zu prüfen, ob sie sich innerhalb des definierten Sicherheitsbereichs befinden. In Abhängigkeit von der Position innerhalb des Detektionsbereichs erfolgte automatisch eine optische und akustische Warnung.
Kundenmehrwert: Das entwickelte und umgesetzte Sicherheitskonzept führt eine Funktion ein, die Personen und Objekte im Gefahrenbereich automatisch detektiert. Durch das Ausgeben eines optischen und akustischen Signals wird aktiv vor einer gefährlichen Situation gewarnt. So wird das Unfallrisiko im Sicherheitsbereich gemindert und damit das Risiko von Personen- sowie Sachschäden minimiert. Mit dem eingeführten Entwicklungsvorgehen wurden Aufgaben und Prozesse zu einem großen Teil automatisiert. Dies ermöglicht eine kontinuierliche Verbesserung der Detektionsmodelle bei gleichzeitig guter Skalierbarkeit und Wiederverwendbarkeit von Komponenten.
Key Takeaways
Datengetriebene Entwicklung und IP-Übertragung
Innovative KI-Lösungen & -Algorithmen
Branchenspezifische Normen & Standards
Ungelöste Herausforderungen? Wir freuen uns auf Ihre Anfrage.