(Virtual) Embedded

Embedded Vision Highlights der Embedded World 2021
Die Embedded World 2021 fand dieses Mal nur virtuell statt. Was die Messe-Highlights der Aussteller zum Thema Embedded Vision & AI waren, stellt der folgende Beitrag kurz vor.
Bild 2 | Die Podiumsdiskussion ´Embedded Vision: Success factors for generating customer value´ fand mit Experten von Amazon Web Services, Basler, MVTec und Sick statt.
Die Podiumsdiskussion ´Embedded Vision: Success factors for generating customer value´ fand mit Experten von Amazon Web Services, Basler, MVTec und Sick statt. – Bild: NürnbergMesse GmbH

Deep Learning

Amazon Web Services (www.aws.amazon.com) stellt mit Lookout for Vision einen Service für maschinelles Lernen vor, der mithilfe von Computer Vision Defekte und Anomalien in Bildern erkennt. Durch den Einsatz der Few-Shot Learning-Technologie, ist der Service in der Lage, Modelle für Kunden mit knapp 30 Basisbildern zu trainieren. Anwender zahlen dabei stundenweise für die Nutzung, um ihr Modell zu trainieren. Zu den ersten Partnern gehört Basler. ++ Die neue Version Halcon 20.11 von MVTec (www.mvtec.com) enthält unter anderem das neue Deep-Learning-Feature ‚Kantenextraktion‘. Damit können Kanten, die mit herkömmlichen Kantenerkennungsfiltern bisher nicht identifiziert werden konnten, robust extrahiert werden. ++ Durch Kombination der auf Nvidia GPUs basierenden Hardware von Adlink (www.adlinktech.com) und der Vision AI Software von Data Spree (www.data-spree.com) lassen sich mit nur wenigen Klicks zukünftig mit dem AI Framework Deep Learning DS Bildverarbeitungsanwendungen realisieren.

Boards & IPCs

Bild: Congatec GmbH

Allied Vision (www.alliedvision.com) und MVTec (www.mvtec.com) bieten ein gemeinsames Embedded Vision Starterkit für 199Euro an, mit dem Anwendungen auf dem Nvidia Jetson Nano Developer Kit getestet werden können. Hauptkomponenten sind die 1,2MP CSI-2 Kamera Alvium 1500 C-120, die Halcon Software (in Form einer browserbasierten Demo-Applikation, die ohne zusätzliche Lizenz lauffähig ist) sowie MIPI CSI-2 Treiber für die Kameras. Herzstück ist ein Geodreieck aus einer Platine, mit dem verschiedene Anwendungsbeispiele ausgeführt werden können. Ergänzt wird das Setup durch ein Adapter Board für das Nvidia Jetson Nano Developer Kit, ein CSI-2 Flex-Kabel, ein S-Mount-Objektiv sowie eine Stativ-Montageplatte für die Alvium-Kameras. ++ Das Embedded Vision Processing Kit von Basler (www.baslerweb.com) beinhaltet verschiedene Vision-Interfaces und ermöglicht den Anschluss unterschiedlicher Kameras. Das Board hat einen SoM- und Carrierboard-Ansatz, basierend auf dem i.MX 8M Plus SoC von NXP und beinhaltet die Pylon Camera Software Suite, Treiber für verschiedene Kameraschnittstellen, Programmierschnittstellen und Tools zur Kameraeinrichtung. ++ Das Low-Power-SMARC 2.1 Computer-on-Module von Congatec (www.congatec.com) mit dem NXP i.MX 8M Plus-Prozessor ist für Embedded Vision und KI Applikationen ausgelegt. Die NPU ergänzt die vier Arm-Cortex-A53-Prozessorkerne um 2,3 TOPS dedizierte KI-Rechenleistung. Der integrierte ISP verarbeitet Full-HD-Videostreams mit bis zu 3x60fps und ermöglicht parallele Echtzeitverarbeitung von Bildern und Videostreams der beiden integrierten MIPI-CSI-Kamerainterfaces. Applikationsfertige 3,5-Carrierboards sowie Basler Kamera- und KI-Software-Stack-Support für das Modul stehen bereits zur Verfügung. ++ Die neue AI-Plattform von Kontron (www.kontron.com) hat Google TensorFlow-Lite integeriert und ermöglicht die schnelle Entwicklung eigener AI-Anwendungen. Für eine höhere Geschwindigkeit bei der Bild- und Videodatenverarbeitung sorgt die Google Coral Edge TPU (Tensor Processing Acceleration Unit) mit bis zu 4TOPS. Gegenüber einer Anwendung mit einfachen USB-Kameras ohne TPU mit ca.6fps ergibt sich mit TPU eine fünffache Geschwindigkeit auf 30fps. Die AI-Plattform besteht aus einem M.2 Modul mit dem Google Coral-Beschleuniger Chip für TensorFlow Lite auf einem 2,5″ pITX Single Board Computer von Kontron mit einem NXP i.MX8M Prozessor. Die TPU benötigt nur 2W bei 4 TOPS. ++ Mit dem Trizeps VIII Plus hat Keith&Koep (www.keith-koep.com) seine SOM-Produktlinie erweitert. Es verwendet den i.MX 8M Plus SoC und eignet sich auch für KI-Anwendungen. Zudem verfügt es über den SODIMM 200 Standard, womit die Lösung auch auf älteren Keith & Koep Plattformen eingesetzt werden kann. Als Schnittstellen stehen USB3.0 und PCIe zur Verfügung. ++ Der Bildverarbeitungscomputer GP-3000 von Cincoze (www.cincoze.com) wird von einem Intel Xeon/Core-Prozessor der 9. Generation angetrieben. Der IPC unterstützt zwei ECC oder non-ECC DDR4-2666 (bis zu 64GB) und bietet eine GPU Expansion Box (GEB). Diese ermöglicht die Erweiterung um bis zu zwei 250W 328mm-Grafikkarten.

Kamera Module

In Verbindung mit dem Open-Source-Treiber für die Embedded-Boards der Nvidia Jetson-Familie unterstützen ab sofort alle Alvium CSI-2-Kameras von Allied Vision (www.alliedvision.com) einen Hardware-Trigger über einen der beiden GPIOs bzw. einen Software-Trigger über einen Software-Befehl. D.h. die Kameras liefern nur dann ein Bild, wenn es benötigt wird. Darüber hinaus unterstützen die Kameras nun eine flexible Bildratensteuerung. Der Anwender kann je nach Bedarf eine feste Bildrate für die Kameras einstellen. Beide Funktionalitäten sind als benutzerdefinierte Steuerelemente im Video4Linux2 (V4L2)-Framework oder direkt in der Kamera über Direct Register Access (DRA) verfügbar. ++ Der Footprint des Phycam Mini Moduls VM-117-M von Phytec (www.phytec.de) ist kaum größer als der S-Mount Objektivhalter und trotz einer Größe von nur 18x26mm praktisch funktionsgleich zum VM-017 Modul, das 34x34mm misst. Beide Kameras haben den 5MP-Sensor AR521 integriert. Eine optimale Wärmeableitung erfolgt durch Auflageflächen auf der Vorderseite, die auch den metallischen S-Mount Halter einbinden. ++ Auf der kompakten (22×23,5mm) Platinenkamera VC picoSmart von Vision Components (www.vision-components.com) sind Bildsensor, Prozessor, Speicher und Betriebssystem integriert. Die Platinenkamera verfügt über einen monochromen 1MP Global Shutter CMOS-Bildsensor. Zur Verarbeitung der Daten kommt ein FPGA zum Einsatz, welches in Echtzeit den Großteil der Bildverarbeitung ausführt. Als weitere Prozessoreinheit verfügt das Modul über einen FPU-Prozessor, auf dem das RealTime OS VCRT läuft. ++ Mit der Kameraschnittstelle Phycam-L ermöglicht Phytec (www.phytec.de) für MIPI CSI-2 Datenübertragungen über das FPD-Link III-Protokoll mit Kabellängen von bis zu 15m. Durch Verwendung von Subminiatursteckern und einer Einplatinenlösung ist es sehr kompakt und kostengünstig. Das 5MP-Kameramodul bietet zudem eine Steckverbindung für Erweiterungen.

NürnbergMesse GmbH

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige