COM Express Modul für anspruchsvolle Bildverarbeitung und KI

Um bei anspruchsvollen (Embedded) Vision-Anwendungen ein optimales Ergebnis zu erzielen und um für zukünftige Anforderungen gerüstet zu sein, spielen ein Systemaufbau mit hoher Bandbreite sowie die Unterstützung leistungsfähiger KI-Anwendungen eine wichtige Rolle. Das Embedded Modul TQMx110EB von TQ deckt diese Faktoren vorbildlich ab.
Bild 1| Das COM Express Modul TQMx110EB bietet für anspruchsvolle Bildverarbeitungslösungen durchgängig hohe CPU-, Grafik- und Systemperformance und ist auch für harte Einsatzbedingungen ausgelegt.
Bild 1| Das COM Express Modul TQMx110EB bietet für anspruchsvolle Bildverarbeitungslösungen durchgängig hohe CPU-, Grafik- und Systemperformance und ist auch für harte Einsatzbedingungen ausgelegt.Bild: TQ-Systems GmbH

Für Entwickler von leistungsfähigen Visionsystemen ist neben den passenden Schnittstellen ein genauso wichtiger Punkt die interne Systemarchitektur, die durchgängig ausreichend Bandbreite und Performance für die Datenverarbeitung sicherstellen muss. Besonders bei Multi-Kamera-Anwendungen, bei denen viele verschiedene Schnittstellen gleichzeitig genutzt werden, spielt dies eine wichtige Rolle. Aber auch der zunehmende Einsatz von KI-basierter Auswertung darf nicht außer Acht gelassen werden. Neueste Prozessorgenerationen wie die 11.Generation der Intel Core und Xeon Prozessoren (Tiger Lake H) stehen seit kurzem auch für Embedded-Anwendungen zur Verfügung und bieten eine Vielzahl an High-Speed-Schnittstellen sowie hohe CPU- und Grafik-Leistung inklusive effizienter KI-Unterstützung. Ebenso ist die notwendige Bandbreite für schnellen DDR4-3200-Speicher gegeben. Gerade im High-End-Vision Bereich sollte das Augenmerk auf der sogenannten H-Serie liegen, wie sie auf dem Embedded Modul TQMx110EB von TQ-Systems zum Einsatz kommt. Diese bietet gegenüber der kleineren U-Serie deutlich mehr Systemperformance und den vollen Schnittstellenumfang.

Modulares Lösungskonzept

Das COM-Express-Basic-Modul unterstützt alle Embedded-H-Serie-Prozessorvarianten (Core i3, Core i5, Core i7 und Xeon) der neuen CPU-Generation. Somit stehen bis zu acht CPU-Cores, ein hoch performanter Grafik-Controller, bis zu 24MB Cache und 64GB DDR4-3200 zur Verfügung. Über die COM-Express Steckverbinder werden 2.5GigE, vier USB 3.2 Gen2 Schnittstellen (mit je 10Gbit/s), acht USB 2.0 Interfaces sowie vier SATA III Ports bereitgestellt. Das Modul bietet zusätzlich 24 PCIe Lanes, wobei diese in zwei Gruppen aufgeteilt sind: Acht PCIe Gen3 Lanes mit je 8Gb/s werden über den PCH (Peripheral Controller Hub/Chipsatz) bereitgestellt und teilen sich die Bandbreite zur CPU mit den anderen IO-Schnittstellen. Die weiteren 16 PCIe Lanes werden mit PCIe Gen4-Geschwindigkeit (bis zu 256Gb/s Bandbreite) direkt an die CPU angebunden, so dass ein ungebremster Datentransfer zwischen Peripherie und Prozessor möglich ist. Hierbei unterstützt das Modul auch PCIe Bifurcation, was eine Aufsplittung der Schnittstelle für bis zu drei PCIe Root Ports (Modi: x16, x8/x8 oder x8/x4/x4) ohne zusätzliche Elektronik ermöglicht. Besonders für anspruchsvolle Visionanwendungen bietet dies eine hohe Flexibilität. So ist die Anbindung von mehreren PCIe-basierten Kamera-Modulen möglich. Bei Bedarf lassen sich aber auch mehrere Framegrabber oder 10GigE-Controller für hochauflösende High-Speed-Multi-Kamera-Systeme direkt an die CPU anbinden. Alternativ dazu sind weitere Optionen wie Zusatzsteckplätze für mehrere Accelerator-Karten (z.B. für Tensor Processing Units) realisierbar, was ideal für anspruchsvolle KI-Anwendungen ist. Der modulare Ansatz mit dem TQMx110EB, das zusammen mit einem Carrierboard ein vollständiges Bildverarbeitungssystem bildet, bietet somit die Möglichkeit, unterschiedliche Systemarchitekturen zu realisieren, die sich individuell auf die jeweiligen Anforderungen abstimmen lassen und dennoch stets durchgängig höchste Systemperformance bieten.

Embedded-Vision-Lösungen

Die geringe Baugröße des TQMx110EB mit 95x125mm ermöglicht die Integration neuester Intel Core und Intel Xeon Prozessoren in besonders kompakte, aber dennoch extrem leistungsfähige Embedded-Vision-Anwendungen. Da das Modul bereits die volle PC-Funktionalität umfasst, müssen auf dem Carrierboard, welches die Schnittstellen nach außen führt, lediglich noch die individuellen Anforderungen umgesetzt werden. Dabei ist auch eine Optimierung für die spezifischen Einbaubedingungen bezüglich Mechanik und Entwärmung einfach durchführbar. Kompromisse wie beim Einsatz vorgefertigter Gesamtsysteme sind somit nicht notwendig.

Bild 2 |Beispielhafte Systemarchitektur für Multi-Kamera-Embedded-Vision-Anwendungen
Bild 2 |Beispielhafte Systemarchitektur für Multi-Kamera-Embedded-Vision-AnwendungenBild: TQ-Systems GmbH

Bild 2 zeigt beispielhaft eine Embedded Vision Lösung mit zwei ultra-hochauflösenden Highspeed-Kameras, die mit hoher Bandbreite über PCIe x4 direkt an die CPU angebunden sind, die zusätzlich auch mit weiteren Kameras erweiterbar ist. Dabei kann es sich auch um eine Mischung aus verschiedenen Interfaces wie USB3 Vision, GigE Vision oder 10GigE Vision handeln. Die ohnehin schon hohe KI-Leistung, die durch die CPU und integrierte Grafik bereitgestellt wird, lässt sich bei Bedarf über einen zusätzlichen AI-Accelerator weiter erhöhen. PCIe x8 Gen4 mit einer Geschwindigkeit von bis zu 128Gb/s stellt dabei ausreichend Bandbreite zur Verfügung, so dass auch besonders leistungsfähige VPUs (Vision Processing Units) oder TPUs (Tensor Processing Units) einsetzbar sind. Durch die Verwendung der auf dem Embedded Modul bereits als Option verfügbaren NVMe x4 SSD steht ein besonders schnelles Speichermedium für das Betriebssystem und die Daten zur Verfügung. Alternativ können auch M.2 Speichermodule (NVMe oder SATA) vorgesehen werden, die zudem auch unterschiedliche RAID-Konfigurationen unterstützen.

Das könnte Sie auch Interessieren

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.