back button black v05

Server Engine für steigende Machine-Learning-Anforderungen

Server Engine für steigende Machine-Learning-Anforderungen

20 Dezember 2021
TwinCAT Machine Learning mit weiterer Inference Engine

Mit TwinCAT Machine Learning Server als weiterer Inference Engine wird TwinCAT Machine Learning auch den zunehmend steigenden Anforderungen des maschinellen Lernens (ML) bzw. Deep Learning für industrielle Anwendungen gerecht. Denn die ML-Modelle werden immer komplexer, die Ausführungsgeschwindigkeit soll dabei steigen und hinsichtlich der ML-Modelle wird eine größere Flexibilität der Inference Engines erwartet.

Bei TwinCAT Machine Learning Server handelt es sich um eine Standard-TwinCAT-SPS-Bibliothek und eine sogenannte Near-Realtime Inference Engine, d. h. im Gegensatz zu den beiden bisherigen Engines wird diese nicht in harter Echtzeit, sondern in einem separaten Prozess auf dem IPC ausgeführt. Im Gegenzug sind in der Server Engine dafür grundsätzlich alle KI-Modelle ausführbar und das bei voller Unterstützung des standardisierten Austauschformats Open Neural Network Exchange (ONNX). Weiterhin gibt es für dieses TwinCAT-Produkt KI-optimierte Hardwareoptionen für eine skalierbare Leistungsfähigkeit.

Der TwinCAT Machine Learning Server kann klassisch parallelisiert auf CPU-Kernen arbeiten, nutzt die integrierte GPU der Beckhoff Industrie-PCs oder kann auf dedizierte GPUs z. B. von NVIDIA zugreifen. Damit steht eine hinsichtlich der Modelle maximal flexible und hinsichtlich der Hardware hochperformante Inferenzmaschine zur Verfügung. Anwendungen finden sich in prädiktiven und präskriptiven Modellen sowie in den Bereichen Machine Vision und Robotik. Beispiele sind bildbasierte Verfahren zur Sortierung oder Bewertung von Produkten, zur Fehlerklassifikation bzw. Fehleroder Produktortung sowie zur Berechnung von Greifpositionen.

back button black v05