Deep-Learning-Inferenz an der Edge

Reutlingen, 12.03.2019 (PresseBox) – Für die Realisierung von Deep-Learning-Inferenz (DL) an der Edge ist eine flexibel skalierbare Lösung von Nöten, die stromsparend ist und eine geringe Latenzzeit aufweist. Denn an der Edge werden vorwiegend kompakte und passive gekühlte Systeme eingesetzt, die schnelle Entscheidungen ohne Upload in die Cloud treffen. Die neue KI-Beschleunigerkarte Mustang-V100 von ICP Deutschland unterstützt Entwickler bei der erfolgreichen Integration von KI-Trainingsmodellen an der Edge. Auf der PCIe basierten Erweiterungskarte sind acht Intel® Movidius™ Myriad™ X MA2485 Vision Processing Units (VPUs) integriert. Aufgrund ihres geringen Stromverbrauchs von 2.5W pro VPU eignet sie sich für besonders anspruchsvolle Low-Power KI-Anwendungen an der Edge. Dabei lässt sich jeder einzelnen VPU eine andere DL-Topologie zuweisen. Grund hierfür ist die Multi-Channel Fähigkeit der VPUs, die die simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Die Kompatibilität mit dem OpenVINO™ Toolkit von Intel® sorgt für eine Performance Optimierung des eingespielten Trainingsmodels und nimmt eine passende Skalierung auf das Zielsystem an der Edge vor. Softwareentwickler profitieren so in zweifacher Hinsicht – durch eine schnelle sowie optimierte Integration ohne langwieriges Trail und Error. Die Mustang-V100 ist mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke.
ICP. Industrial Computer Products …by people who care!
Mustang-V100 – Intel® Movidius™ Myriad™ X VPU Beschleuniger
Spezifikationen
– KI-Beschleunigerkarte mit Intel® Movidius™
  Myriad™ X MA2485 VPU
– Single Slot PCIe x4 Interface
– Betriebstemperatur: 5°C~55°C
– Geringer Stromverbrauch: <30W TDP
– Aktiv gekühlt
– Unterstützung von ANN-Topologien
Anwendungsbereiche/Applikationen
– Multi-Channel Ausführung
– Beschleunigung von Deep-Learning-Inference
– Low-Power Anwendungen
Produktlink: https://www.icp-deutschland.de/industrie-pc/cpu-boards-cpu-karten/computing-accelerator/mustang-ca-cards/mustang-v100-mx8-r10.html

Ersten Kommentar schreiben

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*