NXP Semiconductors eIQ™ Auto-Deep-Learning-Toolkit (DL)
Das eIQ™ Auto-Deep-Learning-Toolkit (DL) von NXP Semiconductors ist eine Inferenzengine für die S32 Embedded-Prozessoren nach Automobilstandard. Das eIQ™ Auto-Toolkit wurde entwickelt, um Designern einen schnellen Übergang von einer Entwicklungsumgebung zu KI-Applikationsimplementierungen zu ermöglichen, die die strengen Automotive-Standards erfüllen. Der eIQ Auto ermöglicht die Anwendung von deep-learning-basierten Algorithmen für Vision, Treiberaustausch, Sensorfusion, Treiberüberwachung und andere sich entwickelnde Fahrzeuganwendungen.Entwicklungs- und Bereitstellungsflexibilität
Mit dem eIQ-Auto-Toolkit von NXP können Designer nahtlos von einer Entwicklungsumgebung zu einer vollständigen Bereitstellung übergehen, ihre KI-Modelle konvertieren und fein abstimmen, während sie vertraute Plattformen und Bibliotheken wie TensorFlow, Caffe und/oder PyTorch nutzen, um ihre Deep-Learning-Training-Frameworks auf eine leistungsstarke Automobilstandard-Verarbeitungsplattform von NXP zu portieren. Neuronale Netzwerke können für einen maximalen Wirkungsgrad mit Pruning- und Kompressionstechniken optimiert werden.
API-Vorteile
NXP bietet eine einheitliche API, die den Einsatz des gleichen Applikationscodes und der gleichen neuronalen Netzwerkmodelle über mehrere Entwicklungsstufen ermöglicht. Sobald das Modell quantifiziert wurde, kann es auf dem Geräteziel oder auf dem Bit-exakten Simulator ausgeführt werden, was die Entwicklungsprozesse erheblich beschleunigt.
Qualität und Zuverlässigkeit
Die Erfüllung der Automotive-SPICE-Konformität des NXP stellt sicher, dass das eIQ Auto Toolkit die strengen, internationalen Automotive-Entwicklungsstandards erfüllt, die von führenden Fahrzeugherstellern festgelegt wurden. Im Gegensatz zu konkurrierenden Inferenzmotoren, die mit Open-Source-Tools entwickelt wurden, ermöglicht der eIQ Auto Toolkit NXP eine nahtlose Standard-Konformität für sicherheitskritische Fahrzeuganwendungen.
Merkmale
- Training-Frameworks - Schnittstelle zu Standard-Frameworks wie TensorFlow, Pytorch, Caffe und ONNX
- Optimierung - trennt, quantifiziert und komprimiert das neuronale Netzwerk
- Eingebettete Bereitstellung - automatisierte Bereitstellung neuronaler Netzschichten zur optimalen verfügbaren Rechenressourcen
- Inferenzengine mit automatischer Qualität - A-SPICE-qualifizierte Inferenzengine
- Unterstützte Netzwerke
- Erkennung, Klassifizierung und Segmentierung
- Enthält eine optimierte Unterstützung für die folgenden Netzwerke: MobileNetV1, MobileNetV2, SqueezeNet1.1, SSDMobileNet, ResNet-50, DeepLab v3 und SqueezeSeg
Applikationen
- Fahrer-/Fahrzeuginsassen-Überwachungssysteme
- LiDAR-Segmentierung
- Objekterkennung, Klassifizierung und Verfolgung
- Rundumsicht
- Vorderansicht
- Erweitertes Einparkassistenzsystem
Download von NXP
Systemanforderungen
- Ubuntu LTS 16.04 64-Bit
- NXP Vision SDK-Software für S32V234
- SBC-S32V234 S32V Vision- und Sensorfusion-Evaluierungsboard
Entwicklung Blockdiagramm
Implementierung Ablaufdiagramm
