Modelle für Deep Learning

Andrea Gillhuber,

Künstliche Intelligenz beschleunigen

Mathworks verkündet, das Matlab ab sofort eine Integration mit Nvidia TensorRT über GPU Coder anbietet. Somit werde Ingenieuren und Wissenschaftlern die Entwicklung neuer Modelle für Künstliche Intelligenz und Deep Learning in Matlab erleichtert.

Cuda Code-Generierung mit NIVIDA TensorRT. © Mathworks

Matlab bietet einen vollständigen Arbeitsablauf zum schnellen Trainieren, Validieren und Bereitstellen von Deep-Learning-Modellen. Ingenieure können GPU-Ressourcen ohne zusätzliche Programmierung nutzen. Aufgrund der neuen Integration von NVIDIA TensorRT und GPU Coder können in Matlab entwickelte Deep-Learning-Modelle auf NVIDIA-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden.

Laut Mathworks zeigen interne Benchmarks, dass von Matlab generierter CUDA-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow.

Alle Benchmarks wurden mit Matlab R2018a mit GPU Coder, TensorRT 3.0.1, TensorFlow 1.6.0, CUDA 9.0 und cuDNN 7 auf einer Nvidia Titan Xp GPU auf einem Linux-basierten 12-Core-Intel Xeon E5-1650 v3 PC mit 64 GB RAM ausgeführt.

Anzeige
Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige