Modelle für Deep Learning
Künstliche Intelligenz beschleunigen
Mathworks verkündet, das Matlab ab sofort eine Integration mit Nvidia TensorRT über GPU Coder anbietet. Somit werde Ingenieuren und Wissenschaftlern die Entwicklung neuer Modelle für Künstliche Intelligenz und Deep Learning in Matlab erleichtert.
Matlab bietet einen vollständigen Arbeitsablauf zum schnellen Trainieren, Validieren und Bereitstellen von Deep-Learning-Modellen. Ingenieure können GPU-Ressourcen ohne zusätzliche Programmierung nutzen. Aufgrund der neuen Integration von NVIDIA TensorRT und GPU Coder können in Matlab entwickelte Deep-Learning-Modelle auf NVIDIA-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden.
Laut Mathworks zeigen interne Benchmarks, dass von Matlab generierter CUDA-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow.
Firma zum Artikel
Themen im Artikel
Alle Benchmarks wurden mit Matlab R2018a mit GPU Coder, TensorRT 3.0.1, TensorFlow 1.6.0, CUDA 9.0 und cuDNN 7 auf einer Nvidia Titan Xp GPU auf einem Linux-basierten 12-Core-Intel Xeon E5-1650 v3 PC mit 64 GB RAM ausgeführt.