matlab 2022更新

时间:2022-12-15 21:52:58

matlab 2022b

 dictionary 对象 将唯一键映射到值以便快速查找
» 深度学习工具箱: 直接导入 PyTorch 模型;将模型导出到 TensorFlow
» Simulink: 将库浏览器停靠在模型中

MATLAB
.NET 引擎 API:从 .NET 应用程序调用 MATLAB
编译工具:创建和运行软件编译任务
App 性能:启动速度更快,图形交互的响应更快


Fuzzy Logic Toolbox - 使用更新后的模糊逻辑设计器以交互方式设计、分析和仿真模糊推理系统 (FIS),包括二型系统


Computer Vision Toolbox
使用异常检测和分类方法自动化任务
代码生成、GPU 和第三方支持
OpenCV 接口:将 OpenCV 4.5.0 版项目与 MATLAB 集成
使用MATLAB Coder生成 C 和 C++ 代码:支持函数
为NVIDIA GPU Coder生成CUDA代码:支持函数
https://ww2.mathworks.cn/help/vision/release-notes.html

Curve Fitting Toolbox
Simulink:将曲线拟合器结果导出到 Simulink Lookup Table 模块

Instrument Control Toolbox
NI 向量信号收发机:为空口无线测试配置生成器并获取 IQ 数据,以及设计验证工作流

Statistics and Machine Learning Toolbox
实时编辑器任务:按照降维标准降低维度
Simulink:用 KNN 分类器进行预测的模块


Signal Processing Toolbox
预处理:在信号分析器中以交互方式对信号进行滤波和编辑


MATLAB Coder
TensorFlow Lite:为预训练模型生成 C++ 代码,并将它们部署在 Windows 和 Linux 平台
TensorFlow Lite:为预训练模型生成 C++ 代码并在Windows平台上部署
使用(Deep Learning Toolbox)函数将预训练的 TensorFlow™ Lite 模型加载到(Deep Learning Toolbox)对象中。将此对象与 MATLAB 代码中的(Deep Learning Toolbox)函数结合使用,以在 MATLAB 执行、代码生成或Simulink ®模型中的MATLAB Function块内部执行推理。loadTFLiteModelTFLiteModelpredict
要使用此功能,您必须为 TensorFlow Lite 安装 Deep Learning Toolbox™ Interface。有关详细信息,请参阅使用 TensorFlow Lite 模型进行深度学习的先决条件(深度学习工具箱)。有关示例,请参阅:
在主机和 Raspberry Pi (深度学习工具箱)上部署使用 TensorFlow Lite (TFLite) 模型的超分辨率应用程序
为 TensorFlow Lite (TFLite) 模型生成代码并部署在 Raspberry Pi (深度学习工具箱)上
https://ww2.mathworks.cn/help/deeplearning/ug/generate-code-for-tensorflow-lite-model-and-deploy-on-raspberry-pi.html


在 R2022b 中,您可以为这些附加网络生成通用 C/C++ 代码:
yolov3ObjectDetector(计算机视觉工具箱) ——YOLO v3 对象检测器。此功能需要Computer Vision Toolbox™ Model for YOLO v3 Object Detection支持包中的函数。
yolov4ObjectDetector(计算机视觉工具箱) ——YOLO v4 对象检测器。此功能需要用于 YOLO v4 对象检测支持包的计算机视觉工具箱模型中的函数
ssdObjectDetector(计算机视觉工具箱) ——基于 SSD 的对象检测器。

matlab 2022A
TensorFlow Lite:为预训练模型生成 C++ 代码并部署在Linux平台上
在 R2022a 中,您可以使用loadTFLiteModel(Deep Learning Toolbox) 功能将预训练的 TensorFlow™ Lite 模型加载到TFLiteModel(Deep Learning Toolbox) 对象中。将此对象与predict(Deep Learning Toolbox) 函数结合使用,以使用预训练的 TensorFlow Lite 模型执行推理。您可以为该功能生成代码,并在您的 MATLAB 主机或 ARM ®处理器上的 Linux 平台上进行部署。
要使用此功能,您必须为 TensorFlow Lite 安装 Deep Learning Toolbox™ Interface。有关详细信息,请参阅使用 TensorFlow Lite 模型进行深度学习的先决条件(Deep Learning Toolbox)。有关示例,请参阅为 TensorFlow Lite 模型生成代码并在 Raspberry Pi(深度学习工具箱)上部署
https://www.mathworks.com/help/releases/R2022a/deeplearning/ug/generate-code-for-tensorflow-lite-model-and-deploy-on-raspberry-pi.html


CMSIS-NN 库:为量化的深度学习层生成代码并部署在ARM Cortex-M 目标上
Cortex-M MCU 上为深度学习网络生成代码
第三方先决条件
Cortex-M 硬件 - STM32F746G 探索板
CMSIS-NN 库
https://ww2.mathworks.cn/help/releases/R2022a/coder/ug/generate-code-for-quantized-lstm-network-and-deploy-on-cortex-m-target.html

您可以使用 MATLAB Coder 为部署到 Intel® 或 ARM® 处理器的深度学习网络生成 C++ 代码。生成的代码利用针对目标 CPU 进行了优化的深度学习库。硬件和软件要求取决于目标平台。
您还可以使用 MATLAB Coder 为深度学习网络生成泛型 C 或 C++ 代码。这种 C 或 C++ 代码不依赖于任何第三方库。
https://ww2.mathworks.cn/help/releases/R2022a/coder/ug/prerequisites-for-deep-learning-with-matlab-coder.html