并非所有应用都可以利用机器学习(ML)推断,但大多数可能是可能的。通过改善人工智能(AI)软件支持加上针对深神经网络(DNN)的软硬件加速来,在信息源代替云中的信息来源正在变得越来越容易。平台喜欢Renesas'E-AI,stmicroelectronics.'stm32cubemx.ai,和恩智浦的人EIQ所有支持ML和目标硬件从传统的微控制器到具有硬件加速的系统。
ML硬件加速度可以显着提高边缘上推理应用的性能,开辟股票五金中不可能的新应用机会。GPGPUS和Multicore CPU LED充电,但格式特定的硬件具有边缘。即使是这些平台的最新版本也得到了增强,以解决推理家务。例如,英特尔最新的Xeons包括针对ml的指示及其MOVIDIUS视频处理单元(VPU)在特定ML应用空间上的零。
nvidiaJetson Nano.(见图)为ML表带来完整的SOC。128-CUDA-CORE-COREWELL GPGPU处理64位Quad-Core Cortex-A57 CPU集群辅助的大多数DNN模型的处理。Compact DIMM模块还包括4 GB的DRAM并运行Linux。其硬件编码和解码支持可以在每个流上运行ML模型时处理4K或八个1080p视频流。对流冷却易于处理5至10W的功率,允许Jetson Nano在边缘上的紧凑型低功耗AI应用中工作。Jetson Nano提供了与其较旧的功能和更强大的兄弟姐妹相同的功能,包括支持像Tensorflow,Pytorch,Caffe / Caffe2,MXNetx和Keras等主要平台的能力。
NVIDIA的Jetson Nano是一种SOC,支持嵌入式系统中的机器学习推理课程。
协处理器还在接听嵌入式系统中的更有效推理和识别琐事的呼叫,其中批次大小是重要的。服务器通常更有效地处理大型批量尺寸,但它们也使用较大的数据集,而嵌入式系统可能具有用于分析数据的单个摄像头。
筹码喜欢Flex LogixInferx X1瞄准这个空间。该芯片包含多个NNMAX处理块,专门设计用于处理DNN模型中的每个层,这些层在使用像NVIDIA最新的TESLA T4或FPGA板(如)如Xilinx的雅罗或者英特尔的可编程加速卡(PACS)。地狱X1经过优化,以实现WinoGrad加速度,这可以通过2.25提高Int8层的精度和性能。系统将3×3卷积转换为4×4,动态转换为12位。该支持还可以在飞行中处理输入和输出转换,最大限度地减少系统内的重量。
弄清楚AI是否将受益于申请是一个苦味和本身。但是,一旦进行了该确定,就可以使用大量选择来实现这些系统。当然,人们可能必须申请AI只是通过选项来涉及。