像机器学习(ML),人工智能(AI),神经网络和深度学习的术语在这些日子和应用描述中比比皆是。梦想人类的机器人和自驾车继续出现,我们比以往任何时候都越来越近。然而,前者仍然是一个管道梦,甚至后者比大多数人都更远。太多假设能够识别人,手势或句子的能力表明认知AI就在拐角处。
在翻盖方面,过去和目前的AI / ML进步已经证明没有令人惊讶。硬件改进是主要驱动因素,但软件进步甚至更重要。实际上,许多这些改进的并行性质已被证明是有益的,因为单核处理器技术有效地击中了电力屏障。
与任何新技术一样,由于一个学习现在可用的技术,他们可以做些什么,以及它们如何合作,以及它们如何纳入应用程序。最新的AI / ML解决方案的挑战是非常广泛的可用范围。涵盖这项技术的图表看起来更像是榕树。
尽管如此,福利和应用是重要的。同样,可以使用的硬件和软件从标准的8位微控制器上运行的东西到运行的自定义AI / ml芯片,运行在云中的数百个驱动器托架上。当然,小微观可能只能在电机控制器的预测维护上工作,而硬件加速系统可能正在分析多个视频流。
关于AI/ML的另一个挑战是技术的不断扩张。新版本的机器语言模型编译器在不改变模型的情况下使应用程序的性能提高一倍的情况并不少见。
大多数应用程序不会受益于AI / ML,并且强制将幻想新技术融入既定应用,这不是一个好主意。另一方面,通过了解各种AI / ML方法的应用程序可以揭示为应用程序提供显着增强的方法。
值得注意的是,至少识别可能在开发应用程序时可能有用的硬件和软件了解AI / ML。然而,达到技术可以在应用中纳入应用的地步需要重大努力,包括确定要实现的优势以及所涉及的成本。