半岛彩票人工智能是一门综合了计算机科学、生理学、哲学的交叉学科。凡是使用机器代替人类实现认知、识别、分析、决策等功能,均可认为使用了人工智能技术。
数据量、运算力和算法模型是影响人工智能行业发展的三大要素。2000年之后,数据量的上涨、运算力的提升和深度学习算法的出现极大的促进了人工智能行业的发展。数据量和算法可以分别比作人工智能的燃料和发动机。算法是计算机基于所训练的数据集归纳出的识别逻辑,好的算法模型可以实现精准的物体和场景识别。数据集的丰富性和大规模性对算法训练尤为重要。
擅长并行计算的GPU大幅提升机器学习效率。在GPU出现之前,算法运行的速度是很慢的,即使是一个简单的神经网络数据的培训,也得花费几天、甚至几周的时间。GPU是专为执行复杂的数学和集合计算而设计的数据处理芯片。它的出现让并行计算成为可能,对数据处理规模、数据运算速度带来了指数级的增长,极大的促进人工智能行业,尤其计算机视觉领域的发展。
今天,数据处理速度不再成为制约计算机视觉发展的主要瓶颈。想要发挥专用芯片的计算优势,需要芯片结构和软件算法两者相匹配。目前的趋势是随着对人工智能各类应用需求的不断增强,专门用于加速人工智能应用的AI-PU或将成为计算机另一个标配组件。
深度学习突破人工智能算法瓶颈。自学习状态成为视觉识别主流。即机器从海量数据库里自行归纳物体特征,然后按照该特征规律识别物体。图像识别的精准度也得到极大的提升, 从70%+提升到95%。
算法必须借助芯片才能够运行,而由于各个芯片在不同场景的计算能力不同,算法的处理速度、能耗也就不同。在人工智能市场高速发展的今天,人们都在寻找更能让深度学习算法更快速、更低能耗执行的芯片。目前,能够适应深度学习需要的芯片类型有GPU、 FPGA 和 ASIC等。
GPU最初是作为应对图像处理需求而出现的芯片。其特点为擅长大规模并行运算,可以平行处理大量信息。在人工智能技术发展早期,因其优异的大规模数据处理能力,GPU被使用在多个项目之中。
然而,从芯片底层架构来讲,由于GPU并非专为深度学习设计的专业芯片,未必为人工智能加速硬件的最终答案。
目前,GPU的设计和生产均已非常成熟,在集成度和制造工艺上具有优势,因而从成本和性能的平衡来讲,是当下人工智能运算的很好选择。
FPGA:高性能、低功耗的可编程芯片 FPGA全称为可编辑门阵列, 它是一种通用型的芯片,设计更接近于硬件底层的架构,其最大特点是可编程。基于可编程的特点,用户可以通过烧入FPGA 配置文 件来实现应用场景的高度定制,进而实现高性能,低功耗。
作为全定制设计的ASIC芯片,针对适用的应用场景,ASIC的性能和能耗都要优于市场上的现有芯片,包括FPGA和GPU。目前,人工智能类ASIC的发展仍处于早期。其根本原因是,ASIC一旦设计制造完成后电路就固定了,只能微调,无法大改。
技术支撑层主要由算法模型(软件)和关键硬件(AI芯片、传感器) 两部分构成。传感器负责收集数据,AI芯片(GPU,FPGA,NPU等)负责运算,算法模型负责训练数据。
基础应用层主要由感知类技术和其他深度学习应用构成。感知技术主要用于让机器完成对外部世界的探测,即看懂世界、听懂、读懂世界,由计算机视觉、语音识别、语义识别一并构成,是人工智能
唯有看懂、听懂、读懂,才能够做出分析判断,进而采取行动,让更复杂层面的智慧决策、自主行动成为可能。方案集成为集成了一类或多类基础应用技术的,面向应用场景特定需求的产品或方案。
语音识别解决的是计算机“听得见”的问题,而语义识别解决的是“听得懂”的问题。
视觉系统主要解决的是物体识别、物体形状和方位确认以及物体运动判断这三个问题。而计算机视觉的研究,则是专注于让机器代替人眼,解决这些问题。从技术流程上看,计算机视觉识别通常需要三个过程:目标检测、目标识别、行为识别,分别解决了“去背景”、“是什么”、“干什么”的问题。
技术成熟度:计算机视觉各细分领域的成熟度相差较大。在生物特征识别领域,如人脸识别、指纹识别、瞳孔识别,技术成熟度高,工业化程度高,广泛应用于安防和考勤。在物体和场景识别方面,由于识别的物体种类繁杂,表现形态多样,技术成熟度较低。现阶段多数公司着力数据标注。静态物体的识别技术较为成熟,动态图像的图像识别难度较大。
主要瓶颈:受图片质量、光照环境的影响,现有图像识别技术较难解决图像残缺、光线过爆、过暗的图像。此外,受制于被标记数据的体量和数量,若无大量、优质的细分应用场景数据,该特定应用场景的算法迭代很难实现突破。