对人工智能发展至关重要的4项技术

虽然人工智能驱动的设备和技术已经成为我们生活的重要组成部分,但机器智能仍可能在一些领域做出重大改进。

为了填补这些隐喻性的空白,非人工智能技术可以派上用场。

人工智能 (AI) 是一种“具有合成智能的新兴计算机技术”。人们普遍认为,我们在日常生活中看到的人工智能应用只是其力量和能力的冰山一角。人工智能领域需要不断演进和不断发展,以消除常见的人工智能局限性。

通常,人工智能由以下子领域组成,如认知计算,也通常包括在内,但以下领域几乎在所有人工智能系统中无处不在:

  1. 机器学习:机器学习结合使用来自神经网络的数据、一般和特定统计数据、操作结果和其他来源,在不受外部引导的情况下发现信息中的模式。深度学习使用包含多个复杂处理单元层的神经网络。深度学习使用更大的数据集来提供复杂的输出,如语音和图像识别。
  2. 神经网络:神经网络(也称为人工神经网络)利用数字和数学信息进行数据处理。神经网络包含几个类似神经元和突触的数据节点,模拟人类大脑的功能。
  3. 计算机视觉:利用模式识别和深度学习,计算机视觉识别图像和视频中的内容。通过对图像和视频的处理、分析和获取知识,计算机视觉帮助人工智能实时解释周围环境。
  4. 自然语言处理:这些是深度学习算法,使人工智能系统能够理解、处理和生成人类的口语和书面语言。

非AI技术会让AI变得更先进(或者至少减少AI的局限性),通常会增强其中一个部分,或积极地影响其输入、处理或输出能力。

对人工智能发展至关重要的4项技术

1. 半导体:改善人工智能系统中的数据移动

半导体和人工智能系统在同一领域共存的现象非常普遍。有几家公司生产用于人工智能应用的半导体。在现有的半导体企业中,为了制造人工智能芯片或将人工智能技术嵌入到生产线上,实施了专门的项目。这类机构参与人工智能领域的一个突出例子是英伟达(NVIDIA),其包含半导体芯片的图形处理单元(GPU)被大量用于数据服务器,以进行人工智能训练。

半导体结构的改变可以提高人工智能电路的数据使用效率。半导体设计的改变可以提高人工智能内存存储系统的数据移动速度。除了增加功率,存储系统也可以变得更高效。

随着半导体芯片的参与,有几个想法可以改善人工智能系统的各个数据使用方面。其中一种想法是只在需要的时候向神经网络发送数据(而不是不断地通过网络发送信号)。另一个进步的概念是在与人工智能相关的半导体设计中使用非易失性存储器。正如我们所知,非易失性存储芯片在没有电源的情况下仍然可以保存保存的数据。将非易失性存储器与处理逻辑芯片相结合,可以创造出满足新型人工智能算法日益增长的需求的专用处理器。

虽然可以通过半导体的设计改善来满足人工智能的应用需求,但也有可能引发生产问题。由于对内存的巨大需求,人工智能芯片通常比标准芯片要大。因此,半导体公司将需要花更多的钱来制造它们。因此,开发人工智能芯片对他们来说没有多大经济意义。

为了解决这个问题,可以使用一个通用的人工智能平台。芯片供应商可以通过输入/输出传感器和加速器来增强这些类型的AI平台。使用这些资源,制造商可以根据不断变化的应用需求塑造平台。通用人工智能系统的灵活性可以为半导体公司带来成本效益,并大大减少人工智能的局限性。通用平台是连接基于人工智能的应用和改进的半导体的未来。

2. 物联网 (IoT):增强 AI 输入数据

人工智能在物联网中的引入改善了二者的功能,并无缝解决了各自的缺点。正如我们所知,物联网包含多种传感器、软件和连接技术,使多个设备以及其他数字实体能够通过互联网相互通信和交换数据。这些设备可以是日常生活用品,也可以是复杂的组织机器。从根本上说,物联网减少了观察、确定和理解一个情况或其周围环境的几个互连设备的人为因素。相机、传感器和声音探测器等设备可以自行记录数据。这就是人工智能的用武之地。机器学习总是要求它的输入数据集来源尽可能广泛。物联网拥有大量连接设备,为人工智能研究提供了更广泛的数据集。

为了充分利用物联网为人工智能系统提供的大量数据储备,企业组织可以构建自定义机器学习模型。利用物联网从多个设备收集数据并在时尚的用户界面上以有组织的格式呈现数据的能力,数据专家可以有效地将其与人工智能系统的机器学习组件集成。

人工智能和物联网的结合对这两个系统都很有效,因为人工智能从其物联网对应物获得大量原始数据进行处理。作为回报,人工智能可以快速找到信息模式,从未分类的大量数据中整理和呈现有价值的见解。人工智能从一组分散的信息中直观地检测模式和异常的能力得到了物联网传感器和设备的补充。通过物联网生成和简化信息,人工智能可以处理与温度、压力、湿度和空气质量等各种概念相关的大量细节。

近年来,几家大型企业成功部署了各自对人工智能和物联网结合的理解,以在其行业中获得竞争优势并解决人工智能的局限性。 Google Cloud IoT、Azure IoT 和 AWS IoT 是这一趋势的一些著名例子。

3. 图形处理单元:为人工智能系统提供计算能力

随着 AI 的日益普及,GPU 已经从单纯的图形相关系统组件转变为深度学习和计算机视觉过程的一个组成部分。事实上,人们普遍认为 GPU 相当于普通计算机中的 CPU 的人工智能。首先,系统需要处理器内核来进行计算操作。与标准 CPU 相比,GPU 通常包含更多的内核。这允许这些系统为跨多个并行进程的多个用户提供更好的计算能力和速度。此外,深度学习操作处理大量数据。 GPU 的处理能力和高带宽可以轻松满足这些要求。

对人工智能发展至关重要的4项技术

GPU具有强大的计算能力,可以配置为训练AI和深度学习模型(通常是同时进行)。如前所述,更大的带宽使GPU比普通CPU具有必要的计算优势。因此,人工智能系统可以允许大量数据集的输入,这可能会超过标准的CPU和其他处理器,从而提供更大的输出。最重要的是,在AI驱动的系统中,GPU的使用并不会占用大量内存。通常,计算大的、不同的任务需要在标准CPU中使用几个时钟周期,因为它的处理器按顺序完成任务,并且拥有有限数量的核心。

另一方面,即使是最基本的GPU也有自己的专用VRAM(视频随机访问内存)。因此,主处理器的内存不会被小型和中型进程占用。深度学习需要大量的数据集。虽然物联网等技术可以提供更广泛的信息,半导体芯片可以规范AI系统的数据使用,但GPU在计算能力和更大的内存储备方面提供了资源。因此,GPU 的使用限制了 AI 在处理速度方面的局限性。

4. 量子计算:升级人工智能的方方面面

从表面上看,量子计算类似于传统的计算系统。主要区别在于使用了独特的量子位(也称为qubit),它允许量子计算处理器中的信息同时以多种格式存在。量子计算电路执行类似于常规逻辑电路的任务,但添加了纠缠和干扰等量子现象,以将其计算和处理提升到超级计算机水平。

量子计算允许人工智能系统从专门的量子数据集中获取信息。为了实现这一点,量子计算系统使用称为量子张量的多维数字阵列。然后使用这些张量创建大量数据集供 AI 处理。为了在这些数据集中找到模式和异常,部署了量子神经网络模型。最重要的是,量子计算提高了人工智能算法的质量和精度。量子计算通过以下方式解决了常见的 AI 限制:

  1. 与标准计算系统相比,量子计算系统功能更强大,而且不易出错。
  2. 一般来说,量子计算有助于人工智能系统的开源数据建模和机器训练框架。
  3. 量子算法可以在纠缠输入数据中寻找模式的过程中提高人工智能系统的效率。

我们可以清楚地看到,人工智能的发展可以通过增加输入信息量(通过物联网)、提高数据使用率(通过半导体)、增加计算能力(通过 GPU)或简单地改进各个方面来实现其操作(通过量子计算)。

除此之外,未来可能还有其他几种技术和概念可以成为人工智能发展的一部分。在其概念和诞生 60 多年后,人工智能在当今几乎每个领域都比以往任何时候都更加重要。无论它从哪里开始,人工智能的下一个进化阶段都将是引人入胜的。

活动预告

由千家智客与千家品牌实验室共同主办的2021年第二十二届中国国际建筑智能化峰会(简称:峰会)将于2021年11月4日至12月9日期间,分别在北京、上海、广州、武汉、成都、西安六大城市举行。本届峰会将聚焦“智慧互联,重构“AI+云”时代”,届时将携手全球顶级智能化品牌,共同分享人工智能技术在城市、建筑与家庭中的最新应用,全面解读人工智能、云计算、物联网与智能化产业链的最新发展趋势。

这么多年了,为什么蓝牙连接还是不够稳定?

报名参会及更多峰会详情,详见峰会官网:http://summit.qianjia.com/

方案推荐及资料下载

《6G总体愿景与潜在关键技术》白皮书.pdf

阿里云“城市大脑”数据智能解决方案 

华为好望 | 中小型超市/便利店智能解决方案 

城市级智慧停车解决方案 

HDL全功能智慧家居解决方案  

中国联通 5G 未来社区白皮书 (2020 年)  

H3C:《中国城市数字经济指数白皮书(2020)》  

《弱电智能建筑项目系统集成手册》——IT与智能化项目实施建议 

* 千家网原创文章,未经授权严禁转载 。