大数据 vs. 人工智能
人工智能和大数据是人们耳熟能详的流行术语,但也可能会有一些混淆。人工智能和大数据有什么相似之处和不同之处?它们有什么共同点吗?它们是否相似?能进行有效的比较吗?
这两种技术所具有的一个共同点是兴趣。NewVantage Partners公司对企业管理人员进行的大数据和人工智能调查发现,97.2%的企业高管表示他们的公司正在投资、构建或启动大数据和人工智能计划。
更重要的是,76.5%的企业高管认为人工智能和大数据密切相关,数据的更大可用性正在增强其组织内的人工智能和认知。
有人认为将人工智能与大数据结合在一起是一个很自然的错误,其部分原因是两者实际上是一致的。但它们是完成相同任务的不同工具。但首先要做的事是先弄清二者的定义。很多人并不知道这些。
咨询巨头PriceWaterhouse Coopers公司的高级研究员Alan Morrison说:“我发现很多人对真正的大数据或大数据分析并不太了解,或者只是以几个突出的例子来了解人工智能。”
人工智能与大数据的区别
他说,人工智能与大数据一个主要的区别是大数据是需要在数据变得有用之前进行清理、结构化和集成的原始输入,而人工智能则是输出,即处理数据产生的智能。这使得两者有着本质上的不同。
人工智能是一种计算形式,它允许机器执行认知功能,例如对输入起作用或作出反应,类似于人类的做法。传统的计算应用程序也会对数据做出反应,但反应和响应都必须采用人工编码。如果出现任何类型的差错,就像意外的结果一样,应用程序无法做出反应。而人工智能系统不断改变它们的行为,以适应调查结果的变化并修改它们的反应。
支持人工智能的机器旨在分析和解释数据,然后根据这些解释解决问题。通过机器学习,计算机会学习一次如何对某个结果采取行动或做出反应,并在未来知道采取相同的行动。
大数据是一种传统计算。它不会根据结果采取行动,而只是寻找结果。它定义了非常大的数据集,但也可以是极其多样的数据。在大数据集中,可以存在结构化数据,如关系数据库中的事务数据,以及结构化或非结构化数据,例如图像、电子邮件数据、传感器数据等。
它们在使用上也有差异。大数据主要是为了获得洞察力,例如Netflix网站可以根据人们观看的内容了解电影或电视节目,并向观众推荐哪些内容。因为它考虑了客户的习惯以及他们喜欢的内容,推断出客户可能会有同样的感觉。
人工智能是关于决策和学习做出更好的决定。无论是自我调整软件、自动驾驶汽车还是检查医学样本,人工智能都会在人类之前完成相同的任务,但速度更快,错误更少。
人工智能和大数据协同工作
虽然它们有很大的区别,但人工智能和大数据仍然能够很好地协同工作。这是因为人工智能需要数据来建立其智能,特别是机器学习。例如,机器学习图像识别应用程序可以查看数以万计的飞机图像,以了解飞机的构成,以便将来能够识别出它们。
当然,这是数据准备的重要步骤,Morrison指出,“人们开始使用的数据是大数据,但是为了训练模型,数据需要结构化和集成到足够好的程度,以便机器能够可靠地识别数据中的有用模式。”
大数据提供了大量的数据,而有用的数据必须首先从大量繁杂的数据中心分离出来,然后再做任何事情。人工智能和机器学习中使用的数据已经被“清理”了,无关的、重复的和不必要的数据已经被清除。所以这是第一步。
在此之后,人工智能可以蓬勃发展。大数据可以提供训练学习算法所需的数据。有两种类型的数据学习:初始培训可以定期收集数据。人工智能应用程序一旦完成最初的培训,并不会停止学习。随着数据的变化,它们将继续接收新数据,并调整它们的行动。因此,数据是最初的和持续的。
这两种计算方式都使用模式识别,但方式有所不同。大数据分析通过顺序分析来找到模式,有时候是冷数据,或者是没有收集到的数据。Hadoop是大数据分析的基本框架,它是最初设计用于在低服务器利用率的夜间运行的批处理过程。
机器学习从收集的数据中学习并不断收集。例如,自动驾驶汽车从未停止收集数据,并且不断学习和磨练其流程。数据总是以新鲜的方式出现并始终采取行动进行处理。
大数据在人工智能中的作用
人工智能一直在被人们关注。很多人对1999年推出的一部电影“黑客帝国”的情节记忆犹新,人类与那些变得聪明的机器殊死搏斗。但在现实的实施过程中,人工智能直到最近一直是边缘技术。
人工智能实现最大的飞跃是大规模并行处理器的出现,特别是GPU,它是具有数千个内核的大规模并行处理单元,而不是CPU中的几十个并行处理单元。这大大加快了现有的人工智能算法的速度,现在已经使它们可行。
大数据可以采用这些处理器,机器学习算法可以学习如何重现某种行为,包括收集数据以加速机器。人工智能不会像人类那样推断出结论。它通过试验和错误学习,这需要大量的数据来教授和培训人工智能。
人工智能应用的数据越多,其获得的结果就越准确。在过去,人工智能由于处理器速度慢、数据量小而不能很好地工作。也没有像当今先进的传感器,并且当时互联网还没有广泛使用,所以很难提供实时数据。
如今,人们拥有所需要的一切:快速的处理器、输入设备、网络和大量的数据集。毫无疑问,没有大数据就没有人工智能。
原文发布时间为:2018-06-5
本文作者:Andy Patrizio

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
人脸识别竞争激烈机器人视觉或将成为下一热点
如果你看过美剧《疑犯追踪》,你一定记得那句经典台词“You’re being watched.”剧中The Machine是个神奇的机器,它能够调用所有的摄像头,形成天网。当它锁定某个人,瞬间即可从网络调取所有有关此人的信息,跟踪他的轨迹,预判他的行为。 现实中的人工智能虽还未能达到这种高度的黑科技,但是让机器“看懂”世界已经不是一件新鲜事了。 让计算机“看懂”世界的技术——计算机视觉——是指用计算机来模拟人的视觉系统,实现人的视觉功能。作为计算机的眼睛,计算机视觉是机器认识世界、看懂世界的一种方式,它与语音识别、语言识别一并构成了人工智能的感知智能,让机器完成对外部世界的探测,进而做出判断,采取行动,让更复杂层面的智慧决策、自主行动成为可能。可以说,计算机视觉是人工智能产品或方案不可或缺的重要部分。基于深度学习算法模型和CPU、GPU等关键硬件的支撑,计算机视觉技术应用得以实现,并最终集成于多类产品和应用场景之中(如机器人、无人驾驶等等)。 在国内,人脸识别是计算机视觉领域的当前竞争热点,金融、安防领域的人脸识别为重点布局场景。而此类公司多有未来涉足机器人视觉、无人机视觉领域的计划。...
- 下一篇
一张图看懂自然语言处理技术框架
一张图看懂自然语言处理技术框架 一、前言 正在针对《人工智能产品经理最佳实践》视频课程第三部分,关键技术篇,进行相关的内容重构,今天整理的部分是自然语言处理技术框架,特地绘制了一张自然语言处理的技术框架图,在此分享给大家。 二、正文 自然语言处理涉及到的相关技术,可以按照不同的分类标准、基于不同的观察视角进行划分。基于不同的分类原则,自然语言处理相关技术的分类结果也有所不同。在这里,我们主要采用两个分类原则进行划分,其一、基于分析对象语言单位粒度的不同:词汇级、句子级级和篇章级;其二、基于分析内容性质的不同:词法分析、语法分析、语义分析和语用分析。按照以上的分类标准,自然语言处理的主要技术分类结果如下图所示: 四、未完待续 个人梳理,未尽之处,欢迎指正。QQ技术交流群:149933712
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Red5直播服务器,属于Java语言的直播服务器
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS6,CentOS7官方镜像安装Oracle11G
- 设置Eclipse缩进为4个空格,增强代码规范
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- Linux系统CentOS6、CentOS7手动修改IP地址