摘自:http://dingby.site/2018/03/13/人工智能、机器学习、神经网络和深度学习的区别/ 我觉得写的非常好。按照其中的话加了很多自己的理解。
**背景:**人工智能最初可以追溯至1956年,当时多名计算机科学家在达特茅斯会议上共同提出了人工智能的概念。在随后几十年中,人工智能一方面被认为是人类文明未来的发展方向,另一方面也被认为是难以企及的梦想。实际上,直到2012年之前,情况一直如此。
**定义:**人工智能(Artificial Intelligence,AI)是机器模拟人的意识和思维,让计算机具备人类拥有如感知、学习、记忆、推理、决策等的能力。细分为:
在机器上实现人工智能:
智能的三个核心部分(学习,存储,应用),在自然界中有自然界的实现方式
比较典型的消费级的人工智能产品:谷歌 Assistant、微软 Cortana、苹果 Siri、亚马逊 Alexa、阿里的天猫精灵、小米的小爱同学。
几个人工智能的先锋(话说这不是今年图灵机奖的三个人么)
Geoffrey Hinton:多伦多大学教授,谷歌大脑多伦多分部负责人,人工智能领域的鼻祖,他发表了许多让神经网络得以应用(如反向传播BP算法)的论文,激活了整个人工智能领域。他还培养了许多人工智能的大家。如LeCun就是他的博士后。
Yan LeCun:纽约大学教授,Facebook人工智能研究室负责人,他改进了**卷积神经网络(CNN)**算法,使CNN具有了工程应用价值,现在CNN依旧是计算机视觉领域最有效的模型之一。
Yoshua Bengio:蒙特利尔大学教授,现任微软公司战略顾问,他推动了**循环神经网络(RNN)**算法的发展,使RNN得到了工程应用,用RNN解决了自然语言处理中的问题。
有一张图说的比较好,这里记录一下。了解一下他们的关系。
机器学习的概念来自于人工智能发展的早期。随后多年中,基于算法的方法包括决策树学习、归纳逻辑编程、聚类算法、强化学习,以及贝叶斯网络等等。正如我们所知,这些技术最终都未能形成通用人工智能,而早期的机器学习方法甚至也没有带来狭义人工智能。
机器学习 (Machine Learning) 是近 20 多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科
**定义:**机器学习是一种统计学习方法,计算机用已有的数据得出某种模型,再利用模型预测结果。如果一个程序可以在任务T上,随着经验E的增加,效果P也可以随之增加,则称这个程序可以从经验中学习。
从这个定义里举个例子:卡内基梅隆大学(Carnegie Mellon University)的Tom Michael Mitchell教授在1997年出版的书籍Machine Learning中对机器学习进行过非常专业的定义,这个定义在学术界内被多次引用。通过垃圾邮件分类的问题来解释机器学习的定义。在垃圾邮件分类问题中,“一个程序”指的是需要用到的机器学习算法,比如逻辑回归算法;“任务T”是指区分垃圾邮件的任务;“经验E”为已经区分过是否为垃圾邮件的历史邮件,在监督式机器学习问题中,这也被称之为训练数据;“效果P”为机器学习算法在区分是否为垃圾邮件任务上的正确率。
机器学习三要素:
机器学习的分类:机器学习利用算法去分析数据、学习数据,随后对现实世界情况作出判断和预测。因此,与预先编写好、只能按照特定逻辑去执行指令的软件不同,机器实际上是在用大量数据和算法去“自我训练”,从而学会如何完成一项任务。机器学习可以分为以下几类:
监督学习(Supervised Learning):从给定的数据集中学习出一个函数, 当新的数据到来时, 可以根据这个函数预测结果, 训练集通常由人工标注。(通常是分类等问题,从数据的角度上理解很关键,有标注的数据,同理无监督就是没有标注的数据嚯嚯嚯)
无监督学习(Unsupervised Learning):相较于监督学习, 没有人工标注(以聚类为例)
强化学习(Reinforcement Learning):又叫增强学习,通过观察通过什么样的动作获得最好的回报, 每个动作都会对环境有所影响, 学习对象通过观察周围的环境进行判断
半监督学习(Semi-supervised Learning)
深度学习 (Deep Learning):利用深层网络神经模型, 抽象数据表示特征。
也有资料说明:深度学习是无监督学习的一种。
机器学习的挑战:
数据会以各种形式和大小出现。
预处理数据可能需要掌握专业知识和工具 。
找到拟合数据的最佳模型需要时间。
这一部分我可能不怎么会用到,用到哪里学哪里吧。现在已经大致知道是什么了。有问题见下: