新智元编译1
来源:web.engr.oregonstate.edu
译者:王婉婷、李宏菲
AAAI 全称美国人工智能协会,2016 年 2 月 12 日到 17 日在美国菲尼克斯召开年会。这也是全球最重要的人工智能大会。
Tom G. Dietterich是 AAAI 主席,俄勒冈州立大学ECCS的特聘教授。1977年,他获得了奥伯林学院的A.B.;1979年他获得了厄巴纳伊利诺伊大学的硕士学位;1985年,他获得了斯坦福大学的博士学位。他主要专注于AI和机器学习领域中一些基本问题的研究。而研究这些基本问题的动力主要来自于新兴应用领域中的重要挑战,特别是来自于计算生态学、生态系统管理、计算机安全以及鲁棒的AI系统等应用领域的挑战。
Tom G.Dietterich是AAAI,ACM和AAAS的Fellow。他曾担任1990年AAAI技术项目的联合主席以及AAAI委员。其它角色包括NIPS 2000 的评委会主席,NIPS 2001的大会总主席,NIPS基金会懂事,国际机器学习协会创会主席(2001-2008)。1992-1998,Dietterich担任了机器学习期刊的执行主编并且他联合创办了“机器学习研究”期刊。1998年至2015年期间,他编辑了麻省理工学院出版社出版的自适应计算机和机器学习系列,并且从1998年至今,他主持了arXiv机器学习领域的论文。他曾担任政府资助机构包括DARPA(信息科学与技术顾问委员会 2004-2007)和美国国家科学基金会(网络基础设施咨询委员会,2009-2012)的顾问。
以下是 AAAI 2016 年度会议,Tom Dietterich 的发言。
马文·明斯基,图灵奖获得者,也是达特茅斯会议发起人之一。他很早就致力于人工智能研究,早在1961年就出版了著名的论文《迈向人工智能(Steps Toward Artificial Intelligence)》(回复0215下载论文)。
在John Brockman对他的访谈中,他是这样描述他认为的计算机程序与人类的区别的:“几乎任何异常都会让一个典型的计算机程序彻底瘫痪,但是对于一个人类来说,如果他的大脑在进行某些尝试时失败了,他会找到其他的、继续下去的方法。我们很少依赖于任何一种方法。我们通常知道,做一件事情有几种不同的方法,所以如果其中一种失败了,总是有其他的方法(等着我们去尝试)。”(回复A0215下载访谈全文)
内容大纲:
1、对于稳健AI的需求(高风险应用,应对无从了解的未知)
2、通往稳健AI的途径(对于已知的未知情况的稳健性,对于未知的未知情况的稳健性)
3、总结性评论
高风险的 AI
高风险应用需要稳健的AI。稳健性包括,对于人类用户的错误、网络攻击、目标偏误、错误模型、未建模的现象等能够维持稳健。后面两点尤为重要。
为什么会存在现象没有被建立模型?因为为任何东西都建立模型是不可能的,也是不理想的。
不可能为任何东西都建立模型。这是因为有两个问题存在:条件问题(Qualification Problem),即不可能枚举出一个行动的所有先决条件,以及分支问题(Ramification Problem),即不可能枚举出一个行动的所有内隐结果。
不去为任何东西都建立模型是很重要的。机器学习的一条基本定理是,错误率正比于模型复杂度除以样本量。那么就可以做出推论:如果样本量很小,模型就应该是简单的;我们必须有意地过度简单化(oversimplify)我们的模型!
结论:一个AI系统必须在没有一个完整的世界模型(model of the world)的情况下运行。
插话:AI中的不确定性。
已知的已知情况有:被定理所证明的事,在确定的、得到完全观察的世界里进行的规划,以及具备完全信息的博弈游戏。
已知的未知情况有:概率图模型(Probabilistic Graphical Models),概率机器学习(Probabilistic Machine Learning),在Markov决策问题中的规划,以及计算博弈论。
未知的未知情况有:我们迈向稳健AI的路途。
从生物学中吸取的稳健性教训:
进化并不是优化,正因为你不去优化,所以也不会有过度拟合问题。
各种个体的数量遵循组合策略(”portfolio” strategy)。
个体内部存在冗余现象,比如二倍体或是多倍体,它们使得回归等位基因(regressive alleles)能够被传递到后代身上;再比如,生物经常有备用的新陈代谢循环系统。
族群不断扩散,寻找更好的生存环境。
通往稳健AI的途径
提升对于模型错误的稳健性,途径有:稳健优化、将模型正则化、对风险敏感的目标进行优化、采用稳健推理的算法。
提升对于未建模的现象的稳健性,途径有:扩展模型、学习因果模型、采用组合模型、监控模型表现以探测异常。
想法1:稳健优化
许多AI推理问题都能被陈述为优化问题。
想法2:将模型正则化
假定对于一个未知的函数y=f(x)有训练集(xi, yi),以及损失函数L。要找出一个模型h,能够最小化损失和复杂度的惩罚项。
正则化可以与稳健优化等价
想法3:对风险敏感的目标进行优化
在Markov决策过程中,对于任何固定策略Pi,累计回报(cumulative return)将会有某种分布曲线,因此需要“最小化下行风险(downside risks)”。通过改变策略Pi,我们可以改变累计回报的分布,所以我们就能尝试着将大部分概率推向分布右侧。
优化条件风险价值(CVaR)也会提升稳健性
结论是,保守的行动能提升对于模型错误的稳健性。
想法4:稳健推理
包括Credal贝叶斯网络(节点上不再是概率分布,而是convex uncertainty集;上下概率模型(upper and lower probability models))、稳健分类、稳健概率诊断等。
想法5:扩展模型
包括知识库构建(KBC),信息抽取和知识库填充(Information Extraction & Knowledge Base Population),以及在规划和强化学习中学习行动模型。
风险是存在的,例如:每一个新加入模型的项都可能会带来异常;推理可能进一步传播这些异常;扩展后的模型可能不比原始模型更准确。
扩展模型并不是在尝试解决如何在建模不完整的环境中稳健行动的根本需求。
想法6:采用因果模型
因果关系更有可能是稳健的,因为:学习它们所需要的数据更少,也能被迁移到全新的环境中。
想法7:采用组合模型
马文·明斯基说过,“我们通常知道,做一件事情有几种不同的方法,所以如果其中一种失败了,总是有其他的方法(等着我们去尝试)。”
SAT & CSP中的组合方法
并行组合
对于算法能够得出解决方法的任何任务,对不同的算法进行并行运算竞赛,一旦一个算法得出了解决方案就立即停止竞赛。
IBM Watson的DeepQA,组合了超过100种不同的技术,用于:分析自然语言、识别来源、寻找并生成假设、寻找并评估证据、融合不同的假设并为假设作排序。
马文·明斯基说过,“如果你只在一个方面能理解它的话,你并不真正理解这个东西”。
大多数AI系统只能在一个方面理解事物。比如,在计算机视觉中,只能通过物体存在与否和人工标记来理解;在自然语言中,只能通过同时出现词语的统计和人工标记来理解。
对于这张图,计算机视觉只能读出“一只黑白相间的猫正坐在一张椅子上”。
但是可以有更多的、多方面的理解。
比如:
这只猫有一个主人。
它的主人不喜欢猫咪坐在这张椅子上,因为这只猫正在妨碍人类坐在这张椅子上(我们知道,人类通常需要坐在椅子上的),猫毛会粘在椅子上,并且这只猫也妨碍了主人拿取书本。
这只猫一会儿以后就不会仍然坐在椅子上了。
这只猫经常这么干。
我们需要让我们的计算机能够访问到许多不同形式的经验,包括完成任务、用自然语言对话达到目标、与其他代理(agent)交互。
想法8:监控异常
在机器学习中,从训练集中训练数据、学习分类器、用测试集中的样本进行测试。如果Ptest不等于Ptrain的话,会发生什么?
自动计算活水中大型无脊椎动物的数量
为了达到评估活水健康程度的目标,采用这样的方法:用网兜收集样本,在实验室中拍照,将捕捉到的样本根据种族分类。
开放类别物体识别
基于29种昆虫类别进行训练,测试集中可能含有训练集中没有的物种。
用异常检测进行预测
通过异常检测找到全新类别
使用含有2种类别的数据来训练分类器,对于含有26种类别的数据进行分类。
异常检测附注
我们一开始只是使用黑白照片,因为特征选择方面的研究表明,这样已经足够了。
但是颜色对于探测新类别来说是非常有用的。
教训:使用你全部的特征来寻找异常。
相关研究包括开放类别分类、变点(Change-Point)探测、协变量移动修正、领域适应。
开放问题:
一个已知模型的稳健性会为未建模的变异也带来稳健性吗?
当一个代理(agent)探测到它已经进入了一种异常状态时,它应该干什么?
浮现出高风险的AI应用——需要稳健的AI系统。
AI系统不能为一切都建模——AI需要对于“未知的未知情况”保持稳健。
现存的通往稳健AI的途径:
提升对于模型错误的稳健性,途径有:稳健优化、将模型正则化、对风险敏感的目标进行优化、采用稳健推理的算法。
提升对于未建模的现象的稳健性,途径有:扩展模型、学习因果模型、采用组合模型、监控模型表现以探测异常。
我们有了许多的好主意,但我们需要更多!
进入新智元微信公众号,在微信公众号处回复关键字 A160215,即可下载全部资料
「招聘」
记者、编译和活动运营
全职和实习生都要
以及人工智能翻译社志愿者
详细信息请进入公众号点击「招聘」
或给 aiera_jobs@163.com 投邮件