原标题:你讨厌的AI炒作,也许永远不会停止

style=”font-size: 16px;”>【CSDN编者按】真是天下乌鸦一般黑,原来国外媒体为了博眼球,也会各种浮夸和杜撰。

图片 1

去年六月,Facebook的五名人工智能研究人员,发表了一篇文章,演示了机器人可以像人类交涉一样进行对话。

尽管大部分情况下,机器人能够维持连贯的对话,但研究人员发现,软件偶尔会生成一些奇怪的句子,如“Balls
have zero to me to me to me to me to me to me to me to”这种。

看到这些结果,研究团队意识到他们没能将机器人生成的句子,限制在人类英语口语上,从而使得机器人,创造了一种“机器人英语”用来互相沟通。该领域的其他专家认为,这个发现非常有趣,但并不是完全出乎意料的。

媒体的疯狂

在最初的研究论文发表一个月之后,Fast
Company发表了一篇标题为“AI发明了人类无法理解的语言,我们该阻止它们吗?”的文章。这篇文章几乎通篇都在关注机器人,从标准英语衍生出机器人英语的过程,而这并不是那篇论文的主要发现。文章还说,研究人员“在意识到机器人用新的语言交谈”之后,他们决定中止整个试验,因为机器人似乎已经失控了。

Fast
Company的文章迅速走红,传遍了互联网,使得一群饥渴的媒体,进一步加深了这种弗兰肯斯坦式(弗兰肯斯坦是玛丽·雪莱创作的长篇小说《弗兰肯斯坦》中的人物,是一个疯狂的科学家。后来用以指代“顽固的人”或“人形怪物”
)的描述。

图片 2

某个网站这样写道:“Facebook的工程师们慌了,他们在机器人发展了自己的语言后,拔掉了AI的插头。”

唯恐落后的The
Sun,也评论说“他们几乎组装了终结者的蓝图,机器人开始有自我意识,准备开始对人类发起战争了”。

卡耐基梅隆大学机器学习领域的助理教授Zachary
Lipton,哭笑不得地看着整个事件,逐渐从“有趣的研究”变成了“耸人听闻的垃圾”。

据Lipton说,最近的流行话题,如“机器学习”、“深度学习”等,带动了一大波投机的撰稿人,他们为了赚取点击量,而误读研究的结果,Lipton称这种现象为“AI曲解流行病”。

越来越多的这一领域的研究者们,都有与Lipton同样的担忧,他们担心像Facebook文章中,那种关于AI的不准确的投机文章,会导致人们,对该领域的不切实际的期待,最终会威胁未来的研究进展、和新技术的应用。

媒体上关于计算机智能的的夸大,并非我们这个时代独有,实际上从出现计算机的那一天就有了。

媒体的疯狂从未停息

1946年2月,公交车那么大的笨重的ENIAC,在一次媒体发布会上,被展示给媒体,记者们对它的描述是“电子大脑”“数学弗兰肯斯坦”“天气预报控制机”、以及“巫师”。

为了给媒体的炒作降温,英国物理学家D. R.
Hartree,在自然杂志上发表了一篇文章,用直观易懂的方式,描述了ENIAC的工作原理。

图片 3

ENIAC

然而令他大跌眼镜的是,伦敦泰晤士报根据他的研究,发表了一篇文章,标题是《电子大脑:能解决最困难的问题,而且还有记忆》。

Hartree立即给编辑发了一封信,指出“电子大脑”这个词十分有误导性,并强调机器“不能代替人类的思维”。然而危害早已产生了,ENIAC在媒体中,永远地留下了“电脑”这个词。

在美国,康奈尔航空实验室的工程师Frank
Rosenblatt的故事,也十分相似。他在1958年,发表了一篇,关于基础机器学习算法的文章,即“感知器”。

尽管“感知器”只能被训练成,识别有限的几个模式,但纽约时报发表的文章,称该算法是个能“自学”的“电子大脑”,而且终有一天,能够“走路、说话、看见、写字,还能自我繁殖、并拥有自我存在的意识”。

人类低估了用机器模拟人类大脑的难度

尽管有关AI的炒作,给大学和军方的研究人员,带来了资金,但在六十世纪末,许多AI的前沿学者,意识到他们低估了用机器模拟人类大脑的难度。

1969年,Marvin Minsky与Seymour
Papert,合著了一本书,证明了Rosenblatt的感知器,并不能完成专家们承诺的功能,距离媒体所谓的智能也相去甚远,而此时距离Marvin
Minsky宣称机器能在他的有生之年超过人类的说法,仅仅过去了八年。

Minsky和Papert的书,给研究社区带来了无尽的怀疑,并且传染到了其他领域,一时间AI的神话似乎破灭了。

1972年,哲学家Hubert
Dreyfus,发表了一篇关于机器思想的影响深远的文章,题为《计算机不能做什么》。一年以后,英国数学家James
Lighthill,发表了一篇关于机器智能的报告,其结论称“目前没有任何领域做出任何发现,能够产生当年大家声称的那些影响”。

这次理想破灭造成的低谷,后来被称为“第一次AI的寒冬”,导致AI领域的研究经费几乎被完全放弃。而鼓吹了许多“电子大脑”的泡沫的媒体,也失去了兴趣。

尽管八九十年代,还有一些不起眼的复兴,但AI差不多成了科幻小说家的专属领域,而计算机科学家们,干脆避免使用“人工智能”这个术语,以免被人当做“梦想家”。

第一次AI的寒冬,直到近十年新一代的研究者,发表了有关“深度学习”技术的成功应用的论文后,才完全消退。

虽然深度学习,本质上是与Rosenblatt的感知器类似的技术,是用了几十年的统计学原理,但越发强大的计算能力和大量的数据集,使得深度学习能够解决一些实际问题,如语音识别、图像识别和语言翻译等。

据报道,深度学习在研究者之间的评价,是“极其有效”,使得大学的机器学习课程暴增,各大公司也投入了几十亿美元,寻找熟悉新技术的人才,无数的创业公司,试图将AI应用在交通、医学、财务等领域。

随着AI的复活,媒体对AI的炒作,也在长时间的静寂之后恢复了。2013年,John
Markoff给纽约时报,写了一篇关于深度学习和神经网络的专题报道,标题是《像大脑一样的计算机,从经验中学习》。

图片 4

这篇文章不仅标题,让人回忆起60年前的那次媒体炒作,其中还包含了许多关于新技术,能做什么的断言。“在未来几年内,”Markoff写到,“这种方法可以促成新一代人工智能系统的诞生,这种系统能够轻易完成,人类能做到的一些事情,如看、说、听、移动、操作和控制等。”

从那以后,每天的新闻里,就充斥了大量耸人听闻的文章,如《AI大灾变》《人工大脑》《超级人工智能》和《可怕的Facebook人工智能机器人》等。

来自专家的批评

Lipton说,随着这些炒作愈演愈烈,研究人员对于媒体报道他们的研究成果的方式,也越来越失望,因为这些媒体,基本上不懂任何技术。

但Lipton认为更严重的问题,并不是媒体,对于技术的一无所知,而是社交媒体,对于那些自称是“AI话题领袖”的人的纵容,这些人只不过是在他们的Medium博客上,重复Elon
Musk的话,用TED式的低劣文章赚钱。

Lipton说,“真正的AI进步需要诚实、详尽的公开报告。但现在,报告环境完全混乱,已经没办法分辨,哪些才是重要的了。”

Lipton并不是第一个,对这种AI炒作表达担忧的人。去年,机器人先锋Rodney
Brooks,在MIT技术评论上,写过一篇文章,批评这种“关于人工智能的歇斯底里的疯狂”。

2013年,纽约大学教授Gary
Marcus,为纽约客杂志写了一篇文章,说这种炒作,会带来不切实际的期待,由此导致的幻象破灭,会引发另一次AI寒冬。

但对于Lipton而言,目前的疯狂,不太可能引发另一次寒冬,而是更有可能会让人无法分辨真正的问题。

他说:“人们害怕错误的事情。有的政策制定者,在讨论决策算法的歧视问题的会议上,认真地讨论过机器人的人权问题。但由于这个问题太实际,因此根本没有多少人感兴趣。”

2017年3月,Lipton开了自己的博客,希望能影响话题,并给那些伤害力最高的AI新闻辟谣。

目前,他已经指出了Vanity
Fair上一篇“低劣”的关于Elon Musk的文章,以及一篇关于Anthony
Levansdowski的所谓“AI教堂”的文章。

这个博客受到了一些媒体的关注,也有了一些读者,但Lipton知道他的影响力,依然十分有限。他说:“我们真正需要的是受过训练的记者和更多的结合。但在那之前,我的博客只可能是垃圾堆里的一块石子。我不可能改变潮流的方向。”

当前AI炒作的根本原因或因资源分布不均?

Joanne
McNeil,是一名以尖端技术为主的撰稿人,她也同意目前的科技撰稿人中,存在不思考、不学习的问题,她经常在Twitter上,取笑那些终结者式的文章。

但同时,她也厌倦了单方面批评那些撰稿人,认为当前的AI炒作的根本原因,是资源分布不均。

她说:“比较一下记者和AI研究人员的收入就知道了。记者们不可能像研究人员那样思考并写作的原因就很明显了。”

她还说,尽管许多研究人员,拒绝从炒作中获益,但作为一名希望认真对待科技的撰稿人,她感受到的只有痛苦。

“很少有媒体愿意发表有道理的文章,也很少有编辑,有能力编辑这种文章。如果AI研究人员真的关心,报道的思想性,他们应该联合起来,资助一家媒体,让撰稿人能为研究付出的时间,获得合适的收入。”

图片 5

尽管撰稿人和研究人员之间的紧密交流,还不在正确的方向上,但澳大利亚国立大学工程和计算机科学的一名教授Genevieve
Bell认为,消灭撰稿人对AI的炒作,是不可能的。

Bell解释说,这是因为关于电子大脑或Facebook的有害机器人的文章,并不是关于技术的,而是关于文化上的希望和焦虑的。

消灭AI炒作,是不可能的

“几千年来,我们一直在讲述不会动的东西活过来的故事,这些故事深深地影响了我们对现在的科技的解读。”Bell说,“专家们会迅速忽略人们对他们的研究成果的感受,但乌托邦式的希望和反乌托邦式的恐惧,已经成了对话的一部分。炒作实际上是一种文化扩张,它有它自己的重要地位。”

最终,Lipton认为,AI的投机文章,有存在的土壤,他也承认,想像和情感会引起对该领域的质疑。“但我依然认为,纯粹的投机和真正的研究之间的界限太脆弱了。”

他说,“历史已经告诉我们,我们必须关注这个边界,这样才能分辨出重要的问题和幻想之间的区别。”

style=”font-size: 16px;”>原文:https://www.theguardian.com/technology/2018/jul/25/ai-artificial-intelligence-social-media-bots-wrong

作者:Oscar Schwartz

译者:弯月,责编:胡巍巍 class=”backword”>返回搜狐,查看更多

责任编辑:

相关文章