【CSDN编者按】真是天下乌鸦一般黑,原来国外媒体为了博眼球,也会各种浮夸和杜撰。 虽然人工智能(AI)是当今最">
或是长久不会停止,智能AI的来源
分类:科学技术

原标题:你讨厌的AI炒作,也许永远不会停止

介绍

style="font-size: 16px;">【CSDN编者按】真是天下乌鸦一般黑,原来国外媒体为了博眼球,也会各种浮夸和杜撰。

虽然人工智能(AI)是当今最受欢迎的话题之一,但人们普遍遗忘的一个事实是,它实际上诞生于1950年,并在1956年至1982年期间经历了一个炒作周期。这篇文章的目的是强调在这个周期的繁荣阶段所取得的一些成就,并解释导致其萧条期的原因。从这个宣传周期中吸取的教训不应该被忽视——它的成功形成了今天使用的机器学习算法的原型,它的缺点指出了在有前景的研究和开发领域过度热情的危险。

图片 1

图片 2

去年六月,Facebook的五名人工智能研究人员,发表了一篇文章,演示了机器人可以像人类交涉一样进行对话。

开创性的问题

尽管大部分情况下,机器人能够维持连贯的对话,但研究人员发现,软件偶尔会生成一些奇怪的句子,如“Balls have zero to me to me to me to me to me to me to me to”这种。

虽然第一代计算机是在第二次世界大战期间发展起来的,但似乎真正激发人工智能领域的是艾伦·图灵在1950年提出的一个问题:机器能模仿人类智能吗?在他的重要论文《计算机器与智能》中,他设计了一款名为“模仿游戏”的游戏,其中一个人、一台电脑和一个(人类)审讯者在三个不同的房间里。审讯者的目标是通过问他们一系列问题和阅读他们的打字回答来区分人类和计算机。计算机的目的是让询问者相信它是人。在1952年BBC的一次采访中,图灵建议,到2000年,在5分钟的会议之后,一般的审讯人员只有不到70%的几率能正确地识别出人类。

看到这些结果,研究团队意识到他们没能将机器人生成的句子,限制在人类英语口语上,从而使得机器人,创造了一种“机器人英语”用来互相沟通。该领域的其他专家认为,这个发现非常有趣,但并不是完全出乎意料的。

图灵并不是唯一一个询问机器是否能模拟智能生命的人。1951年,马文·明斯基(Marvin Minsky),一名受早期神经科学研究启发的研究生,他指出大脑是由一个神经网络组成的,它的神经网络由全或无脉冲的脉冲组成,试图通过计算模型来模拟老鼠的行为。在与物理系研究生Dean Edmonds的合作下,他建立了第一个神经网络计算机。虽然原始(由大约300个真空管和马达组成),但它成功地模拟了老鼠在小迷宫中寻找食物的行为。

媒体的疯狂

有可能创造出一台智能机器的想法确实是诱人的,并导致了后来的几项发展。例如,Arthur Samuel在1952年建立了一个象棋程序,这是世界上第一个自学程序。后来,在1955年,Newell, Simon和Shaw建立了逻辑学家,这是第一个模仿人类解决问题能力的程序,并最终证明了在Whitehead和Russell的数学原理中,第一个52个定理中的38个。

在最初的研究论文发表一个月之后,Fast Company发表了一篇标题为“AI发明了人类无法理解的语言,我们该阻止它们吗?”的文章。这篇文章几乎通篇都在关注机器人,从标准英语衍生出机器人英语的过程,而这并不是那篇论文的主要发现。文章还说,研究人员“在意识到机器人用新的语言交谈”之后,他们决定中止整个试验,因为机器人似乎已经失控了。

繁荣时期的开始

Fast Company的文章迅速走红,传遍了互联网,使得一群饥渴的媒体,进一步加深了这种弗兰肯斯坦式(弗兰肯斯坦是玛丽·雪莱创作的长篇小说《弗兰肯斯坦》中的人物,是一个疯狂的科学家。后来用以指代“顽固的人”或“人形怪物” )的描述。

在这些成功的鼓舞下,年轻的达特茅斯大学教授约翰·麦卡锡于1956年组织了一次会议,召集了20名先锋研究人员,“探索制造一种能够像人类一样推理的机器,能够抽象思考、解决问题和自我提高”。在他1955年提出的这个会议上,“人工智能”这个词被创造出来,在这个会议上,人工智能获得了它的愿景、使命和宣传。

图片 3

研究人员很快就开始大胆地宣称,强大的机器智能已经开始了。许多人预计,像人类一样聪明的机器将不会超过一代人的时间。

某个网站这样写道:“Facebook的工程师们慌了,他们在机器人发展了自己的语言后,拔掉了AI的插头。”

例如:

唯恐落后的The Sun,也评论说“他们几乎组装了终结者的蓝图,机器人开始有自我意识,准备开始对人类发起战争了”。

1958年,西蒙和纽维尔说,“十年之内,一台数字计算机将成为世界象棋冠军”,“十年之内,一台数字计算机将发现并证明一个重要的新数学定理”。

卡耐基梅隆大学机器学习领域的助理教授Zachary Lipton,哭笑不得地看着整个事件,逐渐从“有趣的研究”变成了“耸人听闻的垃圾”。

在1961年,明斯基写道,“在我们的有生之年,机器可能会在一般智力上超越我们”,1967年,他重申:“我相信,在一代人的时间内,很少有智力的空间会停留在机器的领域之外——创造‘人工智能’的问题将会得到充分的解决”。

据Lipton说,最近的流行话题,如“机器学习”、“深度学习”等,带动了一大波投机的撰稿人,他们为了赚取点击量,而误读研究的结果,Lipton称这种现象为“AI曲解流行病”。

在我们的有生之年,机器可能会超越我们人的智慧——马文·明斯基,1961。

越来越多的这一领域的研究者们,都有与Lipton同样的担忧,他们担心像Facebook文章中,那种关于AI的不准确的投机文章,会导致人们,对该领域的不切实际的期待,最终会威胁未来的研究进展、和新技术的应用。

人工智能甚至引起了好莱坞的注意。1968年,阿瑟·克拉克和斯坦利·库布里克制作了电影《2001:太空漫游》,他的对手是一台人工智能的电脑,HAL 9000展示了创造力、幽默感和对威胁生存的人的阴谋。这是基于图灵、明斯基、麦卡锡和其他许多人所持的信念,即这种机器将在2000年以前存在;事实上,明斯基曾担任这部电影的顾问,其中一个角色维克多·卡明斯基(Victor Kaminski)以他的名字命名。

媒体上关于计算机智能的的夸大,并非我们这个时代独有,实际上从出现计算机的那一天就有了。

人工智能的子领域诞生了

媒体的疯狂从未停息

1956年至1982年间,人工智能在智能领域的蓬勃发展,催生了人工智能的几个子领域。这一研究的大部分成果,导致了现代人工智能理论的第一个原型。

1946年2月,公交车那么大的笨重的ENIAC,在一次媒体发布会上,被展示给媒体,记者们对它的描述是“电子大脑”“数学弗兰肯斯坦”“天气预报控制机”、以及“巫师”。

基于规则的系统

为了给媒体的炒作降温,英国物理学家D. R. Hartree,在自然杂志上发表了一篇文章,用直观易懂的方式,描述了ENIAC的工作原理。

基于规则的专家系统试图通过执行一系列“if- - -else”规则来解决复杂的问题。这种系统的一个优点是,它们的指令(当程序看到“如果”或“else”时应该做什么)是灵活的,可以由编码器、用户或程序本身修改。这类专家系统是由Feigenbaum和他的同事在上世纪70年代创建和使用的,其中许多是当今人工智能系统的基础模块。

图片 4

机器学习

ENIAC

机器学习领域是由Arthur Samuel在1959年创造的,他说:“研究的领域使计算机能够在不被明确编程的情况下学习”。机器学习是一个广阔的领域,它的详细解释超出了本文的范围。本系列的第二篇文章——参见第一页的序言和——将简要讨论它的子字段和应用程序。然而,下面我们给出一个机器学习程序的例子,称为感知器网络。

然而令他大跌眼镜的是,伦敦泰晤士报根据他的研究,发表了一篇文章,标题是《电子大脑:能解决最困难的问题,而且还有记忆》。

机器学习是一门研究领域,它使计算机能够在不被明确编程的情况下学习——亚瑟·塞缪尔,1959年。

Hartree立即给编辑发了一封信,指出“电子大脑”这个词十分有误导性,并强调机器“不能代替人类的思维”。然而危害早已产生了,ENIAC在媒体中,永远地留下了“电脑”这个词。

单层和多层感知器网络

在美国,康奈尔航空实验室的工程师Frank Rosenblatt的故事,也十分相似。他在1958年,发表了一篇,关于基础机器学习算法的文章,即“感知器”。

根据McCulloch和Pitts在1943年和Hebb在1949年的工作,Rosenblatt在1957年引入了感知器网络作为一个人工神经元的通信模型。这个模型如图5所示,可以简单地描述如下。输入变量被输入的一层顶点连接到一个隐藏的顶点层(也称为感知器),它反过来连接到感知器的输出层。一个信号通过连接从输入顶点到感知机在隐藏层中,通过与该连接相关的“重量”来校准,这个重量是在一个“学习过程”中分配的。从隐藏层感知器到输出层感知器的信号以类似的方式进行校准。就像人类神经元一样,如果所有传入信号的总重量超过指定的电势,感知器就会“触发”。然而,与人类不同,这个模型中的信号只传输到输出层,这就是为什么这些网络通常被称为“前馈”。感知机网络只有一个隐藏的感知机层(即后来又被称为“浅”人工神经网络。尽管浅层网络的能力有限,Rosenblatt成功地创建了一个单层感知器网络,他称之为“创建的Mark 1”,能够识别基本的图像。

尽管“感知器”只能被训练成,识别有限的几个模式,但纽约时报发表的文章,称该算法是个能“自学”的“电子大脑”,而且终有一天,能够“走路、说话、看见、写字,还能自我繁殖、并拥有自我存在的意识”。

如今,人们的兴奋之处在于“深层”(两个或更多隐藏的层)神经网络,这些神经网络在20世纪60年代也被研究过。实际上,深度网络的第一个通用学习算法可以追溯到1965年Ivakhnenko和Lapa的工作。Ivakhnenko在1971年曾考虑过深度为8层的网络,当时他还提供了一项训练他们的技术。

人类低估了用机器模拟人类大脑的难度

自然语言处理(NLP)

尽管有关AI的炒作,给大学和军方的研究人员,带来了资金,但在六十世纪末,许多AI的前沿学者,意识到他们低估了用机器模拟人类大脑的难度。

1957年,乔姆斯基用通用语法改革了语言学,这是一种基于规则的理解语法的系统[21]。这形成了第一个模型,研究人员可以使用它在20世纪60年代创建成功的NLP系统,包括SHRDLU,一个使用小词汇表的程序,并且能够部分地理解特定领域的文本文档[22]。在20世纪70年代早期,研究人员开始编写概念本体,即允许计算机解释单词、短语和概念之间的关系的数据结构;这些存在论现在广泛应用于。

1969年,Marvin Minsky与Seymour Papert,合著了一本书,证明了Rosenblatt的感知器,并不能完成专家们承诺的功能,距离媒体所谓的智能也相去甚远,而此时距离Marvin Minsky宣称机器能在他的有生之年超过人类的说法,仅仅过去了八年。

语音识别和语音处理

Minsky和Papert的书,给研究社区带来了无尽的怀疑,并且传染到了其他领域,一时间AI的神话似乎破灭了。

1952年,美国电话电报公司贝尔实验室的三名研究人员首次提出了一种计算机是否能识别语音的问题,当时他们为单个扬声器建立了一个独立的数字识别系统。这个系统在20世纪60年代后期得到了极大的改进,当时Reddy创建了Hearsay I,这个程序的准确性很低,但却是第一个将大量的词汇连续语音转换成文本的程序。1975年,他的学生贝克和贝克创建了“龙”系统,通过使用隐马尔可夫模型(HMM)进一步改进了Hearsay I,这是一个统一的概率模型,允许他们组合各种来源,如声学、语言和语法。今天,HMM仍然是一个有效的语音识别框架。

1972年,哲学家Hubert Dreyfus,发表了一篇关于机器思想的影响深远的文章,题为《计算机不能做什么》。一年以后,英国数学家James Lighthill,发表了一篇关于机器智能的报告,其结论称“目前没有任何领域做出任何发现,能够产生当年大家声称的那些影响”。

图像处理和计算机视觉

这次理想破灭造成的低谷,后来被称为“第一次AI的寒冬”,导致AI领域的研究经费几乎被完全放弃。而鼓吹了许多“电子大脑”的泡沫的媒体,也失去了兴趣。

在1966年的夏天,明斯基在麻省理工学院雇佣了一名大一的本科生,并要求他解决以下问题:将一台电视摄像机连接到一台电脑上,然后让机器描述它所看到的东西。其目的是从图像中提取出三维结构,从而使机器人的感觉系统能够部分地模仿人类的视觉系统。20世纪70年代早期的计算机视觉研究为今天存在的许多算法奠定了基础,包括从图像中提取边缘,标记线和圆圈,以及在视频中估计运动。

尽管八九十年代,还有一些不起眼的复兴,但AI差不多成了科幻小说家的专属领域,而计算机科学家们,干脆避免使用“人工智能”这个术语,以免被人当做“梦想家”。

商业应用

第一次AI的寒冬,直到近十年新一代的研究者,发表了有关“深度学习”技术的成功应用的论文后,才完全消退。

上述理论的进步导致了一些应用,其中大部分在当时的实践中没有被使用,但为以后的商业应用奠定了基础。下面将讨论其中的一些应用程序。

本文由威尼斯网址开户网站发布于科学技术,转载请注明出处:或是长久不会停止,智能AI的来源

上一篇:没有了 下一篇:没有了
猜你喜欢
热门排行
精彩图文