半岛彩票未来还需要我们吗?这是计算机科学家比尔·乔伊(Bill Joy)著名的问题。 提出 几十年前。如果事情我们 在媒体上阅读有关 人工智能 可以相信,答案是 明确的“不”。 计算机 已经给我们的考试评分了, 帮助我们选择下一个YouTube视频,并决定我们可以在社交媒体上发布的内容; 他们很快就会做更多的事情,从 为庞大的军队提供动力 机器人 士兵安全地驾驶我们的汽车 和卡车。但仅仅因为像这样的机器似乎确实如此 聪明的东西,真的是聪明的吗? 而且,即使他们可以这样描述,他们的成长能力也是 一个确定的路标,通向一个多余的、人类愚蠢的未来?什么 究竟是人工智能,我们为什么要关心?
当然,要理解这样的定义,我们需要 稍微反思一下我们的意思 情报.什么时候 我们说某人“聪明”,通常我们的意思是他们很好 在聪明的,书本类型的东西,虽然你当然可以是一个聪明的人 足球运动员、糕点师或 几乎是其他任何事情。如果我们说某人“有才华”, 我们的意思是他们有某种天生的能力——天生的领先优势。 这使它们优于平均水平。
那么智力是什么意思呢?实际上,这是一种天赋 您可以根据需要选择部署的智能。你不是 只是聪明地成为一名律师或历史学家:你有一个 常规 资质 对于您可以以不同方式应用的东西 不同的时间。你就像一个可以扮演许多角色的演员。今天 您可能是世界一流的律师;明天,你可能会把手转过来 学习古典钢琴或成为国际象棋大师 主人。像演员一样,你有一个全面的天赋和一个 有意识的,自由意志的能力,可以扮演您选择的任何角色。所以 智力是一种支撑的通用思维人才 通过良好的记忆力,出色的语言和推理等品质 技能,与他人沟通的能力,经常 结合创造力、情感意识、道德、自我意识和 等等。一个聪明的人可能只擅长一个 事情(因为他们已经做了很长时间)和比目鱼 他们尝试别的东西; 一个聪明的人有潜力 擅长任何事情(或者,至少,许多不同的 事物),即使他们没有接受过明确的培训 事情。
照片:读地图、救火、开飞机、踢足球——这些事情中哪一项需要智力?他们都这样做。我们可以制造“聪明”的计算机或机器人来做所有这些事情,但它们可能仍然不是我们认为的“智能”。 然而,如果我们能制造出一台可以在没有任何人为干预的情况下完成所有这些事情的机器,甚至更多,那会是真正的“智能”吗?还是不止于此?照片由William Johnson,Christopher Quail,Trevor T. McBride和Trevor Cokley提供,均由 美国空军.
但“一般解决问题的能力”似乎很模糊 和对智力的毛茸茸的定义——有些人更喜欢 更具体。所以,在 心理学 (人类的科学 行为),你会发现不止几个人愿意定义 智力作为通过智力(IQ)测试的能力。那是一个 循环定义,但它并不像听起来那么愤世嫉俗。一 智力测试是特定的、众所周知的、众所周知的 研究。你可以做一个典型的智商测试,把它分解成所有 它包含的不同谜题。你可以一步一步地弄清楚 解决每一个问题的方法,并训练计算机如何做到这一点。给 您的计算机是智商测试,它应该得分很高,在 理论使其成为人工智能机器,至少通过 马文·明斯基的定义。嗯,没有。因为如果你给它一个 稍微不同的测试它没有经过训练,它可能会 不知道该做什么和失败, 没有任何破碎 人类在相同情况下会有的自我意识。还 我们可以说它具有智能机器的一些品质 或者一个聪明的人。
如果我们这样定义智能,它意味着带有人工的机器 智能将具有类似的通用问题解决能力 能力:它们在类似计算机中的行为可能像人类一样的大脑 盒。这种构思事物的方式有时被称为 强大的人工智能 或 通用人工智能 (AGI)这是最 当我们谈论智能机器时,人们认为我们的意思是:如果不是 人类的机器复制品,具有大部分(或全部)的机器 一个有思想的人的智力品质——有时是他们的情感 以及创作品质。
制造可以以巧妙方式运行的机器来解决的想法 具体的、有限的问题(如下棋、开车、 操作工厂机器人,或其他什么)被称为 弱人工智能 或 人工狭义智能 (阿尼)。大多数模糊的 我们遇到的“智能”计算机和机器人 这一刻属于这一类。像下棋的计算机 IBM的深蓝制造 世界头条 当它击败大师时 加里·卡斯帕罗夫(Gary Kasparov)早在1997年就被削弱了,但它的大部分聪明才智都下降了 暴力计算——想象一下它试图驾驶汽车 在高速公路上。出于同样的原因,自动驾驶的谷歌汽车看起来也是如此。 相当令人印象深刻,但不要指望他们会坐在国际象棋对面 很快登机。
强与弱,一般与狭隘,类人与机器, 聪明与聪明——有各种各样的方法 考虑人工智能的“程度”。我们可以 想象一个从简单、狭隘的人工聪明到天平的尺度 (叮当声,预编程,机器般的能力执行特定的 任务,例如 鲁姆巴 吸尘器在客厅里乱窜 没有任何意识自己在做什么);通过下棋 计算机、自动驾驶汽车和机器人可以拯救人们 灾区;直到一个至高无上的,通常是人为的 智能计算机,足够智能,可以重新编程, 认识到它的缺陷并设计出更好的版本,甚至 对自己在做什么有某种意识。
然而,许多人会争辩说,这不是一个简单的规模,AGI完全是 与 ANI 不同(质的不同),而不仅仅是“涡轮增压”ANI(数量上不同)。 如果这是真的,那绝对不是我们的最终目标应该是创造最多的。 一般来说,人工智能,类人的计算机我们可能 能;这就是关于人工智能的大部分争论陷入困境的地方。 我们的首要目标是了解我们的目标。如果我们想要一个 救援机器人 我们可以在紧急情况下部署 把人从 燃烧建筑物,它需要一系列有用的行为。它 可能不需要下棋、开车或说话 西班牙语,虽然它可以做的事情越多,显然它就越好 可以在不可预测的情况下即兴创作, 就像人类一样。
人工智能的一个目标就是做一些人类做得和他们做得很好的事情, 而不会纠结于尝试做人类所做的一切 比他们做得更好,或者完全像人类一样做。 “强”不会自动比“弱”好, 即使使用那些情绪化的词听起来如此。 弱是用词不当。没有什么“软弱”的 世界级的人类棋手,如果你想要的只是一个可以的人 下棋。一个“弱者” 鲁姆巴 机器人可以做一个非常好的工作 清洁地毯。 你可以对人工智能采取非常务实的方法,换句话说,没有 过度担心更广泛的哲学问题,即使 这些东西是哲学家们非常感兴趣的。在 换句话说,你可以对计算机进行编程,让他们不坐着下棋。 向下定义“智能”一词或担心 您的计算机将变得多么智能。重要的 事情就是忠于我们自己的目标,无论它们是什么。
人工智能经常被忽视的目标之一——至少在大众媒体中被忽视了——是 通过对机器如何的科学研究,阐明我们自己的大脑是如何工作的 可以模仿他们。自 1950 年代以来, 心理学 经历了一场“认知”革命,其中隐藏在我们头脑中的相当多的谜团被解开了 假设大脑以与计算机类似的方式处理信息的研究。人工智能研究 以类似的方式更多地阐明认知心理学和神经心理学:通过弄清楚机器如何 可能是 智能,我们更多地了解人类如何 已经 智能。
这个至关重要的问题就是艾伦·图灵(Alan Turing)在 他在1950年撰写的科学论文名为“计算机 和智力“,这催生了一位著名的科学 实验现在称为图灵测试(图灵自己称之为 “模仿游戏”)。基本思想是比较一个 人类和“智能”计算机可以通过相同的现实生活 测试:进行对话。实验者坐在房间里聊天 与某人,通过他们的电脑,坐在外面和外面 的视线。实验者不知道的是他们是否 与另一个人聊天或与编程为分析的计算机聊天 对话并像人一样回应。简单地说,如果 他们正在与电脑聊天,实验者认为他们在 与人类聊天,他们不如与 人类——在这种情况下,我们可以认为计算机是智能的。 实际上,图灵取代了抽象的问题“机器可以吗 思考?“以及更实际的问题”机器可以吗? 模仿人类?
图灵的测试是巧妙的。而不是在定义上争论 智力,它提供了一个简单的比较作为可接受的测试: 计算机可以冒充人类吗?我们可以合理地争辩 事实上,这不是一个有效的智力测试。这是一个考验 计算机科学家所谓的自然语言处理(NLP)以及相关的认知能力,如逻辑 推理、判断和记忆——但它是有用的测试 情报?也许这不是重点。如果我们的兴趣在于 开发“较弱”形式的人工智能,例如非常安全和 可靠的自动驾驶汽车,它们是否真的无关紧要 可以和人类聊天——也许我们可以认为他们是聪明的。 (有用的聪明)都一样?
为什么人类智能应该成为机器智能的标准? 为什么人类应该 定义 人类智慧是 尺度?如果我们比较一个专业设计和训练有素的人会怎样 自动驾驶汽车和一个有过几次驾驶的青少年 课。我们会认为这个少年不聪明吗,因为他们 不会也开车吗?你宁愿被谁驱动:一个人 谁可以通过一定分数的智力测试或专家 驾驶员,人还是机器,以最好的方式进行培训?
对图灵测试的一个反对意见是,它鼓励我们不要开发 智能机器,但只是可以通过图灵的机器 测试;不是开发“智能”机器,而是开发 如 似乎 人 尽可能。通过图灵测试 可能不是智能的全部和最终目的 在智商测试中得分高是学术的全部和最终目标 成功——或者说是对过上幸福和成功生活的预测。 在我们的世界上,我们需要做很多事情是没有的 必然需要通用的人类智能——也许 以最好的方式解决这些问题,而不是以最 人的方式,应该是我们真正的关注点吗?
即使一台机器可以通过图灵测试,这并不意味着它有任何 有意识地意识到自己在做什么或自己在做什么 自觉 把自己伪装成一个人(就像演员可能扮演的那样 角色)。你可以想象一台机器被赋予了一个巨大的数据库 任何人在整个过程中曾经进行过的每一个可能的对话 历史,所以它所要做的就是查一下人类对它说的话, 分析了已经说过的内容以建立一些背景, 从其几乎无限的曲目中提供合理的答案。
这是另一个叫做中国房间的思想实验的变体, 由哲学家约翰·塞尔于1980年设计,作为对 强人工智能的整体理念。他认为机器可以做某事。 显然非常聪明(例如举行图灵测试 对话)只是通过遵守规则而不了解什么 它以任何方式做。他想象这台机器就像一个 说英语的人坐在房间里被灌输句子 他们听不懂的中国人张贴在下面的纸上 门。这个人会在一本巨大的书中查找句子 规则,找到适当的响应,并将其传递回去 在同一扇门下。仅仅因为这个人可以完美无瑕 Searle认为,用中文回答问题并不意味着他们 了解他们在做什么。编程为 翻译中文与懂中文的人不同 并翻译为其副产品。
有些人同意塞尔的立场,强调他们认为 人工智能极客声称人类的计算机模型的荒谬性 行为本质上与他们的行为没有什么不同 模拟。其他人,如麻省理工学院机器人科学家罗德尼布鲁克斯,认为 这些论点是基于不可动摇的 (通常是不科学的)相信人类在某种程度上是特殊的。这使得整个论点基本上是循环的:机器不可能是智能的,因为人类是人类。 是 特殊;人类是特殊的,因为机器不可能 像他们一样聪明——或多或少就是这样。
如何构建一台会下棋的计算机?如果你下棋 你自己,你的策略可能是通过 考虑你可能做出的每一个动作,移动那些可能 导致,等等,沿着一棵树运行你的轻盈,猴子的头脑 可能性,直到你找出最有可能赢得的举动 游戏。如果你有无限的脑力,理论上你可以 考虑每一个可能的举动,并相应地对它们进行排名。但是,做数学,然后 你会发现可能的移动次数远远超出了限制 记忆和时间。根据马文·明斯基(Marvin Minsky)的说法,写到这个 问题早在 1966 年,我们谈论的是 10120 移动 而即使是像跳棋这样更简单的游戏也可以进入 1040 可能的举动。
我们的大脑无法处理这么多东西——或者类似的东西。所以 您(或计算机)无需考虑每一个可能的举动,而是可以 使用基本的经验法则缩小搜索范围, 把一个压倒性的问题变成你的大脑(或 处理器芯片)可以合理处理。这称为启发式 搜索。我们大多数人都适用的明显启发式 游戏情境,如果只是出于对人的考虑,我们是 玩,就是花 至少 一定的时间 寻找动作,但 不要太多.或者,变得越来越复杂, 您可以使用诸如试图控制中心之类的策略 板,识别某些键盘模式,或保留 像你的主教和女王这样的重要作品,以失败为代价 价值较低的作品。启发式搜索的关键点是它 在可用的时间内确定一个足够好的解决方案,而不是 试图找到唯一完美的结果。
启发式搜索非常适合逻辑棋盘游戏,如国际象棋、跳棋、 拼字游戏,等等,这涉及到考虑很多非常相似的 潜在的举动,但它在现实世界中有多大用处?您可以 想象一个人工智能应用程序,它搜索 数以千计的房屋和公寓出售或出租,以帮助您找到 最好使用启发式方法来缩小范围。而不是 向你展示一切,它可能会向你展示你拥有的房子 倾向于在一定的半径或价格范围内查看之前。 但是更复杂的问题呢,比如提供法律建议,弄清楚 一辆抛锚的汽车或诊断疾病有什么问题?
专家系统(有时称为基于知识的系统或 KBS) 是旨在超越简单搜索的计算机程序,并且 使用更详细的“如果X则Y”分析做出决策 和推理。通常,他们有一个从研究真实的人类中收集的知识数据库。 专家和一个单独的系统,可以通过浸入其中进行推理 知识。专家系统的局限性,它不是 总是一个问题,是在一个领域训练的计算机 知识(如法律建议或医疗诊断)对 我们在不同的领域。人类完全有可能改变 职业并从脑外科医生转变为公司律师, 但是专家系统的机器不能自愿做同样的事情 无需交换其数据库。确实,一些医学知识是 所以非常复杂, 如此 专家,即使是经过专家系统培训 在一个医学领域(例如,癌症)在另一个医学领域可能用途有限 医疗领域(急诊医学)。虽然人类也是如此 医生,关键区别在于人类专家倾向于识别 他们自己的局限性,知道什么时候寻求帮助;机器专家 不知道他们什么时候做出了不称职的决定。
机器学习是尖端人工智能的流行语之一,尽管它实际上是一个非常古老的词。 可以追溯到 1950 年代的术语。在实践中,它通常意味着 培训一个 神经网络 (非常松散地,一个大大简化的类脑结构的计算机模型,由称为“单元”的相互连接的细胞层组成)在数百万、数十亿或数万亿个例子上,所以它可以 快速识别或分类以前从未见过的东西。所以 经过训练,可以查看数百万张桌椅图片,它可以 告诉您以前从未见过的照片显示的是表格还是 椅子——这就是自动照片分类的方式 算法适用于您的手机。机器学习解释了谷歌如何 可以从搜索结果中过滤掉露骨的,如果您 不想让你的家人看到他们:在成人身上训练的算法 当人们上传照片时,照片可能会发现其他照片中的明显迹象 他们。机器学习也为自动化翻译奠定了基础 可以在谷歌上找到,必应, 和Skype。像这样的程序现在是如此 很好,他们可以将几乎任何语言转换为相当不错的语言 (至少可以理解)任何其他语言的翻译,没有 “理解”一个词;他们是很好的例子 塞尔的中式房间,除了他们能够在任何 你喜欢的舌头。
还有一些事情值得快速注意。虽然术语“机器学习” “神经网络”听起来像是源于心理学,它们与 复杂的数学和统计学。当我们谈论“神经网络”是“类似大脑的”时,这真的是 只是一个类比。神经中不一定有任何类似大脑的东西 网络(首先,像单行道和化学神经递质一样工作的突触是两个非常明显的区别)。什么神经机器学习和人脑 做 共同点是他们都 并行处理大量数据(或神经网络中的“伪并行”, 通常是在传统的串行计算机上实现的并行类脑结构模型)。
艺术品:人工智能计算机/机器人将如何爬树?左:它可以使用启发式搜索来考虑沿分支的一些最可能的路径;中:它可以使用一个关于树木和攀爬的知识专家系统数据库,以及一些IF...然后。。。通过推理得出最佳路线的规则;右图:使用机器学习,也许它可以分析数千张人们爬树的照片,以便在看到一张新的树照片时找出一条好的路线?
我在这里采用了一个相当武断的三向分类,纯粹是为了 一个易于理解的解释。但是您可以随心所欲地对 AI 进行分类。启发式搜索和专家系统是一些人称之为的例子 符号人工智能 或好的老式人工智能(GOFAI),并以经典的认知方式工作,就像我们绘制的“这个导致那个”流程图来解释简单的计算机程序一样。另一方面,机器学习以一种更平行的、类似大脑的、“连接主义”的方式进行,没有 明显的串行逻辑。符号人工智能系统通过使用有限数量的数据进行串行逻辑推理来解决问题, 而连接主义系统则对大量数据使用并行处理。
如果你正在尝试制造一辆可以救援的自动驾驶汽车或机器人 来自建筑物的人,您将使用三者的元素 以前类型的 AI 在不同的时间以不同的方式出现。所以混合系统 对曾经可能专门工作的研究人员越来越感兴趣 使用符号、串行 AI 或并行、连接主义、机器学习系统。 DeepMind的 雅达利游戏系统 是最近的一个混合体的例子 部分通过符号 AI 工作,部分通过神经网络工作的系统。
自动驾驶汽车依靠机器学习来解释图像。 他们实时行驶的街道。我们都见过那些谷歌 验证码测试,通过分类让我们证明我们不是机器人 消防栓、桥梁、自行车和出租车。这项工作是 谷歌训练机器学习系统识别的努力 他们的汽车以后可以进入的不同物体。但 驾驶不仅仅是识别物体;您还需要 识别和分析情况。例如,如果您正在开车 沿着你看到一个圆形的红色物体滚到路上,你 可能会想“哦,看,有一个球”,但你应该怎么做 真正认为是“那个球可能属于一个孩子,如果 球滚到路上,一个孩子可能就在它后面, 所以我 需要放慢速度并准备停下来”。这更像 专家系统决策。自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。
仅仅因为我们没有足够智能的计算机 在任何事情上与人类正面交锋,这并不意味着 我们在人工智能方面没有取得任何进展,因为正如我们所做的那样。 从已经看,强大的人工智能并不总是目标。环顾四周 现代世界,你会看到无穷无尽的应用,不那么壮观 (但仍然非常令人印象深刻)人工智能,包括事物 像Alexa,Siri和机器驱动的客户代理,自动库存 交易,亚马逊上的“您可能喜欢的东西”推荐和 eBay,在线广告软件,根据您的身份向您展示广告 是和你可能买什么,真空清洁 鲁姆巴 机器人 使用越来越智能的策略来提高清洁效率,以及 多。
在一个充满智慧人类的世界里,为什么 费心开发智能机器?这是我们自己的标志吗 我们认识到我们潜在的愚蠢的智慧 我们可以克服的限制吗?还是人类的另一个标志 傲慢——我们总是以某种方式认为我们可以做得更好 自然界?是“支持者”和“反对者”之间的争论 机器智能傲慢的两个不同方面: 人类是特殊的,因为我们 想 我们可以更好地开发机器 比我们自己,但不能...还是因为我们真的做不到而特别?是追求 对于人工智能来说,更像是对完美的追求 在漫长而艰难的棋局中移动...我们觉得这是 在某个地方,总是遥不可及?还是更像是一个 启发式搜索 在棋盘游戏中,快速,实用, 为有限的问题提供足够好的解决方案比等待更好 四处追求完美?
人工智能提出了各种哲学问题, 但它也引发了社会问题,比如智能工厂机器人是否如。 而机器学习计算机系统将把“智能” 失业的人。也有道德问题。例如 人们已经在问关于法律的难题 自动驾驶汽车的责任。如果你被车撞倒了 像这样在人行横道上,汽车在某种程度上是罪魁祸首吗?是 被动的“司机”双手坐在假方向盘上,责怪不干预? 或者即使他们在世界的另一端,设计师也应该受到指责? 如果机器人士兵意外杀死平民,责任是否止步于此 下达命令的将军或建造和 对机器进行编程?
情内容 或 可耻地错误分类了三名黑人青少年的照片. 在第二种情况下,在谷歌的算法将人标记为大猩猩之后,谷歌没有。 甚至费心试图解决这个问题:它只是停止了标记任何的算法 照片为大猩猩、黑猩猩或猴子。AI问题太难解决,所以 相反,他们解决了一个更简单的问题。
玛格丽特·博登教授 [9]当务实的计算机科学家继续建造更聪明的机器时,哲学家们继续在本质上相同的陈旧问题上与无休止的变化作斗争:如果巧妙(或蛮力)计算“聪明”(人工智能的蛋糕)不能复制典型的,它是否可以真正复制人类的“智能”, 更微妙的人类品质,如理解、同理心、道德、情感、创造力、自由意志和意识(最重要的糖衣)。也许理解计算“聪明”和人类“智能”之间的区别才是真正的图灵测试?
从长远来看,人类是否面临超智能AGI机器的威胁 - 或者这只是科幻小说中的废话,就像怀疑论者一样。 休伯特·德雷福斯 半个多世纪前在争论吗?这些想法是否危险地分散了人们对一个更合理的威胁的注意力:随着机器学习类型的算法在完成我们曾经认为绝对人类的工作时变得越来越“聪明”,有多少人的生计处于危险之中?陪审团仍然存在分歧。像比尔·乔伊(Bill Joy)这样的悲观主义者警告说,人工智能是潘多拉的盒子,而乐观主义者,如人工智能“先知”雷·库兹韦尔(Ray Kurzweil),则把目光投向奇点——实际上是机器超越人类智能的地方——以及一个大胆、美好的未来,在那里,“愚蠢的”、棘手的人类问题,如战争和贫困,被聪明的机器巧妙地扫除了。与此同时,麻省理工学院的罗德尼·布鲁克斯(Rodney Brooks)等务实的机器人科学家认为,机器智能只是最新的人类技术。 这有助于人们克服他们过于人性化的局限性:”我们将成为肉体和机器的融合。我们将拥有最好的机器性,但我们也将拥有我们的生物遗产,以增强我们迄今为止开发的任何机器技术水平。 [10]
1637年:想知道可能性 可以模仿人的机器,法国哲学家勒内·笛卡尔 确信我们总能分辨出其中的区别。他 图灵测试的预测超过300年,他写道:“如果 有些机器与我们的身体相似, 在道德上可能的范围内模仿我们的行为,我们 应该始终有两个非常确定的测试来识别 尽管如此,他们都不是真正的男人。 从广义上讲,他认为1)机器不能对所有事情做出反应。 你可以对他们说或 2) 预测并应对他们可能遇到的每种情况。 [11]