新物网

当前位置:首页 > 科技

科技

当人工智能变得有意识时,然后呢?

时间:2024-01-15 18:32:49
为什么我们会认为一个人工智能机器可以变得有意识呢?为了让人工智能计算机变得有意识,功能主义必须是正确的。在不久的将来,即使没有确凿的理由相信未来机器真的有意识,但人工智能和机器人技术的发展完全有可能带来看似是有意识的新技术。或许让我们最接近人工合成意识的是生物技术,而不是人工智能。

当人工智能变得有意识时,然后呢?

16 世纪末,在布拉格,拉比犹大·勒夫·本 (Rabbi Judah Loew ben) 从伏尔塔瓦河畔收集粘土,并用这些粘土塑造了一个人形——傀儡。 这个傀儡被称为约瑟夫或约瑟夫利,是为了保护拉比的人民免受反犹太主义大屠杀而创造的,并且显然在这方面非常有效。 一旦被魔法咒语激活,像约瑟夫这样的傀儡就会移动、有意识、并且听话。 但约瑟夫出了严重的问题,他的行为从愚蠢的服从变成了可怕而暴力的屠杀。 最终,拉比成功打破了他的咒语,他的傀儡在犹太教堂的地面上摔成了碎片。 有人说傀儡的遗骸仍然隐藏在布拉格,也许在墓地,也许在阁楼,也许耐心等待复活。

拉比犹大的傀儡让我们想起了当我们试图塑造聪明、有感知力的生物时所招致的傲慢——按照我们自己的形象或上帝的想法创造的生物。 这些尝试大多进展并不顺利,结果也不尽如人意。 从玛丽·雪莱的弗兰肯斯坦的怪物到《机械姬》中亚历克斯·加兰的艾娃,再到卡雷尔·恰佩克)的同名机器人、詹姆斯·卡梅隆的《终结者》、雷德利·斯科特(斯科特)的《银翼杀手》克隆人、斯坦利·库布里克的(HAL),这些创作几乎将总是攻击它们的创造者,最终以毁灭、悲伤和哲学混乱告终。

过去十年左右人工智能的迅速崛起给机器意识问题带来了新的紧迫性。 人工智能现在就在我们身边,内置于我们的手机、冰箱和汽车中,在许多情况下由受大脑结构启发的神经网络算法提供支持。 人们有理由担心这项新技术的影响。 它会抢走我们的工作吗? 它会瓦解我们社会的结构吗? 最终,无论是由于其初生的自身利益还是缺乏编程远见,导致地球上的所有资源都变成了一堆无用的回形针,它会毁灭我们所有人吗? 这些担忧,尤其是那些更具存在主义和世界末日意义的担忧,背后是这样一种假设:人工智能将在其加速发展的某个时刻变得有意识。 这就是硅基傀儡的神话。

我们怎样才能让机器有意识? 有意识的机器会对人类产生什么影响? 我们如何区分有意识的机器和僵尸机器?

为什么我们认为人工智能机器可以变得有意识? 正如我刚才提到的,人们普遍认为(尽管这绝不是普遍的)一旦机器通过了一些未知的智能阈值,意识就会自然出现。 但这种直觉从何而来? 我认为有两个关键假设在起作用,但都没有道理。 第一个假设是关于任何事物要有意识所必需的。 第二个问题涉及特定事物具有意识的充分条件。

第一个假设,即必要条件,是功能主义。 功能主义认为,意识并不依赖于系统的构成成分,无论是湿件还是硬件,无论是神经元还是硅逻辑门,还是伏尔塔瓦河的粘土。 功能主义认为,对意识来说重要的是系统做什么。 如果一个系统以正确的方式将输入转换为输出,那么它就是有意识的。 正如我在第一章中所解释的,这里有两个单独的声明。 第一个是关于任何特定基材或材料的独立性,而第二个是关于“输入-输出”关系的充分性。 大多数时候他们在一起,但有时他们却分开。

功能主义是心灵哲学家中流行的观点,并且经常被许多非哲学家视为默认立场。 但这并不意味着它是正确的。 在我看来,对于意识独立于基质,或者意识只是“信息处理”的输入输出关系的立场,没有确凿的论据支持或反对。 我对功能主义的态度是一种怀疑的不可知论。

为了让人工智能计算机变得有意识,功能主义必须是正确的。 这是必要条件。 但仅仅功能主义是正确的还不够。 信息处理本身对于意识来说是不够的。 第二个假设是,足以产生意识的信息处理也是智力的基础。 这是一个假设,即意识和智力密切相关,甚至是本质上联系在一起的,意识只是出现而已。

但这一假设并没有得到很好的支持。 正如我们在前一章中看到的,将意识与智力混为一谈的倾向可以追溯到有害的人类中心主义,即我们通过扭曲的价值观和经验来过度解释世界。 我们是有意识的,我们是聪明的,我们是一个如此特殊的物种,我们为自己拥有智慧而感到自豪,以至于我们相信智力与我们的意识状态有着千丝万缕的联系,反之亦然。

尽管智力为有意识的有机体提供了丰富的意识分支状态菜单,但认为智力(至少在其高级形式中)对于意识来说是必要或充分的是错误的。 如果我们坚持认为意识本质上与智力相关,我们可能会太快地将意识归因于看似智能的人造系统,也可能太快地否认意识源自其他系统(例如其他动物),因为这些系统失败了以满足我们对人类认知能力的可疑标准。

在过去的几年里,这些关于必要性和充分性的假设被许多其他的担忧和误解所掩盖和排除,给人工意识的前景带来了紧迫感和世界末日的前景。 这并不是什么值得紧张的事情。

以下是其中一些担忧。 人们担心人工智能,无论是否有意识,正在超越人类智能,超出我们的理解和控制范围。 这就是所谓的“奇点”假说,由未来学家雷·库兹韦尔(Ray )提出,并受到过去几十年原始计算资源惊人增长的推动。 我们处于指数增长曲线的哪个位置? 正如我们许多人在最近的冠状病毒大流行中了解到的那样,指数曲线的问题在于,无论你站在指数曲线的哪个位置,前面的路看起来都异常陡峭,而后面的路看起来平坦且无关紧要。 你无法从原来的角度判断自己在哪里。 然后是我们的普罗米修斯式恐惧,即我们的创造物会以某种方式攻击我们,这种恐惧已在许多科幻电影和书籍中被认识、重新包装并卖回给我们。 最后,一个不幸的事实是,在谈论机器的能力时,“意识”这个词经常被毫无用处地使用。 对于一些人,包括一些人工智能研究人员来说,任何对刺激做出反应、学习某些东西或采取行动以最大化奖励或实现目标的行为都被认为是有意识的。 对我来说,这是对“意识”合法含义的荒谬过度延伸。

将所有这些因素放在一起,就不难看出为什么许多人相信有意识的人工智能即将出现,并且我们应该非常担心它到来时会发生什么。 不能完全排除这种可能性。 如果奇点论被证明是正确的,那么我们确实应该担心。 但从目前的情况来看,这种可能性微乎其微。 更有可能出现如图 13.1 所示的情况。 在这里,意识不是由智力决定的,智力可以在没有意识的情况下存在。 两者都有多种形式,并且都以许多不同的维度表达,这意味着意识和智力都不是单维度的。

在图13.1中,你会发现目前的人工智能在智能维度上还处于相当低的水平。 这是因为目前尚不清楚当前的人工智能系统是否具有任何有意义的智能。 当今的人工智能大部分被描述为复杂的基于机器的模式识别,可能还涉及一些规划。 无论智能与否,这些系统只是在没有有意识的思考的情况下做它们应该做的事情。

展望未来,许多人工智能研究人员宣称的“登月”目标是开发具有人类水平通用智能能力的系统,即所谓的“人工通用智能”或“通用人工智能”。 除此之外,还有奇点后智能的未知领域。 但没有理由认为意识只是在此过程中出现的。 更重要的是,可能有许多形式的智能偏离了类人智能,它们补充而不是取代或扩展了我们物种独特的认知工具,而这些工具又不涉及意识。

也许某些特定形式的智能在没有意识的情况下就不可能存在,但即便如此,这并不意味着所有形式的智能(一旦它们通过了一些未知的阈值)都需要意识。 相反,如果智力的定义足够广泛,那么所有有意识的实体都可能至少有一点智力。 当然,需要再次指出的是,这并不能证明智力是通向意识的捷径。

仅仅让计算机变得更聪明并不能让它们拥有感知能力。 但这并不意味着机器意识是不可能的。 如果我们从一开始就尝试以有意识的方式设计机器会怎么样? 如果智能不能使机器有意识,那么如何创造一台有意识的机器呢?

这个问题的答案取决于你认为什么足以让一个系统有意识,而这又取决于你支持哪种意识理论。 因此,对于如何让机器有意识存在多种观点也就不足为奇了。

在更宽容的一端,那些赞同功能主义观点的人认为,意识只是处理正确类型的信息的问题。 这种信息处理不一定等同于“智能”,但它毕竟是信息处理,所以可以在计算机上实现。 例如,根据《科学》杂志 2017 年发表的一项提案,如果机器处理信息的方式涉及其“全球可用性”并允许对其性能进行“自我监控”,则可以被认为是有意识的。 作者对于这样的机器是否真的有意识或者只是表现得像它的行为含糊其辞,但潜在的主张是意识除了正确的信息处理之外不需要任何东西。

信息整合理论的倡导者对有意识的机器提出了更强有力的主张。 正如我们在第三章中看到的,信息整合理论认为意识只是整合信息,系统产生的整合信息量完全由其内部机制的性质决定,即由其“因果结构”决定。 根据信息整合理论,任何产生整合信息的机器,无论它由什么材料制成,无论它的外表是什么样子,都将具有一定程度的意识。 然而,信息整合理论也存在这样的可能性:对于外部观察者来说,机器可能看起来有意识,或智能,或两者兼而有之,但其机制根本无法产生整合信息,它们也完全缺乏意识。

这两种理论都不将意识等同于智能,但都认为满足某些条件(正确的信息处理方式,或信息的非零整合)的机器将具有意识。 但要接受这些含义,当然也有必要接受这些理论。

野兽机器理论将世界和自我的体验建立在生理完整性(即生存)的生物驱动力之上。 这个理论对机器意识的可能性有何看法?

想象一下在不久的将来有一个机器人,它具有硅基大脑和配备各种传感器和效应器的人形身体。 该机器人由基于预测处理和主动推理原理设计的人工神经网络控制。 流经其电路的信号实现了其环境和自身身体的生成模型。 它不断使用该模型对其感官输入的原因进行贝叶斯最佳猜测。 按照设计,这些合成的受控(和控制)幻象旨在使机器人保持最佳功能,使其依靠自己的本能“活着”。 它甚至具有人工内感受输入,可指示其电池电量以及执行器和合成肌肉的完整性。 对这些内感受输入的以控制为导向的最佳猜测会产生一种综合的情绪状态,从而激励和指导其行为。

机器人自主行动,在正确的时间做正确的事情以实现其目标。 通过这样做,它给人一种聪明、有感知力的主体的外在印象。 在内部,它的机制直接映射到预测机制,而预测机制是我提出的人类体现和自我的基本体验的基础。 这是一台硅基机器。

这样的机器人会有意识吗?

一个不太令人满意但诚实的答案是,我不确定,但答案可能是否定的。 野兽机器理论认为,人类和其他动物的意识是在进化过程中产生的,随着我们每个人的发展而逐渐出现,并以与我们作为生命系统的地位密切相关的方式时刻运作。 我们所有的经历和感知都源于我们作为自我维持的生命机器的本性,与自我的持久性有关。 我的预感是(再说一遍,这只是预感)生命的物质性将被证明对意识的所有表现都很重要。 原因之一是,生命系统的调节和自我维护的需要并不局限于某一层面,例如整个身体的完整性。 生命系统的自我维护一直延伸到单个细胞的水平。 随着时间的推移,您体内的每个细胞(或任何身体中的每个细胞)都会不断地再生维持其自身完整性所需的物质。 但目前或不久的将来的任何计算机都不是这种情况,甚至是像我刚才描述的那样的基于硅的机器野兽。

这并不意味着单个细胞有意识,也不意味着所有生物都有意识。 要点是,在野兽机器理论中,支撑意识和自我的生理调节过程是由可以“彻底分解”的基本生命过程引导的。 从这个角度来看,是生活,而不是信息处理,为僵化的公式注入了意识之火。

即使真正有意识的机器还很遥远(如果它们有可能的话),仍然有很多事情需要担心。 在不久的将来,即使没有确凿的理由相信未来的机器实际上会有意识,人工智能和机器人技术的发展也完全有可能会带来看起来有意识的新技术。

在亚历克斯·加兰 2014 年的电影《机械姬》中,隐居的亿万富翁科技天才内森邀请才华横溢的程序员加勒到他偏远的藏身处与他创造的智能机器人艾娃互动。 见面。 加勒的任务是弄清楚艾娃是否有意识,或者她是否只是一个没有任何内在生命的智能机器人。

《机械姬》很大程度上借鉴了图灵测试,这是评估机器是否能够思考的著名标准。 在一个揭露真相的场景中,内森向加勒询问测试的情况。 加勒知道,在图灵测试的标准版本中,人类裁判只需交换键入的信息即可远程询问候选机器人和另一个人。 当裁判始终无法区分人与机器时,则认为机器通过了测试。 但内森有一个更有趣的想法。 谈到艾娃,他说:“真正的挑战是向你展示她是一个机器人,然后看看你是否仍然觉得她有意识。”

这款新游戏将图灵测试从智力测试转变为意识测试,正如我们现在所知,这是非常不同的现象。 更重要的是,加兰向我们展示了这个测试与机器人根本无关。 正如内森所说,重要的不是艾娃是否是一台机器,甚至是否作为一台机器有意识。 重要的是艾娃是否让一个有意识的人认为她(它)是有意识的。 内森和加勒之间的交流的有趣之处在于,它揭示了这种测试的真正含义:这是对人的测试,而不是对机器的测试。 图灵最初的测试和加兰的 21 世纪意识导向测试都是如此。 加兰的对话如此巧妙地抓住了将意识赋予机器的挑战,以至于“加兰测试”一词现在开始受到关注——这是科幻小说反馈科学的罕见例子。

许多简单的计算机程序,包括各种聊天机器人,现在都声称已经“通过”图灵测试,因为足够比例的人类裁判被愚弄了足够长的时间。 同样在 2014 年,还有一个特别奇怪的例子,每 30 名人类裁判中就有 10 名被误导,认为假装成 13 岁乌克兰男孩的聊天机器人实际上是真正的 13 岁乌克兰男孩。 这导致人们声称人工智能的一个长期里程碑终于被超越了。 但冒充一个英语很差的外国青少年肯定比成功冒充与你年龄、语言和文化相同的人更容易,尤其是在只允许远程文本通信的情况下。 当聊天机器人获胜时,它的反应是“我觉得我以一种非常简单的方式通过了图灵测试”。 把标准降低这么多,考试肯定会更容易通过。 这是对人类轻信程度的考验,但人类失败了。

随着人工智能不断进步,如果没有这种人为降低标准,图灵测试可能很快就能通过。 2020 年 5 月,该研究实验室发布了 GPT-3,这是一个巨大的人工神经网络,使用从互联网上大量获取的自然语言示例进行训练。 除了参与聊天机器人对话之外,GPT-3 还可以在提示前几个单词或文本行时生成许多不同样式的文本段落。 尽管 GPT-3 不理解它生成的内容,但它输出的文本的流动性和复杂性令人惊讶,甚至让一些人感到害怕。 它在《卫报》上发表了一篇 500 字的文章,讲述为什么人类不应该害怕人工智能——主题从人类暴力心理学到工业革命,其中包括那些令人不安的话语:“人工智能不应该浪费时间去理解人工智能。”那些不信任人工智能的人的观点。”

尽管 GPT-3 很复杂,但我相当确定任何相当复杂的人类对话者仍然可以发现它。 GPT-4 或 GPT-10 可能并非如此。 即使未来的类似 GPT 的系统反复击败图灵测试,它也只会表现出一种非常狭窄的(模拟)智能(非具身语言交流),而不是我们在人类和许多其他动物身上看到的智能。 那种充分体现“在正确的时间做正确的事”的自然智能,就像我假设的硅基野兽机器一样。

就意识而言,乌克兰的聊天机器人是无与伦比的,更不用说像 GPT 这样的机器人了。 加兰测试保持不变。 事实上,尝试创造有感知力的人类拟像常常会导致焦虑和厌恶的感觉,而不是像《机械姬》中加勒对艾娃所感受到的吸引、同情和怜悯的复杂混合体。

日本机器人学家石黑浩花了数十年时间建造与人类尽可能相似的机器人。 他称它们为“双胞胎机器人”。 石黑一雄已经创造了看起来像他自己和他的女儿(当时 6 岁)的双胞胎机器人,以及基于约 30 个不同人的混合体的机器人电视主播。 每个 机器人均由详细的 3D 身体扫描构建而成,并配备气动执行器,能够产生丰富的面部表情和手势。 这些设备几乎没有人工智能——它们都是关于人类的模仿,可能的应用包括远程呈现或“远程呈现”。 石黑一雄曾用他的 机器人为 150 名大学本科生进行了 45 分钟的远程讲座。

不可否认,双子座机器人令人毛骨悚然。 它们很现实,但还不够现实。 想象遇见双子座机器人与遇见一只猫完全相反,激发完全相反的感觉。 当你遇到一只猫(或者章鱼)时,即使视觉外观如此不同,你也会立即感受到另一个意识实体的存在。 但对于双胞胎机器人来说,引人注目但不完美的身体相似性可能会加剧分离和疏远感。 在 2009 年的一项研究中,参观者在见到 机器人时最常见的感觉是恐惧。

这种反应体现了所谓的“恐怖谷”概念,该概念是由另一位日本研究人员 Mori 在 1970 年提出的。 Mori 提出,随着机器人变得越来越像人类,它们将引起人们越来越积极和富有同理心的反应(想想星球大战中的 C-3PO)。 一旦超过了某个点,在某些方面看起来很人性化,但在其他方面则不然,这些反应很快就会变成厌恶和恐惧(恐怖谷效应),只有当相似性变得越来越接近时,情绪才会回归,直到它们变得相似为止。如此接近以至于无法区分。 关于恐怖谷效应为何存在有很多理论,但毫无疑问它确实存在。

当现实世界的机器人努力摆脱恐怖谷效应时,虚拟世界的发展却已经爬上了斜坡,走出了另一边。 使用“生成对抗神经网络”(GANN)的机器学习的最新进展可以生成以前从未存在过的虚拟面孔(见图 13.2)。 这些图像是通过巧妙地混合来自真实面孔的大型数据库的特征而生成的,使用的技术类似于我们在幻觉机中使用的技术(见第 6 章)。 “深度造假”技术可以使这些面孔变得栩栩如生并说出任何话,当虚拟面孔与该技术结合时,当他们所说的话由日益复杂的语音识别和语言生成软件(例如 GPT-3)控制时,它似乎我们突然生活在一个充满虚拟人的世界里,他们的实际外表与真实的人没有什么区别。 在这个世界上,我们会逐渐习惯于分不清谁是真实的,谁是虚拟的。

如果人们认为在视频增强图灵测试令人信服地通过之前这些发展将达到天花板,那么这种观点很可能是错误的。 以这种方式思考要么表现出人类例外论的顽固,要么表现出想象力的失败,或者两者兼而有之。 有时候是这样的。 还有两个问题。 第一个问题是,这些新的虚拟创造物能否跨越石黑浩的双子座机器人仍被困的恐怖谷,进入现实世界。 第二个问题是测试是否也会被淘汰。 即使我们知道这些新机器只不过是几行计算机代码,我们还会觉得它们实际上是有意识和智能的吗?

如果我们真的有这样的感觉,这会对我们产生什么影响?

无论是炒作还是现实,人工智能的迅速崛起引发了必要的伦理讨论的复苏。 许多道德问题都与自动驾驶汽车和自动化工厂工人等未来技术的经济和社会后果有关,这些技术将造成的重大破坏是不可避免的。 将决策权委托给人工系统所引起的担忧是合理的,因为它们的内部运作可能容易受到各种偏见和变幻莫测的影响,无论是对于受影响的人还是对于设计它们的人来说。 对于那些在系统中工作的人来说,系统仍然是不透明的。 极端情况下,如果让人工智能系统来控制核武器或互联网骨干网,会出现怎样可怕的情况?

对于人工智能和机器学习的心理和行为后果也存在伦理担忧。 深度造假对隐私的侵犯、预测算法对行为的修改以及社交媒体中过滤气泡和回音室信仰的扭曲只是影响我们社会结构的众多力量中的一小部分。 通过释放这些权力,我们愿意在大规模、不受控制的全球实验中将我们的身份和自主权交给不露面的数据公司。

在这种背景下,关于机器意识的伦理讨论可能显得放纵和深奥。 但这不是事实。 即使这些机器还没有意识,这些讨论也是必要的。 当加兰测试通过时,即使我们可能知道或相信机器没有意识,我们也会与我们认为有自己主观内心生活的实体分享我们的生活。 这种情况的心理和行为后果很难预见。 一种可能性是,我们将学会将我们的感受与我们应该如何行动分开,这样,尽管我们觉得人类和机器都有意识,但我们会显得关心人类而不是机器人。 非常自然。 目前还不清楚这会对我们个人的心理产生什么影响。

在电视剧《西部世界》中,栩栩如生的机器人是专门为了被折磨、杀害和强奸而开发的——作为人类最邪恶行为的发泄方式。 是否有可能在折磨机器人的同时,感觉到机器人有意识,但同时又知道它是无意识的,而不精神崩溃? 从我们目前的认识来看,这种行为是极其反社会的。 另一种可能性是,我们的道德关注范围会被我们的人类中心倾向所扭曲,因此我们对那些与我们感觉更相似的实体有更大的同理心。 在这种情况下,我们可能比其他人类更关心我们的下一代双胞胎,更不用说其他动物了。

当然,并非所有的未来都需要如此反乌托邦。 但随着人工智能进步和炒作之间的竞赛加快,基于心理学的道德规范也必须发挥作用。 仅仅推出新技术并观望是不够的。 最重要的是,不应盲目追求重塑和超越人类智能的人工智能标准目标。 正如丹尼尔·丹尼特( )明智地指出的那样,我们正在构建“智能工具,而不是同事”,我们必须确保我们认识到其中的差异。

那么就有可能出现真正的机器意识。 如果我们有意无意地将新形式的主观体验引入世界,我们将面临前所未有的伦理道德危机。 一个物体一旦有了意识地位,它也就有了道德地位。 我们有义务尽量减少其潜在的痛苦,就像我们有义务尽量减少生物的痛苦一样,但我们在这方面做得并不好。 对于这些假定的人工感知对象来说,另一个挑战是我们可能不知道他们可能会经历什么样的意识。 想象一下,一个系统正在遭受一种全新形式的痛苦,而我们人类对此没有同等的感觉或概念,也没有任何本能来识别它。 想象一个系统,其中积极情绪和消极情绪之间的区别甚至不适用,也不具有相应的现象学维度。 这里的道德挑战是我们甚至不知道相关的道德问题是什么。

无论真正的人工意识离我们有多远,即使是遥远的可能性也应该被考虑。 虽然我们不知道需要什么才能创造出一台有意识的机器,但我们也不知道它不需要什么。

正是出于这些原因,德国哲学家托马斯·梅辛格 ( ) 于 2019 年 6 月呼吁立即暂停所有旨在产生他所谓的“综合现象学”的研究 30 年。 他宣布这一消息时我恰好在场。 我们都是在剑桥利弗休姆未来智能中心主办的人工意识会议上发表讲话的。 梅辛格的请求很难严格遵循,因为许多(如果不是全部)心理学计算模型可能属于他所谈论的范畴,但他的信息的主旨是明确的。 我们不应该仅仅因为我们认为人工意识有趣、有用或很酷就贸然尝试创造它。 最好的道德是预防道德。

在生命论的鼎盛时期,谈论人工生命的伦理可能看起来就像今天谈论人工意识的伦理一样荒谬。 但一百多年后的今天,我们不仅对生命的形成有了深刻的认识,而且也有了很多新的工具来改造甚至创造生命。 我们拥有这样的基因编辑技术,可以让科学家轻松改变 DNA 序列和基因功能。 我们甚至有能力仅从基因构建完全合成的生物体:2019年,剑桥的研究人员创造了一种具有完全合成基因组的大肠杆菌变种。 创造新生命形式的伦理突然变得非常重要。

也许我们最接近合成意识的是生物技术,而不是人工智能。 在这里,“大脑类器官”的出现具有特殊的意义。 这些微小的类似大脑的结构是由人类多能干细胞(可以分化成许多不同形式的细胞)生长的真实神经元组成的。 尽管大脑器官不是“迷你脑”,但它们在某些方面类似于发展中的人脑,使其可作为大脑发育出错的医疗状况的实验室模型。 这些类型的类器可以带有一种原始的意识形式? 很难排除这种可能性,尤其是因为最近的一项研究发现,这些类器官表现出与人早产儿相似的电活动的协同性电活动。

与计算机不同,脑器官是由与真实大脑相同的东西制成的,它消除了将它们视为潜在有意识的障碍。 另一方面,它们仍然非常简单,完全不明智,并且根本不与外界互动(尽管它们可以固定在相机和机器人的手臂等上)。 我认为,虽然当前的器官很有意识,但随着技术的发展,它仍然是一个开放而令人不安的问题。 这使我们回到了预防道德的需求。 器官意识的可能性具有道德紧迫性,不仅是因为它不能排除在外,还因为它涉及的潜在规模。 正如研究人员 ()所说:“我们想建立这些类器官的农场。”

为什么机器意识的前景如此诱人? 为什么它对我们的集体想象力产生如此影响? 我开始认为这与一种技术狂有关。 随着世界的终结,这是一种根深蒂固的愿望,即超越我们受限制和混乱的身体生物学存在。 如果有意识的机器出现,则可能会在未来的超级计算机的原始电路中搬迁我们的基于湿的意识的头脑,该电路永远不会老化并且永不消亡。 这是一个被未来主义者和超人类主义者所偏爱的隐喻,作为上传的一个思想领域,对他们来说,这是不够的。

有些人甚至认为我们可能已经在那里。 牛津大学哲学家尼克·博斯特罗姆(Nick )的“模拟论点”概述了一个统计案例,即我们更有可能成为由技术先进并痴迷家庭家谱的人创建的高度复杂的计算机模拟的一部分。 我们的后代是设计和实施的,而不是原始生物人类人群的一部分。 根据这种观点,我们已经是虚拟世界中虚拟感知能力的主体。

有些受到技术热情吸引的人看到了一个迅速接近的奇妙观点。 这是历史上的重要节点。 在这个节点上,人工智能将指导自己并超越我们的理解和控制范围。 在奇怪的角度,有意识的机器和祖先模拟比比皆是。 我们的基于碳的生命形式将远远落后,我们在太阳的那一刻结束了。

您无需看到太多的社会学见解就可以看到这种令人陶醉的葡萄酒对我们技术精英的吸引力。 从这些角度来看,他们可以将自己视为人类历史上史无前例的变化。 关键是奖励永生。 当人类例外主义完全偏离赛道时,就会发生这种情况。 从这个角度来看,关于机器意识的大惊小怪是生物学和进化遗产疏远的症状。

在几乎所有方面,野兽机器的观点与这种叙述都不同。 从我的理论中,正如我们所看到的,所有人类的经验和精神生活都是由我们自学的生物的本质引起的,我们关心耐用性。 这种意识和人性的看法并不能排除有意识机器的可能性,但它确实削弱了技术狂热主义的夸大,以夸大将获得感知的计算机。 在梦中。 从野兽机器的角度来看,对意识探索的理解使我们越来越融入自然,而不是远离它。

理应如此。

Anel Cess“有意识的机器”作者

本文是从“自觉机器”第13章中选择的。

本文来自公共帐户,作者:Anel Celes,由36氪发行。