柏拉图偏重自我创造出的纯粹思维的世界,亚里士多德将目的作为科学中的基本观念(罗素,1946/2018:92),这与德谟克里特的机械论思想相异。罗素(Bertrand Arthur William Russell)将机械论和目的论对照阐释,二者的发问方式不同,前者关照“什么造成了这一事件”,后者询问“这一事件是为什么目的服务的”。举个例子,“面包师是如何做出好面包的”与“面包师为什么要做面包”,这两个问题均有价值,但后者会导向感性的自我信念,如为了热爱,为了让人类吃到美食,相比之下,前者更能引出“科学性的知识”,如具体的配方、制作面包的方法等。
a 消耗的社会资源不同。过往技术运作消耗的只有自然资源,而AI技术会剥削一定的人文资源。人文资源指一个经济体内部的社会成员既定的价值观体系、通常具有的文化知识、一般智力水平等等,这可能带来对人类劳动力的大量取代,威胁人类社会人文资源的可持续发展。AI由人而生,这种挤占也会造成AI对自身诞生土壤的否定。
a 在《肉身哲学》中,莱考夫(George Lakoff)和约翰逊(Mark Johnson)(1999/2018)从认知科学的角度提出,人类思维信念的形成是通过身体隐喻习得的。那么,AI也可以通过人的身体行为数据训练“思维”。 工厂流水线上的机器人便是案例,尽管它们的外形仍是钢铁,但常常用“机械臂”等带有人体部位的词汇进行隐喻命名。
b 福多构建了名为“信念盒”(belief box)的装置。这个盒子允许人们放入对一件事物的认知表征,如“一杯水放在桌子上”,盒子对表征内容进行某种机械操作, 使得其能够锁定自身的真值(徐英瑾,2018),产生对表征命题的态度,如“我非常想喝这杯水”。此处存在两个问题,首先,福多预设每个盒子对每一个命题的处理过程都是独立的一一对应过于繁琐,然而现在的AI基本就是这么做的;其次,盒子本身也可以成为信念的一部分。
c 胡塞尔(Edmund Husserl)的现象学路径强调意义的多变,认为稳定的意义内核需要诸现象之间协同构成(徐英瑾,2018)。考虑到人的思维有着多元、灵活、协同、含混的核心特征,这是相对理想化的模拟理念。
此前学者将AI分为两类:专用人工智能(Special-purpose AI / Narrow AI)和通用人工智能(Artificial General Intelligence,简称AGI),前者侧重对“智能”行为外在的模拟,解决的还是人的知识(阮凯,2024),后者的技术路径则致力实现机器内在的思维和情感(刘凯,胡祥恩,王培,2018)。我们已接触过许多专用人工智能的例子,而AGI的图景尚未降临,理想中的AGI具备符合人类情感与伦理道德的观念,能做到自主化感知、学习,甚至进行社会协作。这几乎就是对人类的要求。
评论区
共 条评论热门最新