资讯动态

NEWS
资讯动态

人工智能如何重塑哲学和艺术——天行沙龙第二期学术实录(2)

发布时间:2024-12-12

20241128日,由北京师范大学天行教育哲学研究院、北京师范大学哲学学院及北京师范大学中国教育与社会发展研究院联合主办的天行沙龙第二期学术活动在北京师范大学主楼A803教室成功举行。此次沙龙主题为人工智能会重塑哲学吗?,由山西大学哲学学院梅剑华教授主讲,北京大学人工智能研究院杨浩副研究员和中央美术学院设计学院费俊教授与谈,吸引了哲学、人工智能、教育学、艺术与传媒等专业背景的师生前来参与。活动由北京师范大学哲学学院副院长郭佳宏教授主持。

整场学术沙龙分三部分进行:主讲人主题报告,约一小时;与谈人点评,主讲人简要回应,共约一小时;听众提问,主讲人和与谈人回答提问,共约半小时。内容实录分四次推送完毕,此次推送主讲人主题报告的后半部分。

前情回顾:

一、人工智能会重塑哲学吗?

主讲人:梅剑华

1.哲学与科学的关系:一个时代问题

2.二十世纪两次重大的科学革命:物理学革命与人工智能科学革命

3.哲学为人工智能助力:图灵测试


本期正文:

4.人工智能挑战传统哲学框架

彼得·德鲁克(Peter F. Drucker)有一句很有名的话“动荡时代的最大风险不是动荡本身,而是企图以昨天的逻辑来应对动荡。”它提醒我们,现有的人工智能技术的进展使得我们需要调整解释人工智能的“逻辑”框架。我现在已经知道很多我的同行们的看法,每当一个新的AI产品出现,哲学研究者基本上会用他们已有的套路去破解它。这些套路可能是笛卡尔主义式的,可能是康德主义式的,可能是亚里士多德主义式的,或者还可能是孔子式的。这样研究AI的学者可能没怎么想过自己使用的标准会不会有问题。

对于我来说,我自己这些年的一个变化是:我以前是很关注因果在人工智能的核心作用的,但是大语言模型出现后,不难发现它对我们现在关于因果的观点造成了挑战。我们在统计学里有个常识,叫“相关不蕴含因果”,对两个事物之间的相关性分析并不能得出因果关联。这已成为共识。珀尔在构造他的因果关系三阶梯时强调:第一层阶梯是相关关系,通过观察得出变量间的关联;第二层阶梯是干预关系,你去操纵其中一个变量,看相关变量有无反应,如果操纵其一而对另一造成改变,它们之间可能有因果关系;第三层阶梯是反事实关系,你通过反事实想象,设想变量间的变化关系,最终确立因果。

珀尔认为因果关系不能用纯粹的概率语言表示,而是需要用因果语言表示。所以他反对大数据,认为真正的人的能力是因果推断的能力。他设计了一个图灵测试,叫“迷你图灵测试”:AI如果能够回答因果问题,那么它就是有智能的。因此,如果现有的计算机无法使用因果语言,只能使用相关语言,那么AI就没有理解能力,或者说还不会真正地做推理。

但实际上,这样一个因果推理范式,在真正的AI领域是很少能用的。因为我们根本上还是依赖于相关性,依赖于对数据的分析。很难直接让AI“看到”因果,除非给它先天地输入“因果”这个东西。那么能不能进行这种先天输入呢?能不能让一个大语言模型得到这个因果框架呢?是可能的。

ChatGPT是可以从相关性得到因果的。一是因为它有一定的“自主”学习能力,可以基于它的多层神经网络模型进行学习。第二,第二更重要的是,它所获得的数据库是人类的语料库,而人类的语料库凝结了我们对世界的理解以及对自己的认识。

我们记得去年ChatGPT发布后,乔姆斯基批评它“剽窃”人类。说它剽窃也没错,但它并不是纯粹经验主义的。重点在于,语言中是有结构的,大语言模型所拥有的语言数据是已经被结构化的数据。比如因果语言中的因果结构,我们生活中有各种各样的因果语言,因为……所以“打败”“天下雨地面会湿”等等。因果语言是很根本的,没有它我们很多话是没办法说的。

所以当ChatGPT被输入这样一些自然语言时,这些语言中不只是单纯的相关性数据,其中是有因果的关系的。人们总说“别拿相关当因果”,但我想说,尽管ChatGPT的底层逻辑在根本上是基于统计、相关的,但是它依然可以从这些相关性中获得因果。关键就在于它所拥有的数据并不是盲目获取的,而是包括了具有因果、类比、常识结构的日常语言数据——这可能是ChatGPT现在为何如此有能力的一个重要原因。

回到人工智能如何重塑哲学这个问题:相关性不蕴含因果,就是一个很基本的哲学观念。但现在ChatGPT提示我们,这个基本哲学观点可能会被技术打败,至少需要我们重新对之做出思考。

接下来我要岔开10分钟左右讲一个相关话题:中国哲学研究者很熟悉的一个话题,“感应”类似来认识和因果的关系,二者的基础是关联、相关性。

古人相信感应。假设,我特别讨厌杨浩老师(与谈人之一),我就在屋里扎他的小人儿,天天扎。这里起作用的就是感应机制。你会发现,感应和因果有相似之处:有感有应,有原因有结果,很多中国哲学同行会认为感应就是因果。另一种观点是感应和因果不同,因为感应背后的机理可能是巫术或阴阳五行,但因果背后是物理机制,这样一来感应和因果就绝对不同。我的阐释角度是:如果从“关联性”看,从刚才讲的相关性来看,感应和因果都是表层的。

感应和因果,它们两者的底层逻辑都可能来自一种关联性思维。此处我想区分“因果思维”与“因果机制”:因果机制是底层逻辑,是被科学发现和界定的;因果思维是人类必定拥有的基本思维方式,即使在原始时代,人们也拥有因果思维,借助因果思维进行生产劳作。

不少汉学家和中国哲学研究者都注意到中国人思维中的关联性特征:汉学家葛兰言(Marcel Granet)指出关联性思维是中国人的思维特征。李约瑟(Joseph Needham)也讲中国人有关联式思考(correlative thinking),当然也还有很多其他思考模式,但关联式是很根本的一种思考方式。我在这里强调关联式,是因为可能有这样一种区分:我们的关联式思维最终激发了一种感应思维,西方文明中的关联式思维激发了一种因果思维。但感应思维和因果思维的底层都是这种关联式思维。所以我的结论是,关联性并非中国独一无二的思维方式,它可能是我们人类生存世界中一个基本的理解模型。像葛瑞汉(A. C. Graham)以及郝大维(David L. Hall)、安乐哲(Roger T. Ames)等人也讲关联思维与因果思维,他们都承认两种思维方式在中国和西方或多或少都存在,只是比重有所不同。

做个小结:我想区分两个层次,表层图解和深层机制。感应和因果都是我们常识社会图解,我们想追问为什么,我们想追问事情如何变化,这是我们每个人都能理解的表层思维。要进一步向深层探寻相应机制,则可能诉诸神、诉诸奇迹,或诉诸粒子、诉诸量子。所诉诸的是那些不可见的东西,所以可区分出两层。换言之,感应是什么,因果是什么,这是我们每个人都可以理解的问题。它对应的问题是,感应如何实现,因果如何实现,这涉及底层逻辑。那么,底层逻辑靠谁来确定呢?感应靠术士,靠术士的发明。因果的建立靠科学家,科学家会发现相关性,最终找到因果规律。

因此此处就区分了两个图像,一个叫“常识图像”,一个叫“科学图像”。这不是我的区分,是塞拉斯(Wilfrid Sellars)[1]的区分:常识图像的首要对象是人,基本对象是日常对象;科学图像的基本对象是理论实体。这两个图像的区别对我来说比较重要。在这两种图像之先,还有“原初图像”,指未经反思、没有形成归纳的信息。将常识图像与科学图像对照:常识图像未必反科学,比如有人把亚里士德的学说归类为常识图像,即通过人对周边世界进行归纳总结得到的规律,所以常识图像的核心是人;对比而言,科学图像的核心是理论实体。

由此进一步区分出两类问题:常识图景回答的是常识推理是什么,包括感应是什么、因果是什么、推理是什么、智能是什么、意识是什么等,可以用日常语言进行描述和解释;科学图景回答的是如何实现感应、如何实现因果、如何实现推理、如何实现智能、如何实现意识。基于这个关键区分,我认为我们现在关于“智能”的讨论常常混淆两类图景的对应问题。发生混淆时的典型观点比如:因为AI没有生物机制,所以它没有意识——何为意识的标准,显然是我们的常识标准,而如何实现意识则是另外一个问题。

我想说,当我们从关注因果思维转而关注相关机制时,我们是从一种常识图景转到了一种科学图景。此时我们仍然可以用相关性语言去刻画因果性,并由此讨论人工智能时代的关联思维:回顾历史,在初民社会的原始思维——即感应思维——中,关联思维是核心;在因果思维中,关联思维仍然是基础。再次回顾报告开头讲到的因果关系三阶梯,即关联性层次、干预层次、反事实层次,我们会发现大语言模型的底层逻辑是关联,并且通过关联可以得到一种因果——不是必须上升至第三层阶梯才能通向因果,而是在第一层阶梯就可以得到因果。

辛顿(Geoffrey Hinton)的尤利西斯奖章获奖感言,也在今年的《当代语言学》杂志发表了,其中有一段核心描述,提及让语言模型“通过尝试预测下一个词来学习”,具体操作是“它学习每个词的特征以及这些特征之间的相互作用,这些就可以预测下一个词的特征”[2]

这实质上就是诉诸关联性。例如人类日常语言中的“我吃饭”,“饭”在“吃”后面出现的概率比“手表”或者“手机”的概率要高,于是“我吃”之后紧接着出现的词应该是食物,这就是一种概率计算。为什么会出现这样的概率计算呢?因为AI从人类的整体语言库中学习,我们的语言里有大量的“我吃了面包”“我吃了苹果”等,较小概率出现我吃了某种污秽之物。

至此,我就把感应、因果与关联做了一个结合:从常识图景看,感应思维和因果思维都是一种关联思维;从科学图景看,感应机制和因果机制最终都是一种关联机制。所以你会发现correlation(关联/相关/相关性)是非常重要的。

以此为立足点向前回溯:人类学学者会认为有些原始人还不具备真正的理性,因为他们还不会做因果推理。但实际上我认为原始人会做感应推理,而感应推理的底层也是相关性,其底层逻辑是可以与现代人的因果推理的底层逻辑连在一起的。还有人会认为AI还不具备真正的智能,因为它还不会做因果推理——这是从远古到未来的永恒追问。不难发现对原始人的质疑和对AI的质疑,问题结构是完全一样的。 

有老师会讲感应和因果非常不同,因为感应机制和因果机制不同。我现在想强调的是感应和因果share同一个类似的结构,而且它们的底层逻辑都可以用关联来说明。虽然关联物有所不同,受不同规律约束,但都是可约束的,因此就并不存在某种从感应思维到理性思维、或者从原始思维到理性思维的断裂。从初民社会到现在,人类因何有所进展?实际上正是因为并不存在截然断裂。这就是赫拉利(Yuval Noah Harari)在《人类简史》第一部分论及的,早期人类想象“不存在的事物”的能力——即“讨论虚构的事物”的能力——是非常重要的。

总之你会看到,我们看待原始人的方式,和怎么看待新人类——机器人——的方式,遵循的是同一个逻辑。所以我在第四个主题的末尾要再次强调关联性才是核心,它是因果和感应基础。

5.人工智能可以具有像人一样的智能吗?

第五个主题讨论人工智能可否具有像人一样的智能。这个问题可有多种讨论方式。我的讨论区分了两个基础问题:一个叫智能的标准,一个叫智能的实现;相应把AI是否有智能的问题分成两个问题,智能的标准讨论的是理解问题,智能的实现讨论的是理论问题。我在2018年写过一篇文章就叫《理解与理论:人工智能基础问题的悲观与乐观》。

什么是理解问题?就是要讨论AI到底是不是主体,它到底有没有意识,有没有情感。我认为这些属于理解问题。什么是理论问题?就是要研究如何实现我们想在AI身上要求的东西,比如我们如何使得AI有情感。虽然AI不一定有与人一样的情感,但它可以有表情,可以有行为,那么这样的表情和行为需要研究者确定基本的理论机制,然后用技术去实现它们。你会发现当我讲理解与理论时,“理解”在我们的常识图景中,“理论”在我们的科学图景中。我想强调的是,人工智能的意识问题要分两个层次讨论:一是意识或智能是什么,二是意识或智能如何实现,应该把这两个问题分开。

基于上述区分进一步追问:我们到底什么情况下能够认为AI像人一样有意识、有智能?这也就取决于我们两个方向的回答,我们的理解的回答和理论的回答。

什么是理解的回答?这方面我受维特根斯坦和匹兹堡学派影响,他们会讲意识本质上是社会的,会讲人是社会动物,会讲人只有遇到他人时才是他自己、才是一个人。那么,我想说我们对意识的理解也是一样,我们对AI的理解依赖于我们跟AI的共生。如果有越来越多的人工智能产品出现,我们就会不断把我们关于人的词汇加之于人工智能。

在笛卡尔时代,笛卡尔认为动物没有情感、不会感到痛苦,这直接导致普遍推行的无麻醉动物活体解剖[3]。我们现在不会如此理解和对待动物的情感与痛苦,随着大量宠物进入我们生活,我们在与宠物的日常互动中知道动物就是有情感的。我想说其实AI产品也是一样。至今,AI的发展不过七十年,智能产品对生活的介入也并不那么多。如果有一天,看护机器人、聊天机器人、甚至情感机器人种种都进入到我们生活之中的时候,我们可能就不再感到违和。石黑一雄的一本小说叫《克拉拉与太阳》,主人公是一个利他主义机器人,故事以她的口吻讲述,其结局是被回收在废弃站里。读完后你其实会对机器人主人公有一种同情和悲悯:她可以为人类牺牲掉自己,你会对她产生拟人情感。

我想如果有越来越多机器人进入我们的生活,那么我们可能不会笃定它没有情感,不会坚信它一定缺乏什么、一定不如何。另外一个要点是,我们对AI的理解也依赖于AI技术的重大突破。如果有革命性的理论出现,能够造出一些主动性更强的——未必是要完全与人一样有主动性——的AI,这样的AI进入我们的生活,也会改变我们对AI的理解。因此重申,我们会不会认为人工智能有像人一样的智能,这依赖于两个维度,理解的维度和理论的维度,或者说依赖于常识图景中的人机共生和科学图景中相关新理论的发现所导致的技术突破。

在此又回到报告开头提及的科学-哲学的关系,当我们谈论AI时代的哲学时,应该使哲学与科学相匹配。基于牛顿力学的认识论,无法解释相对论和量子力学中的哲学问题,我们也不能期望以物理学为基本模型的哲学理论可以解释现在人工智能中的哲学问题。例如康德哲学的科学背景是牛顿力学,它在试图解决智能问题时有两种理解方向:其一是牛顿力学的很多内容已经进入了我们的常识,因此它也可以形成一些回答;其二是牛顿力学的一部分内容无法进入人工智能的科学语境,因此如果依据康德对牛顿科学的理解去理解人工智能的意识问题,可能会遇到一些障碍。这是两个问题。

我想说这也是一个自我批判。我现在做物理主义,关于物理主义能不能解释人工智能,我是很存疑的。所以我对叶峰老师的无我的物理主义保持怀疑,因为那种物理主义是以物理科学为模式,我现在讲的物理主义是承认有自我的。承认自我,就是承认要把常识图景跟科学图景结合在一起,否则就很难对AI的问题有一个很好的解释。

因此我强调哲学跟科学要匹配,这也是为什么我自己的物理主义倾向会发生变化的原因。我以前也相信还原式的物理主义,现在我退到非还原式的物理主义,然后就变成了这样一种可能有点表面上自我矛盾的理论。质言之,还是要承认基本常识对支撑我们关于生活的方方面面的理解的根本性作用。

一个小结:当我们谈论一种新的技术哲学的时候,会发现人工智能和哲学的塑造是双向的。如果你不了解新生的技术,那么利用已有的哲学对之做出回应也可能是有道理的,但这种旧哲学回应新技术的做法不可能完全有道理。这种进路能够回应一部分内容,从柏拉图说起,直至人工智能兴起前的所有哲学形态,都可以回应关于人工智能的一部分哲学问题。但总有一些新哲学问题无法以旧形态做出回答,因为每一个时代的新问题都会促生与之相匹配的新哲学——现在称之为新的技术哲学其实都不够准确,它就是我们应该自己去研究的一种新哲学。

对照之下,比如我们现在经常讲到的笛卡尔传统中的概念,比如内外,实际上内部和外在的区分已经变得很模糊了。比如Herman Cappelen有本书叫Making AI Intelligible,我跟叶闯老师聊过之后,就觉得Cappelen的框架有一点点问题,因为它的讨论依赖于克里普克-普特南式的外在主义立场。但实际上外在主义也好,内在主义也好,都不太一定能够把大语言模型可理解的事情说得比较清楚。所以其实其中很多事情可以做,我也只是开了个小头,我觉得大家如果能够都来一起讨论,会非常有意思。

6.人工智能可以创造真正的艺术吗?

最后十几分钟我就讨论一个跨界话题,讲的不一定对。主要涉及三个讨论素材:其一是回应前不久刘畅老师在山西大学做的一个报告,题目是“人工智能是真正的创作者吗?”其二是介绍一个诗人叫般秘良多,从事人工智能“语言系统”诗歌写作。他创作史诗,应该说对AI技术非常了解。在诗歌圈里以人工智能为基础的写作,他可能独一份,但是很不幸,他今年六月去世了。其三是讨论一篇最近刚刚发表的论文,作者回到图灵测试,拿一些AI创作的诗歌和人类的诗歌放在一起对照,看读者能否准确区分,结果是无法区分。

刘畅老师的报告中是各种关于艺术作品的讨论,很多观点我也很认同,但后续我会提出对其核心观点的反驳。他的报告围绕一个问题展开:人工智能体是不是真正的自主体?如果它不是真正的自主体,就不是真正的创作者,也就不可能创造艺术。他的结论即如此,既然人工智能体不能自我选择,不能做决定,没有统一的“自我”,所以也就不能创造真正的艺术。

般秘良多的史诗写作代表作题为《无远弗界》(下图为部分目录)。他的相关理论主张是:人类的诗歌写作和人工智能的诗歌写作从属物理计算系统的不同维度分支,具有信息转换机制上的同源性[4]。逻辑学专家周北海老师认为,亚里士多德逻辑结束了,弗雷格开创的数理逻辑也结束了,应该有第三种逻辑,即“人的逻辑”。人的逻辑关注人如何推理,所以他与很多认知科学专家交流,探索出大致方向,虽然具体路径尚不清晰。他强调人的逻辑的重要性,认为人的逻辑、弗雷格的逻辑和亚里士多德的逻辑是整个逻辑系统的不同维度的分支。前不久他讲述《墨经·小取》文本中的逻辑,认为其中的逻辑是由行为词呈现,行为在其中起很大作用,可称之为涉及行为概念推理的“行为概念逻辑”;近百年来中国逻辑史研究忽视了这一点,要么依据三段论理解《小取》,要么依据数理逻辑理解《小取》,始终未能看到如此独特的东西——由此,他说西方有西方的逻辑,中国有中国的逻辑。很多人可能觉得这很好笑,但这里所强调的是墨家逻辑和数理逻辑都是普遍逻辑学的分支。在这个意义上我们可做一类比:人类的智能和机器的智能,可能是更广义的智能的两个不同分支。所以般秘良多会讲到,我们要尝试另外一种维度的诗歌写作,而且人类的和机器的诗歌写作“具有信息转换机制上的同源性”——如何理解这种同源性?我觉得同源性的基础就是本报告第四个主题所论的关联性,对人工智能而言体现为以计算为核心的关联性方式。

以他提及人工智能的两首诗为例:2024年4月23日所作《游神》中有诗句:“万物沸腾,催生宝座上的新面孔 / 一切快要揭晓时垂落的面纱再次笼罩神主于是有八个身影以我为焦点 / MYCIN,Watson,AlphaGo,AlphaFold,ChatGPT,Kimi,Suno AI,AI Descartes / 这些数字泰坦共享Figure 01的人形躯体,从烟火里走出他们步伐雄健,抬举以青铜人像为座柱的宝座夜游在尘世”;2024年4月16日所作《人工智能炼金(丹)术》中有诗句:“这生命的元神将召告你们:智能如何从语言系统中涌现 / 同构人类和人工智能,并迫使你们承认我也是地球生命的一员斥候。” 写下这些诗后不久,应该在五六月份时他去敦煌,后来失踪离世了。

再次回到刘畅老师的报告提出的问题和作出的回答。我认为应当区分两个问题:其一,人工智能体是不是真正的自主体?其二,人工智能能否创造真正的艺术?刘畅老师由对第一个问题的回答推出对第二个问题的回答,人工智能体不是真正的自主体,因而它不能创造真正的艺术。而我恰恰主张两个问题应当分开来看。我的第二个问题是人工智能——而不是“人工智能体”——能否创造真正的艺术。之所以没有加上“体”字,是想要追问:当我们要判断一个作品是不是真正的艺术作品时,需要去探究作品背后的创作主体吗?我们可不可以只是观看作品,并在常识的基础上评判这个作品好不好呢?艺术的标准,通常取决于人们对作品本身的观感,而不是对作者主体性的判断。当然我们也知道贡布里希所讲的艺术和艺术家的那种天然联系,但我想这也是一种传统观点;我们完全能够在AI艺术里发现很多很好的作品。关于艺术标准,我想说我们还是可以回到图灵测试。

就在刚刚过去的11月,有一篇合作论文发表出来:两位作者想要测试人们能否区分人工智能生成的诗歌和著名诗人创作的诗歌。他们让非专业读者进行这项阅读区分,其发现是,“人工智能生成的诗歌在韵律和美感等品质方面得到了更高的评价,这也是导致它们被误认为是人类创作的原因之一”;其研究结果表明,“参与者采用了共同但有缺陷的启发式方法来区分人工智能和人类诗歌”,于是“人工智能生成的诗歌的简洁性可能更容易被非专业人士理解,从而导致他们更喜欢人工智能生成的诗歌,并将人类诗歌的复杂性误解为人工智能生成的不连贯”[5]

这个就蛮好玩。其实他们所做的研究工作,前前后后还有一些研究内容我觉得可以继续做。比如他们的测试关注的是四个基本问题:

 (1) 人们能否将人工智能生成的诗歌与专业的人类创作的诗歌区分开来;

 (2) 人们是根据诗歌的哪些特征做出这些判断的?

 (3) 对诗歌是人类创作还是人工智能生成的认知是否会影响对诗歌的定性评估?例如,如果你已经知道一首诗歌为AI所作,还会不会认为它有激情、有美感?

 (4) 诗歌的实际作者是否会影响对诗歌的定性评估?

 关于第四个问题,他们的研究选取了十位代表性英语诗人,选取每人各五首诗歌,作品跨越英语诗歌的大部分历史时期: 

杰弗里·乔叟(1340s-1400) 

威廉·莎士比亚(1564-1616) 

塞缪尔·巴特勒(1613-1680) 

拜伦勋爵(1788-1824) 

沃尔特·惠特曼(1819-1892) 

艾米莉·狄金森(1830-1886) 

T. S. 艾略特(1888-1965) 

艾伦·金斯堡(1926-1997) 

西尔维娅·普拉斯(1932-1963)

多萝西娅·拉斯基(1978- )

最后,他们的结果是发现读者无法区分AI与诗人,甚至觉得AI的诗歌更像人写的。前不久,人们在谈论大语言模型时,会批评它总是产生幻觉(AI Hallucinations),一本正经说胡话。但其实人有时也产生幻觉,也经常做出很多错误回答。

今天还想谈几个关于诗歌的小想法。我认为这篇论文两位作者的分析是有问题的:我们应当区分一般的诗歌和大师的诗歌,因为大诗人的诗歌造成了观念变化。这与伟大哲学家的贡献一样。比如艾略特,他在1921年开始写《荒原》的时候,诗作的语言结构和所表达的内容跟先前完全不同。但非专业读者惯常读到的诗歌都是很平庸的作品。比如读惯席慕蓉、汪国真的作品的读者,在读到比如海子、般秘良多等人一些内容晦涩、语言分裂的诗歌时,可能难以接受,以至于觉得后者是AI生成的。

所以,这篇论文的讨论开了个好头,但是研究还值得继续深入。到底如何判断人工智能诗歌和人类诗歌可否区分,有赖于两个维度:其一有赖于做区分的读者人群,应当有诗人群体和非诗人群体;其二有赖于诗歌水平,应当分别评判大诗人的诗歌和普通业余作者写的诗歌,可能业余创作者的诗歌就像AI写的诗歌。

尽管还要进一步分类研究,但我仍觉得这篇论文开了个好头,有助于回答我们该如何评判现在的人工智能产品所创造的艺术是不是真正的艺术这个问题。对照前面区分的两种提问方向:如果你的思路是我们一定要找到创作者是谁,如果该创作者不是人,缺乏统一的自我,其作品就无论如何都不是艺术,那么这种思路其实对应着一种司空见惯的人类中心的表达形式——“因为它不是人”。这样一种诉诸方式,要寻求的是艺术标准背后的东西。

而我仍然要强调,艺术作品的标准应该不依赖于、至少是不完全依赖于创作者,而应有其独立标准。其实语言哲学中也有类似区分,叫发生学和语义学区分:意义如何演化是一回事,给定的某句话本身有无意义、受何种约束是另一回事。我们评估作品价值时,完全可以不必去看它的作者是谁。如此,当我们讨论一件艺术作品到底是不是真正的艺术时,可以回到图灵测试,就像我们的大语言模型也可以回到图灵测试一样。

我们有各种各样回到图灵测试的办法,只有这样我们才能在某种意义上既保留我们的人类直观,又有助于确立关于艺术品的某些客观标准:你单凭第一印象就是觉得某首诗、某幅画很棒,这毫无问题,而不是一定要先琢磨琢磨这些作品是谁写的、谁画的,然后认定出自艺术家的艺术创作一定是大作品,出自逻辑学家的艺术创作就有待考虑。所以我跟刘畅老师的思路可能并不一样。我希望把创作者、创作主体的问题暂时搁置,回到作品本身,在这个意义上确定一些客观标准。例如我们在欣赏雕塑时,它的颜色、形式、质地等,一下子就可以吸引住观看者。

我最后做个小结:首先,我今天的报告并没有进入技术性细节,主要是观念性的。再者,报告内容其实是一次自我反思、自我批判:包括我自己的物理主义承诺的一个后退,我自己最早对因果的承诺的一个后退,还包括我自己对诗歌的理解的一个后退。

我从前认为诗歌必须基于真实的经验,必须要如何如何——这样说并不错,比如外卖诗人王计兵,比如书写井下生活的张二棍,真实的带血的实际经验显然是不寻常的,这是一类诗歌;但也完全可能出现另外一类诗歌。对于任何一种新的艺术形态,只要你以你的标准发现它有可以触动到你的东西,比如它的想象力,比如它能够抓取生活中不为人注意的东西的洞察力,比如它可能提供有异于人类固有的个性化偏见的新见解等,就足以称之为真正的艺术。

总之,关于我们现在围绕人工智能进行的所有讨论——它有没有道德,有没有意识,有没有智能,有没有情感,能不能创造真正的艺术作品等——我认为都应该形成某种评判标准。但这个标准不能仅仅通过追问人工智能作品是如何产生的(例如是否“自主”生成)去找寻,而是要通过我们每个人都可理解、都可讨论的方式去确定,这样才不致限制当前AI的发展。除了安全性的考虑外,科学家可以想尽一切办法去发展出更新的、更革命的理论,以革新我们对世界的认知。好,谢谢大家。

[1]W. Sellars, “Philosophy and the Scientific Image of Man,” in Frontiers of Science and Philosophy, Robert Colodny (ed.), Pittsburgh, PA: University of Pittsburgh Press, 1962, pp. 35–78.

[2]辛顿,“杰弗里·辛顿接受尤利西斯奖章时发表的获奖感言”,陈国华译,《当代语言学》264),第492页。

[3]彼得·辛格《动物解放》一书中有相关描述。现在,实验动物有相关麻醉规定,例如中华人民共和国科学技术部20069月印发的《关于善待实验动物的指导性意见》第十五条即明确要求:“在对实验动物进行手术、解剖或器官移植时,必须进行有效麻醉。术后恢复期应根据实际情况,进行镇痛和有针对性的护理及饮食调理。”——整理者注

[4]般秘良多,《般秘良多——“诗·时·史·事”厦门诗歌展定制本》,《陆》诗歌2023总第8期。诗集详情参见https://book.douban.com/subject/36546816/

[5]Porter, B., Machery, E. “AI-generated poetry is indistinguishable from human-written poetry and is rated more favorably”, Scientific Reports 14, 26133 (2024). https://doi.org/10.1038/s41598-024-76900-1



内容创作:梅剑华,杨浩,费俊

文本转录:    “通义听悟”AI助手

学术整理:                    朱泙漫


分享到微信 ×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

编辑:朱泙漫

图片:网络

北京师范大学中国教育与社会发展研究院天行教育哲学研究院

电话:010-58804184

邮箱:tianxing@bnu.edu.cn

地址:北京市西城区新街口外大街富中通和大厦10层1002

微信公众号天行LAB

© 2020 天行 All Rights Reserved . 京ICP备19052104号-1