当前位置:首页 > 情感 > 正文

算法信任︱直面人工智能信任的“脆弱性”

  • 情感
  • 2025-01-14 16:12:27
  • 6

信任是人们老生常谈的话题,其本质却始终难以令人捉摸。人工智能时代的信任相较于传统的信任来说发生了一定的变种,衍变成为由机器学习等算法强力参与的技术型信任,简称为算法信任,是人工智能信任的一种具体体现。然而在当下,人工智能信任并非如同人工智能技术一般高效、便捷、令人充满期待,相反因为其建立的基础最特殊,所以其存在也最脆弱。

算法信任︱直面人工智能信任的“脆弱性”

1、正视变种的信任

信任是人类文明进程中不可忽视的课题,人工智能时代的信任呈现出一定的特殊性。《人机对齐》的作者莱恩·克里斯汀(Brian Christian)道破了现在的局面,他指出现在的世界正逐渐以各种方式依赖于机器学习领域给出的数学和计算模型。这些或简单或复杂的模型正在逐步取代人类的判断。目前人工智能仍旧处于上升时期,仍旧能够不断地激发人类的期待与欲望,人们希望在各种事情上能够通过人工智能的帮助找到一个适合的解决办法,这种欲望不停地在个人实践和社会实践中被调动起来,关于人工智能的信任总是能够被轻松获取。因为机器学习算法已经深入了智能支付、智能打车和智能导航系统等与人类日常生活密切相关且高度抽象的智能系统中,所以信任一旦不被加入,那么智能时代的进步性与方便性将与个体无关。

相比于能够被轻松获取的人工智能信任,具体的人与人之间的信任正在慢慢消失。在人工智能时代,具体的人之间的关系变得越来越松散,信任的对象转变成为高度集中的抽象系统而非具体而微的个人,人们彼此之间不够信任,但是却充分相信诸多依赖机器学习算法的第三方集中智能系统。对于抽象系统的强信任和对于具体的人的弱信任之间形成了鲜明的对比,这与专家的设计和人们的渴求是背离的,人工智能背离行为的产生意味着风险的潜行,对于智能社会中关系本质的重新认定以及对于意义系统的重新构建变得十分必要。

2、不可忽视的人工智能技术缺陷

如今,人工智能技术的风险问题已经冲破了无形的禁锢成为了计算机学家、社会学家和伦理学家等众多专家学者的讨论热点,社会各界对发展可信人工智能的呼声越发强烈,涌现出大量从人与技术的关系视角出发对人工智能的哲学和伦理方面的思考,然而,人工智能技术的缺陷究竟存在于哪些节点,又是如何与社会问题、伦理问题产生复杂而深刻的交织,仍是一个需要深入研究的跨学科问题。

人工智能技术拥有较强的控制能力,同时也存在不可忽视的风险。远程链接与控制的不安全性是人工智能技术显著的“脆弱”一面。发展人工智能如果没有自主可控的技术支撑,快速的发展反而会带来更多潜在的风险。人工智能技术依托算法模型、数据处理进行对软件、机器的链接与操控,进而直接参与到社会运行以及社会生产的细枝末节。远程链接与控制蕴藏着网络安全风险,劫持智能设备已经成为网络攻击的重要手段,有专家表示,我国是受到网络攻击最严重的国家之一,也是遭受物联网攻击最严重的国家之一。人们生活在黑客攻击的时代,人工智能技术凭借掌握人类的数据和算法计算能力可以控制、操纵甚至攻击任何一个可能被选中的对象,站在人类的立场上,这是人工智能技术与身俱来的脆弱面。

过度复杂的数据处理与过拟合是人工智能技术“脆弱”的另一面。在算法的世界当中,依靠数据拟合的方式可以解决很多复杂的问题,但是数据拟合的方法在带来便利的同时也带来很多潜在的缺陷。冯·诺依曼曾经批判到,“用四个参数,我可以拟合出一头大象,而用五个参数,我可以让它的鼻子摇起来。”后来,有人成功地把这句名言所说的内容实现。数据拟合指的是一种通过数学模型来逼近或预测现有数据的方法,在许多领域被广泛使用。但并非所有的拟合都是恰当并且完美的,实际上神经网络求拟合的过程中进行的是复杂的黑箱操作,这种复杂性在于神经元的层层叠加,这一过程越复杂,结果就会变得越不可解释,测试得出的完美结果无法在真实应用中得到。“过拟合”的操作违反了奥卡姆剃刀原则。如今,各式各样充满技巧的复杂性算法模型摆在人们面前,铸成了越来越多不可解释的风险现象。复杂的人工智能算法在大而美的效果中越走越远,带来人工智能技术根本上的“脆弱”,各行各业都在使用复杂的神经网络,但是很难再见到如麦克斯韦方程组(The Maxwell's equations)、欧拉公式(Euler's Formula)、牛顿第二定律(Newton's Second Law of Motion)和毕达哥拉斯定理(Pythagoras theorem)这样朴素简洁的公式,这对于科学技术的进程来说,是令人不满的,也是伦理的开始。

3、将信任作为一种新型的个人工作

人工智能技术的“脆弱性”是人类暂时无可回避的问题,其进一步引发了人类在数字时代的存在方式与信任方式之思,人与人的链接更多通过智能系统和数字平台而产生。在新型的人技关系之下,嵌置在人工智能技术系统之中的人强烈感受到了被原子化、即刻化、碎片化,为了尽快摆脱这种危机,人与技术的出路是重新构建健康有效的信任关系。信任调整是协调人技关系的一把钥匙。

第一,区分人想要的和机器想要的,清晰描述“自我的生活世界”。“自我的生活世界”的被认知是发展“以人为本”的未来技术世界的基础。在建设、规范和治理人工智能发展的过程中,人们的根本目的是达到技术为人服务、为人控制的最终效果。所以,人们不能够忘却“自我”。这里的“自我”指的是具象的、可以被清晰描述的,互相之间存在着明显区别的“自我”。人工智能技术通过平台统一了人们衣食住行等多方面的规范,使得人们对“自我”的认知和需求变得越来越遥远且被动可塑,有时候不是人们选择技术作为一种生活方式,而是技术规制众人遵从同一种生活方式,吃饭叫外卖,消遣刷视频,购物用网站等等。大数据和算法叠加出了另一个远离人的肉身的且具有前所未有的形式统一的数字世界,数字化是不可逆转的技术潮流,数字化的象征是一切上网、上云,然而人们的灵魂已经逐渐追赶不上肉身的生活方式,“发呆”已经成为了人类珍贵的自我思想活动。所以,对“自我的生活世界”的清晰描述的能力是人类从云上走下来链接现实世界的重要一环,只有在认清真相之后才能产生正确有效的信任。

第二,打破对人工智能技术的迷信,重新关注自我、相信自我。智能社会搭建在数据之上,利用算法构建出智能应用的高楼大厦,浸润在这样的环境下,信任被发掘成为和数据一样可计算可处理的要素,关键的问题在于信任计算的合理性。无论从人类情感还是人类行为来看,信任的计算缺少了太多可靠的证据。信任作为一种人类情感是最难经得起理性计算的,信任计算的处理方式试图将信任的构成去情感化,人类是情感的动物,这种去情感化的构成对于人类来说近乎是不可能的。福山曾在其《信任:社会美德与创造经济繁荣》一书中指出,“人类生活中的百分之二十的世界,这是理性计算无法解释的部分,因为理性的计算永远无法超越文化的界限。”人类传统的信任无论在情感或者行为依据上都能够做到有迹可循,可以根据可见对象的行为、话语、神态以及个人的经验往往做出最简单直接的是否信任的判断,但但在人工智能信任过程中,算法作为最抽象的集成对象,既看不见摸不着,是高度的抽象系统。人工智能信任的建立尚不具备应该,更多则是依赖于人们的期望与自发。

最后,警惕信任的“被资源化”,维护个人信任的选择权利。在人工智能的发展过程当中,人作为个体切实享受了智能化的便利,提高了生活体验。一时间,智能技术的话语和方式成为生活的主流,而人的本质因素如耐心、直觉、创新与判断等不断地缩小至无关紧要的地步,这是极其危险的。社会学家詹姆斯·科尔曼(James Coleman)曾提出“社会资本”指社会中的个体只有通过社会团体的成员资格和社会网络的联系并在此基础上进行网络摄取,才能得到社会资本的回报,于是技术与资本的结合逐渐成为了社会秩序的主导因素。同理,信任一旦被资源化且与资本结合,那么个人的选择余地将十分有限。直面人工智能信任的“脆弱性”,将信任作为一种新型的个人工作谨慎对待,将是公众在应对“看不懂”的数智化洪流中的安身立命之计。

【本文是上海市哲学社会科学规划项目“数智时代的价值对齐研究”(2023BZX001)的阶段性研究成果】

(本文首发于《社会科学报》2024年2月9日 第六版 文化研究。)

有话要说...