在虚构的《星球大战》宇宙中,没有人认真对待人工智能。在乔治·卢卡斯 47 年前的科幻系列电影中,人类历史时间轴上不存在奇点和机器学习意识的威胁,人工智能仅限于自主移动机器人(“机器人”)——主角们习惯性地将其视为纯粹的“机器”。然而,大多数 […]
意见 虚构中没有人 《星球大战》 宇宙对人工智能非常重视。在乔治·卢卡斯 47 年前的科幻系列电影中,人类历史时间轴上不存在来自奇点和机器学习意识的威胁,人工智能仅限于自主移动机器人(‘机器人’) — 主角们通常将它们视为仅仅是“机器”而已。
然而大多数 《星球大战》 机器人高度拟人化,显然是为了与人互动、参与“有机”文化以及利用其情绪状态的模拟与人建立联系而设计的。这些能力显然是为了帮助他们为自己获得一些优势,甚至确保自己的生存。
“真正”的人 《星球大战》 似乎已沉溺于这些策略。在一种愤世嫉俗的文化模式中,这种模式显然受到罗马帝国和早期美国各个奴隶制时代的启发,卢克·天行者毫不犹豫地购买和限制奴隶机器人;孩子阿纳金·天行者抛弃了他未完成的 C3PO 项目,就像抛弃一个不受欢迎的玩具一样;在死星袭击期间受到伤害而濒临死亡的“勇敢”的 R2D2 得到卢克的关心,就像一只受伤的宠物一样。
这是一部非常具有 1970 世纪 1977 年代风格的人工智能电影*;但由于怀旧情绪和经典作品决定了 83-XNUMX 年的原版三部曲仍然是后来的续集、前传和电视节目的模板,人类对人工智能的冷漠一直是该系列电影的主线,即使面对越来越多的电视节目和电影(如 她的 和 前Machina) 描绘了我们与人工智能之间的拟人化关系。
保持真实
做有机 《星球大战》 角色真的有正确的态度吗?目前,在商业环境中,这种想法并不流行,因为商业环境要求最大限度地吸引投资者,而投资者通常是通过病毒式演示现实世界的视觉或文本模拟,或类似人类的交互系统,如大型语言模型 (LLM)。
尽管如此,一个新的和简短的 纸 来自斯坦福大学、卡内基梅隆大学和微软研究院的研究旨在解决人们对人工智能拟人化的漠视问题。
作者认为,人类与人工智能通信之间的“交叉影响”是一种需要紧急缓解的潜在危害,原因如下 †:
“[我们]认为我们需要做更多的工作来开发专门技术和工具,以更好地应对拟人化行为,包括在系统行为被认为是不良时衡量和缓解此类行为。
“这样做至关重要,因为除了其他许多问题之外,人工智能系统生成声称具有感觉、理解、自由意志或潜在自我意识的内容可能会侵蚀人们的 代理感其结果是人们最终可能会将道德责任归咎于 至系统, 高估 系统功能,或者即使在不正确的情况下也过度依赖这些系统。’
贡献者澄清说,他们正在讨论的系统 感知 像人类一样,围绕着潜力 意图 开发人员促进机器系统的拟人化。
这篇短文的核心担忧是,人们可能会对基于人工智能的系统产生情感依赖——正如 2022研究 在 gen AI 聊天机器人平台上 Replika) — 它积极地提供了富含习语的人类交流的复制品。
Replika 等系统是作者谨慎关注的目标,他们指出,2022 年 纸 Replika 上断言:
“在痛苦和缺乏人类陪伴的情况下,如果人们认为聊天机器人的反应能提供情感支持、鼓励和心理安全,他们就会对社交聊天机器人产生依赖。
“这些发现表明,社交聊天机器人可以用于心理健康和治疗目的,但有可能导致上瘾并损害现实生活中的亲密关系。”
去拟人化的语言?
这项新研究认为,如果不研究生成式人工智能迄今为止的社会影响,就无法确定其拟人化的潜力,而这是文献中被忽视的追求。
问题的一部分在于拟人化很难定义,因为它最主要关注的是语言,这是人类的一种功能。因此,挑战在于定义“非人类”语言究竟听起来或看起来是什么样子。
讽刺的是,尽管该论文没有涉及这一点,但公众对人工智能的不信任正日益导致人们 拒绝人工智能生成的文本内容 这可能看起来很人性化,甚至拒绝 故意贴上人工智能标签的人类内容.
因此,可以说“非人性化”内容不再属于 “无法计算”模因,其中的语言结构笨拙,但显然是由机器生成的。
相反,定义是 ���Ϸ�չ 在人工智能检测场景中,(至少目前)过于清晰的语言或 使用某些词语 (例如 '德尔维) 会引起与 AI 生成的文本的关联。
“与 GenAI 系统的其他目标一样,语言本身天生就是人类的,长期以来由人类创造并为人类服务,而且往往也与人类有关。这可能使得很难指定适当的替代(不太像人类的)行为,并且存在风险,例如,将什么语言(以及谁的语言)被认为更像或更不像人类的有害观念具体化。”
然而,作者认为,应该对那些公然歪曲事实、声称只有人类才具备的能力或经验的系统划出明确的界限。
他们引用了法学硕士等案例 自称“喜欢披萨”;声称 人类经验 在 Facebook 等平台上;以及 表白爱情 给最终用户。
警告标志
本文对使用 全面披露 关于交流是否由机器学习促成。作者认为,如果输出结果本身继续表现出人类特征,那么系统化此类警告并不能充分体现人工智能平台的拟人化效果†:
“例如,一种常见的建议干预措施是在人工智能系统的输出中披露该输出是由人工智能[系统]生成的。如何在实践中实施此类干预措施以及它们是否能够单独发挥作用可能并不总是很清楚。
例如,虽然“对于像我这样的人工智能来说,幸福是不一样的 对于像你这样的人]”包括披露,但它可能仍然表明一种身份认同感和自我评估的能力(人类的共同特征)。’
关于评估人类对系统行为的反应,作者还认为 从人类反馈中强化学习 (RLHF)未能考虑到人类和人工智能的适当反应之间的差异†.
“如果人工智能系统发出的声明背后缺乏有意义的承诺或意图,那么人类说出的看似友好或真诚的声明就可能是不受欢迎的,因为人工智能系统发出的声明背后缺乏有意义的承诺或意图,从而使声明变得空洞和具有欺骗性。”
还提出了进一步的担忧,例如拟人化可能会影响人们相信人工智能系统已经 获得“感知”或 其他人类特征.
或许,这部新著作最雄心勃勃的结束部分是作者们的恳请,即研究和开发界旨在开发“适当”和“精确”的术语,以建立定义拟人化人工智能系统的参数,并将其与现实世界的人类话语区分开来。
与人工智能发展的许多热门领域一样,这种分类也涉及心理学、语言学和人类学等文献流派。很难知道目前哪些权威机构可以真正制定这种类型的定义,而新论文的研究人员也没有就此事提供任何线索。
如果商业和学术界对这一主题存在惰性,那么部分原因可能在于,这远不是人工智能研究中一个新的讨论主题:正如论文所指出的,1985 年,已故荷兰计算机科学家 Edsger Wybe Dijkstra 描述 拟人化是系统开发中的一种“有害”趋势。
“拟人化思维没有好处,因为它没有帮助。但它也很糟糕吗?是的,因为即使我们能指出人与物之间的某种相似之处,这种相似之处与差异相比总是微不足道的,而且一旦我们允许自己被这种相似性所诱惑,用拟人化的术语来描述物,我们就会立即失去对将哪些人类内涵带入画面的控制。
“……但人与机器之间的界限模糊,其影响远超乎你的想象。不仅仅是‘机器能思考吗?’这个问题经常被提出;我们可以——也应该——通过指出它与‘潜艇能游泳吗?’同样重要来解决这个问题。”
然而,尽管这场争论由来已久,但直到最近才变得非常重要。可以说,Dijkstra 的贡献相当于维多利亚时代对太空旅行的推测,纯粹是理论性的,有待历史发展。
因此,尽管该话题在未来2-5年内可能具有重大的社会意义,但这种既定的辩论体系可能会让人感到厌倦。
结论
如果我们以同样轻蔑的眼光看待人工智能系统和有机体 《星球大战》 角色将自己的机器人视为(即作为移动搜索引擎,或仅仅是机械功能的传达者),我们可以说不太可能将这些社会不良特征习惯于我们的人际交往中 - 因为我们会在完全非人类的背景下看待系统。
实际上,一旦查询从谷歌搜索词的简单性扩展到对话的丰富内容,人类语言与人类行为的纠缠就会使这一点变得困难,甚至不可能。
此外,商业部门(以及广告部门) 强烈的动机 创建令人上瘾或必不可少的通信平台,以保留和增加客户。
无论如何,如果人工智能系统真的 更好地回应礼貌的询问 而不是简化的询问,出于这个原因,我们可能也会被迫接受这种背景。
* 甚至到了 1983 年,也就是原版的最后一篇 《星球大战》 发布后,人们对机器学习的增长产生了恐惧,导致了世界末日的 战争游戏__以及即将到来的__ 终结者 特许经营权。