k8凯发官网入口

人工智能治理的新思考:从伦理审查到伦理审议K8凯发(中国)天生赢家·一触即发
栏目:k8凯发官网资讯 发布时间:2025-08-04
 人工智能已成为各行各业的变革力量,为创新和效率提供了前所未有的机会。然而,人工智能的快速发展也带来了复杂的监管、法律和道德伦理挑战,尤其是在出现价值观冲突的地方。这些冲突通常体现在知识产权、创新与监管之间的平衡以及保护免受技术风险等领域。应对这些挑战需要从传统的伦理审查流程转向更具活力和包容性的伦理审议框架。近年来的实践表明,人工智能的治理充满了价值冲突,造成了诸多监管和伦理僵局。例如,特朗普

  人工智能已成为各行各业的变革力量,为创新和效率提供了前所未有的机会。然而,人工智能的快速发展也带来了复杂的监管、法律和道德伦理挑战,尤其是在出现价值观冲突的地方。这些冲突通常体现在知识产权、创新与监管之间的平衡以及保护免受技术风险等领域。应对这些挑战需要从传统的伦理审查流程转向更具活力和包容性的伦理审议框架。近年来的实践表明,人工智能的治理充满了价值冲突,造成了诸多监管和伦理僵局。例如,特朗普政府强调放松管制以促进人工智能创新,而这往往与要求严格治理以减轻人工智能部署带来的潜在风险的呼吁相冲突。这种紧张局势凸显了促进颠覆性创新与确保该创新实施中特定的脆弱群体免受技术滥用之间的更广泛争论。

  同样,在知识产权领域,人工智能生成内容的兴起引发了关于版权保护的争论。创意产业认为,不应允许人工智能公司未经适当授权使用受版权保护的材料,因为这会破坏人类创作者的经济基础。相反,人工智能支持者认为,获取各种数据集对于训练强大的人工智能模型至关重要,这表明过于严格的版权法可能会扼杀创新。这种二分法凸显了平衡创新者、监管者和消费者利益(尤其是特定的脆弱群体)的挑战,这种情况通常被描述为“不可能三角形”。

  传统的伦理审查流程通常旨在评估特定人工智能创新或应用是否符合既定的伦理规范和监管标准。虽然这种方法对于确保合规至关重要,但它往往无法解决人工智能治理过程中各种特定的价值冲突。通过传统伦理审查做出的决策可能难以平衡相互竞争的利益和价值观,导致最终结果可能无法完全让任何利益相关者群体满意。而且,传统审查往往是被动的,侧重于审查者(主要是领域专家和公众代表)对创新者计划实施的创新应用的裁决性评估与判定,难以体现人工智能创新涉及的复杂的价值与利益冲突,从而错失了主动识别和解决伦理问题的机会。这难免会削弱各个利益相关者对伦理审查本身的信任,并最终影响公众对人工智能技术的信任。

  为了有效应对人工智能治理的复杂性,迫切需要将伦理审查扩展为伦理审议。与传统审查不同,伦理审议涉及审查人员和利益相关者(包括创新者、监管者、消费者和脆弱群体等)之间的对话与商议。这种协作方法旨在在创新过程的早期识别和解决价值冲突,促进合乎伦理和社会可接受的解决方案。伦理审议尤其强调包容性,以确保在决策过程中考虑到不同的观点。通过让广泛的利益相关者参与进来,这种方法有助于更全面地了解人工智能创新的潜在影响,并促进制定反映所有相关方利益的平衡解决方案。

  人工智能伦理审议的基础是对人工智能发展中相关价值、利益和权利冲突的审议空间的形成。就科技伦理治理而言,其审议空间就是对于科技伦理问题以及相关治理实践展开讨论、征求意见与建议、开放建言献策的空间。在人工智能伦理等科技伦理治理层面,我国在科技伦理治理及科技伦理审查办法等文件的公开征求意见过程中,实际上已初步构建了科技伦理审议空间。通过不同时段的审议空间的构建,不仅可以在具体的伦理审议之前由意见征集与观点碰撞预先形成认知前提和舆论空间,而且在针对具体产品与服务的伦理审议之后,使全社会对相关问题的探讨延伸到人工智能创新的全生命周期。因此,广义的科技伦理审议是全社会对科技伦理焦点问题及其应对方案的共同探讨。根据不同的情况,参与探讨者的范围可以是专家、利益相关者群体乃至全社会。

  由于人工智能伦理审议目前还只是一个设想,虽然可以提出一些基本原则和关键步骤,但究竟如何进行有效的审议还需假以时日,有待面向人工智能创新的复杂性事实且充分“接地”的实践探索。在此,不妨看看英国政府最近在人工智能版权改革上进行的政策审议的案例,简要探讨一下从中可能获得的启示。

  英国政府2024年12月就修改现有版权法以促进人工智能创新的提案所进行的咨询(《Copyright and AI: Consultation》)对如何进行伦理审议具有重要的借鉴意义。为了保护版权作品权利人的利益并减少人工智能模型训练在法律上的不确定性,英国政府通过公众咨询的方式发布了人工智能模型训练版权改革方案。在咨询文件中,列出了政府考虑的四个选项:

  • 选项0:不采取任何行动,版权和相关法律保持不变;• 选项1:强化版权,在所有情况下都要求许可;• 选项2:广泛的数据挖掘例外;• 选项3:数据挖掘例外,允许权利人保留其权利,并以强有力的支持透明度的措施为基础。这四个选项的排列所呈现的即是政策叙事,也可以说是审议空间的议题设定。透过选项的编排(选项0维持原状,选项1加强保护,选项2放弃保护,选项3则是对1和2的综合),英国政府倾向于“选择退出”模式,即仅在权利人未主动保留其版权的情况下,才允许基于其作品进行人工智能训练,同时通过加强透明度来支撑这一方案。

  在政策制定者看来,选择退出旨在增加可用于训练的数据,而透明度则旨在促进许可。仅从表面上看,很容易接受这种折衷选择和双重保护——这无疑是政策叙事常见的策略/招数,尽管议题设置者未必有意为之。而这种策略背后的哲学是二元论哲学加折衷主义,即矛盾哲学或斗争哲学加调和主义,它们对于大多数简单问题的解决是有效的。比方说,为了减少血液黏稠度吃阿司匹林,结果导致一些人胃部容易出血,解决的方案就是将阿司匹林升级为在胃中不会溶解的肠溶片。大多数问题导向的政策制定能做到这样,并且在增加一些配套的支撑举措就不错了。但对于人工智能大模型训练中的版权保护这一仍在发展中的复杂问题,该模式未必适用,因为其治理对象已从以往具体的侵权个案转向整个创意作品使用方式的颠覆性变革。英国政府所倾向的“选择退出”模式允许创作者有权明确表示不希望其作品被用于训练商业化的生成式人工智能模型。在其背后的政策叙事中,实际上与特朗普政府一样,将“人工智能创新”和“人工智能治理”视为对立的双方。正因为陷入这种二元对立的叙事,使得英国政府倾向的政策选项失之简单化。

  针对允许创作者保留保护其权利这一政策选择中的优先事项,行业自身表达了不同的意愿。根据《金融时报》的报道,在一次备受争议的磋商之前,由近40个英国创意团体新组成的人工智能创意权利联盟敦促政府保护创意产业的权利。而他们优先考虑的是为人工智能开发中的创意内容使用建立许可市场,强调公平和共同成长的必要性;其次才是确保内容创作者能够控制自己的作品并能够监控其使用方式。因此,尽管绝大多数公众支持人工智能模型训练的透明度,以及科技公司向内容创作者支付版税,但人工智能创意权利联盟所担心的是,新规则的制定会不会使版权持有者难以与人工智能公司就其作品达成交易。正如牛津大学人工智能伦理研究所主任 Caroline Emmer De Albuquerque Green 博士和牛津大学博德利图书馆版权与许可部负责人 Chris Morrison 所指出的那样,政府提案的重点主要放在版权对创意产业和人工智能领域相互冲突的影响上,强化了使人群观点分立的“版权战争”叙述,而非从复杂性和相互纠缠的角度探索具有更广泛接受性的伦理法律框架。英国政府对政策选项的提议迫使受访者形成两种对立的观点,本质上造成了人工智能和创意产业之间不必要的分歧,也损害了研究人员和民间社会等关键利益相关者的利益。在他们看来:“我们的目标必须是建立法律和伦理框架,摆脱建立在人工智能创新和人类创造力本质上是竞争关系、应相互孤立对待的理念之上的二元方法。”这种二元对立哲学使得英国政府在此问题上的政策叙事陷入双重盲区。一方面,议题设置者未能看到,人工智能版权许可经济已经形成规模,对于许多人工智能公司来说,版权作品许可已有成熟的路径,包括与大学和图书馆的合作。另一方面,未能看到“选择退出”模式往往只能给人加强版权人控制的错觉,而实际上,随着生成式人工智能的普及,许多专业的创作者自身也未必遵循这一规定,这就意味着这一实施成本高昂的方案收效甚微。反过来,现实中通过合作促进版权流动的方式所带来的收益与风险则是可预测的。因此,更务实的解决方案的宗旨可能是,在当前创作者收入不高且每况愈下的情况下,确保对基于各种形式的许可协议获得的任何资金的分配更多地惠及创作者。()对于人工智能伦理审议来说,由此政策审议可以得到的一个重要启示是:人工智能伦理审议应该建立在利益相关者的共同审议之上。人工智能伦理审议应该像上述政策审议那样,超越基于二元对立的观点所推出的简单化的原则和规范,采取以利益相关者为中心的方法。审议机制的设计应充分认识到让所有相关方通过立场表达和各种形式的对话磋商参与政策与规范制定的重要性。值得指出的是,这种对政策叙事的审议中的哲学追问恰好是我国当前人工智能法律和伦理治理中所或缺的。它不仅有助于打破其中自我指涉乃至自欺欺人的二元对立的方法论或诱导术,而且可以促使人们更好地面向事实本身,进而重新确立人工智能伦理和法律等治理规范的优先事项。这使人联想到当下的一个热门话题:人工智能时代文科究竟有没有用,其中也包括哲学。年初,迈克尔·施拉格和大卫·基隆在《MIT斯隆管理评论》上发表的题为《哲学吞噬人工智能》(Philosophy Eats AI)的文章给出了肯定的答案:“作为一门学科、数据集和感性,哲学越来越多地决定着数字技术如何推理、预测、创造、生成和创新。企业面临的关键挑战是领导者是否具有自我意识和严谨性,将哲学作为创造人工智能价值的资源,还是默认使用隐性、未阐明的哲学原则来部署人工智能。无论好坏,哲学都会吞噬人工智能。对于有战略意识的高管来说,需要把这个隐喻放k8凯发官网在首位。”“哲学吞噬人工智能”这一隐喻是对程序员出身的风险投资人马克·安德森于2011年提出的“软件正在吞噬世界”(Software is eating the world)的口号的化用。施拉格和基隆强调指出:“虽然合乎伦理和负责任的人工智能目前主导着哲学在开发和部署人工智能解决方案中所扮演的角色,但这些主题只代表了哲学观点的一小部分,这些观点指导着人工智能的生产、效用和使用。偏重道德准则和护栏会低估哲学的真正影响。人工智能模型应该实现什么(目的论)、什么算作知识(认识论)以及人工智能如何代理实在(本体论)的哲学观点也影响着价值创造。如果没有深思熟虑和严格地培养哲学洞察力,组织将无法从其生成性和预测性人工智能投资中获得卓越的回报和竞争优势。”

  在借助高端商业管理杂志的文章探讨哲学对于人工智能的重要性后,还是回到人工智能伦理审议如何实际操作这一主题。毋庸置疑,有效人工智能治理中的伦理审议应遵循包容性、平衡性和问责制等一系列关键原则。为了避免一些不必要的套话,在此先简单列出当前人工智能伦理治理能力建设亟待加强的三个方面:

  1. 包容性与对脆弱群体的关注。包容性即确保所有利益相关者享有平等的机会和参与,积极应对技术脆弱群体在参与能力方面的重大不平等问题。

  2. 更加明智的决策。更加明智的决策首先需谦逊地承认伦理审议的复杂性与挑战,并强调对伦理原则及立场的反思、调整和修正。换言之,敏捷治理与适应性治理的关键在于伦理审议适应创新应用,而非相反。这就意味着当前人工智能伦理审议的根本挑战在于,审议所需要的知识甚至多于人工智能创新应用。

  3. 早期介入机制。 即应在人工智能开发项目开始时启动利益相关者的早期伦理商议和讨论,更为主动地识别和思考涉及的各种伦理问题与价值冲突,包括这些认识和思虑本身的局限性,从一开始就开启由伦理反思、商谈、对话到审议的思想空间。简言之,为了解决人工智能治理中固有的伦理和价值观冲突导致的僵局,亟待超越传统的伦理审查机制,转向更具包容性、更加明智和更早介入的伦理审议框架,以此有效推进负责任和可信任的人工智能发展。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  越南路边咖啡店里的皮肉交易,15万盾/次,老板娘亲自操刀,被警方抓个正着

  “他看起来没有灵魂”,美国杀手理发时被捕,反复跟理发师强调不剪短刘海,要继续遮住眼睛

  贵州一景区大量游客高喊“退票”,滞留至凌晨,有人晕倒!当地文旅局:已限流

  Here we go!罗马诺:孙兴慜将加盟洛杉矶FC,转会费超1500万欧