1. 首页 > 财经资讯

算法公平治理与实现研讨会:建议依平台场景衡定公平性目标

  人工智能时代,算法已被广泛应用于互联网产品推荐和工作生活服务等多元场景之中,可以说,算法正在重构人类“想象的生活”,与此同时,保证算法公平正成为人类社会进步的重要主题和价值取向。

  近日,在对外经济贸易大学数字经济与法律创新研究中心举办的“算法公平治理与实现”研讨会上,来自国内顶级高校的法律、公共管理、新闻传播、计算机、社会学等领域的专家各抒己见,热议算法公平建设路径。

  算法驱动数字经济,公平性目标繁多需确定合理优先级

  中国信息通信研究院高级研究员程莹认为,算法正成为平台经济的核心驱动力,对中国的平台模式、商业模式、数字经济产生根本性变革,主要体现在三方面。第一,算法改善了生产效率和交易效率,帮助用户迅速找到所需商品或服务,帮助卖家快速做出价格调整。第二,算法能够更好实现供需平衡,例如可精准匹配广告供需双方,激发消费者潜在的消费需求,同时针对消费需求的临时变动,利用算法实现价格应急性上浮,迅速达到供需动态平衡。第三,算法能够更好满足个性化需求,激活长尾市场。在传统排序算法下,新企业、新内容、新产品很难排到前几页展示,但个性化推荐算法创造和提供了“被看到”的可能性。

  同时,技术是一把双刃剑。随着《个人信息保护法》《互联网信息服务算法推荐管理规定》等法律法规的落地,中国的算法治理体系正在逐步完善中,算法公平性成为制度设计和落地实施的关键和难点,这也是本次研讨会的起点。

  什么是算法公平?与会专家对此提出了多样解读。清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长梁正以COMPAS案件为例总结了三个视角。第一是统计平等,即COMPAS对每个种族群体,比如黑人、白人,被拘留的被告人数比例相等。第二是条件统计平等,指在有限的风险因素情况下,每个种族群体中被拘留的被告人数比例相等,即犯罪风险的概率同等。第三是预测相等,偏误的假阳性和不同种族群体预测的准确性应大致相同。

  对外经济贸易大学数字经济与法律创新研究中心执行主任张欣就中心撰写的《算法公平性分类与实现》研究报告进行汇报,总结了算法公平的四个维度:基于主体、基于参与者、基于主观感知、基于算法生命周期。

  报告指出,从参与者角度来看,平台算法公平是多方主体的公平,需要超越单一的用户视角。工业界实践表明,企业可以在算法公平方面做出积极探索,并在公共利益和商业利益之间建立良性平衡。例如,MIT Technology Review 2021年发布的“十大突破性技术”中,TikTok推荐算法入选。该算法兼顾了短视频观看者和创作者两个角度的公平,使得普通用户发布的内容也有可能受到明星般的关注,迅速流行起来;具有小众或细分需求的用户,也能看到自己感兴趣的内容。

  北京大学法学院助理教授、院长助理阎天则从歧视的角度进行了区分,他指出,直接歧视就是故意对别人进行不合理的区别对待;而间接歧视表面上不做区别对待,但是在客观结果上进行区别对待,将弱势群体置于一个更弱的位置上。直接歧视伤害的是具体个人,而间接歧视不仅使得具体个人受到伤害,而且损害整个群体。

  “算法不可能是普遍公平的,也不可能对所有的公平指标同时进行优化。”中国科学院人工智能联盟组标准成员吴焦苏直言,从统计博弈论视角来看,算法公平具有相对性。

  梁正指出,在公共管理领域中,起点公平、过程公平、结果公平,这三者不可能同时实现。对于不同层面的算法公平性,满足其中某一个定义,可能另外一个公平性就得不到满足。公平性的定义实际上与资源分配密切相关,但常常面临“不可能三角”式的挑战。

  中国政法大学数字法治研究院教授张凌寒认为,应该尽量避免陷入虚无的、套话的公平内涵的大讨论,不能仅从数学角度来讨论算法的结果公平,更重要的是制度的目的。例如,当我们讨论个性化定价算法公平的时候,实际上是在讨论消费者公平交易权和知情权有没有受到侵害。

  用户、数据、算法循环交互,技术改进有利于提升算法公平

  “完全通过人力去监管几乎是不可能的,可以从技术层面实现算法公平增强技术。”中国科学院计算技术研究所副研究员庞亮提到,人工智能算法的公平性存在三个阶段,一是预处理公平性阶段,关涉输入数据,二是过程的公平性技术,关涉人工智能模型,三是后处理阶段,关涉干预策略,可以从这三个角度提升算法公平。

  中国人民大学高瓴人工智能学院博士后朱倩男认为,推荐算法是用户-数据-算法模型三者之间循环交互的过程,算法公平性实际上与数据、算法和人三大要素有关。从数据层面,数据是社会价值观念的反映,如果数据包含了现实世界的歧视和不公平,则会产生有偏的结果,进而带来公平性问题。从算法角度,算法更多拟合大多数群体的需求,对少数群体的需求代表性和建模程度不够,可能带来不公平问题。从人类角度,算法设计者自身的偏见有可能被嵌入到算法中而带来不公平性问题。

  中国人民大学高瓴人工智能学院助理教授陈旭分享了推荐算法的公平治理方法,比如在前处理阶段,直接去除敏感变量或通过调整权重、删除样本等方式使敏感变量和预测结果独立。他还指出,未来仍需关注三个问题:第一,个人如何能够感受到算法是否公平;第二,以何种标准来定义公平更为合适;第三,对于多敏感变量,特别是相互矛盾的敏感变量,如何寻求平衡。

  “如果直接去纠正算法歧视,那算法模型预测或其他功能的完成度就会降低。”清华大学交叉信息研究院助理教授于洋强调,算法公平性提升,需兼顾效率等功能诉求。纠正算法歧视,不仅需要关注训练数据,也需要关注内部设计,即从训练数据输入到结果输出有三条影响路径,从影响路径入手,在明确运行原理的基础上进行纠偏。

  中国人民公安大学数据法学研究院院长、法学院副教授苏宇建议从代码、算法解释机制以及输出结果等途径中寻找歧视因素以及对总体结果的影响,进而对症下药。

  庞亮认为,即使算法决策具有公平性和准确性,甚至优于人类决策,个体仍可能对算法决策的公平感知较低,表现出算法厌恶。如果我们能够设计更好的算法机制公开策略,就会使得更多人相信算法的决策。庞亮主张技术是实现算法公平的重要方式之一。从企业角度,在技术层面或者算法设计层面加入一些公平性技术,实现算法公平增强技术;从国家治理角度通过技术来监管算法的公平,形成算法公平监管体系。

  关注算法公平问题的社会影响因素,实现公平需结合具体场景

  虽然专家们对算法公平的定义未有统一标准,但多位专家都强调,讨论算法公平必须要和具体场景结合起来。

  张欣强调,对算法公平性的目标追求和要求应考虑具体的语境和场景,注重其多维性、场景性、动态性特征,在人工智能语境下,任何关于算法公平的主张都需要在特定场景下结合法律规范、技术伦理和社会影响展开精准评判和预估。

  “算法作为科技活动会产生一定风险,跟应用场景相结合又会产生新的风险。因此,在规范风险的时候要做区分。”浙江大学光华法学院讲师、工信部工业与信息化法治研究院研究员林洹民认为,算法公平应当区分科技活动风险与应用场景风险,后者又要平衡不同场景中的多元价值,比如社会治理智能化和公民基本权利,智能经济与消费者权利保护。

  算法公平之所以存在挑战,并不在于计算或者统计等技术层面,而是因为公平的达成具有场景性、动态性、沟通性和过程性,仅依靠“技术解决主义”的治理路径,难以有效应对在技术与社会互动过程中形成的算法不公风险。因此,部分专家还强调算法公平要走出技术的藩篱,关注算法背后的社会因素和价值。

  人工智能为什么会出错?清华大学新闻与传播学院教授、常务副院长陈昌凤认为,“主要原因在于我们人类,我们要重视算法的社会性面向。”从社会性层面看,算法是文化或制度性的一种延展,算法的社会性正在更深入地融入到技术性层面,我们要避免技术传递或扩大社会偏向。

  当社会性融入技术层面,不可避免地会引发价值偏见。张欣认为,算法歧视和不公是技术与社会互动的结果,是根植于社会结构中深层和隐形的不平等在算法系统中的表现。因此,算法公平的达成具有场景性、动态性、沟通性和过程性。

  阎天认为,在讨论算法歧视问题时,要特别谨慎考虑引入间接歧视制度。对于该制度可能发挥的作用,要结合实际情况具体分析,同时不应忽视制度的局限。

  分级分类是务实之举,算法善用应尊重科技主体自主性和回归人本精神

  如何在技术与社会的互动过程中构建算法公平的实现路径?与会专家分别从技术改善层面、权责认定和分配、制度体系搭建等方面给出建议。

  “算法公平中存在一个‘不可能三角’,从当前算法治理的实践来看,分级分类定制化的治理方案可能是更务实的。”梁正称,算法公平也是保障公共利益最大化。算法分级分类的内涵在于,在判断风险要素识别和分级分类基础上,我们才有相应的规制要求和监管力度。不同监管规则的设计应注重与具体场景相匹配。因此,从这个意义上,算法公平问题涉及社会资源分配,同时也涉及具体场景的多元因素判断。

  程莹也谈到该点,并就定价算法进行了例证。定价算法指预测消费者最高的保留价格,并以此向条件相同的消费者设定高低不同的价格,比如社会公众较为关心的大数据杀熟、价格歧视等。定价算法在一定程度上有助于促进社会总体福利的提升。程莹认为,不应对定价算法“一刀切”,应该分类界定和认定,我们可依据《反垄断法》等予以规制,禁止相关主体滥用市场支配地位进行差别待遇。同时通过合同机制予以约束,加强算法的透明度,落实个人信息知情同意,细化算法备案和解释机制。

  报告从短期、中期和长期视角,提出时序性的算法公平治理框架。从短期看,要确立算法公平的系统目标,需要对什么是合理范畴的公平进行分析和沟通。从中期看,要推动算法公平认证制度落地,由特定认证机构基于公平检测,证明算法设计、算法应用和算法服务以及管理体系等符合算法公平相关技术规范。创建基于技术信任的分类分级的认证程序,对于信息、文娱类等用户自主选择空间大的低风险算法设计、产品和服务可以开展加速认证程序,通过高效方法提升认证效率;对于交通出行、医疗、就业、教育等与人民群众生命安全或切身利益紧密相关的高风险类算法应用,则应考虑建立强制性公平性评估制度。从长期看,则需要通过立法、规制和社会规范等社会和法律层级开展系统的宏观治理。

  吴焦苏提到,现在人工智能面临三个层次的矛盾,一是可用不安全,二是安全不可信,三是可信不可爱。可信人工智能标准(Trustworthy AI)在应对目前全球人工智能治理格局时仍有不足,需要上升到更高的层次,即Graceful AI。

  报告建议,应鼓励和尊重科技企业依据算法功能定位、主营业务特征、具体运行场景、利益相关主体等因素,自主制定公平价值观的优先级清单并定期更新。为提升算法的公平性,国内外互联网企业做了不同探索。例如,2018年,IBM推出AI Fairness 360,用以减少软件偏见并提高其公平性。Facebook(Meta)公开了Fairness Flow诊断工具包,帮助诊断和分析算法模型和标签的公平性问题。

  国内层面,字节跳动、阿里巴巴、美团、京东等国内互联网企业也积极探索解决方案,积极规避造成算法不公平的潜在因素,致力于发展无偏推荐系统。

  朱倩男则表示,解决算法推荐的不公平现象可以从四个方面入手:一是从数据、算法和算法相关主体层面来规避算法不公平;二是定义清晰的公平性适用范围、对象和场景;三是建立通用的公平性评测标准、平台及数据集,对算法进行修正;四是从法律法规、社会监管角度规避公平性问题。

  张凌寒强调,无论公平抑或是合理,均属于价值意义上的抽象标准,需要在实践中予以具体化,这涉及到具体条款对于算法公平和算法责任认定问题。应当结合具体的构成责任,将条款制度的具体目的作为一个责任构成要件推动规则细化。

  中国人民大学未来法治研究院执行院长张吉豫表示,通过政府监管、侵权责任共同对算法公平进行规制。侵权法路径是一种比较间接的规制模式,主要通过承担侵权责任来间接影响相应主体未来的行为和促使相关主体提高注意义务,进而减少相关风险。

  “侵权责任设计就是希望能够平衡权利保护和行为自由的框架设计,平衡产业利益,更好保护公民权益。”张吉豫表示,在具体判断是否构成算法歧视时,应该综合多种因素共同判断合理界定是否构成侵害,包括相关法律义务履行情况,是否符合国家行业标准以及以往相关用户投诉和涉及侵权诉讼情况。同时还应从所采取的措施水平和成本以及相应场景中算法引起的损害和发生概率进行合理界定。

(文章来源:中新经纬)

本文来源于网友自行发布,不代表本站立场,转载联系作者并注明出处