首页

学术活动

当前位置: 首页 > 正文

李伦教授参加中国人工智能产业发展联盟科技伦理工作组2026年第一次会议


发布人:日期:2026-04-14

2026年4月10日,中国人工智能产业发展联盟科技伦理工作组2026年第一次会议在武汉举行。

湖南师范大学人工智能伦理研究中心主任李伦教授应邀出席,并作题为“伦理工程学:给人工智能一颗良芯”的主题报告,从伦理工程学的角度解读了工信部等十部门近日发布的《人工智能科技伦理审查与服务办法(试行)》。

人工智能伦理风险治理如何取得实效?如何防范算法歧视、算法黑箱等人工智能伦理风险?

李伦指出,防范方法与伦理风险的来源直接相关。从伦理风险溯源来看,人工智能伦理风险可分为人源性风险和技源性风险。人源性伦理风险是人主观上不当设计或使用技术引发的伦理风险,是技术的后天风险;技源性伦理风险是技术内在缺陷蕴含的伦理风险,是技术的先天风险。

他通过区分算法黑箱和算法黑幕,强调了区分人源性风险和技源性风险的重要意义。算法黑箱是技术因素导致的,属于技源性风险,是技术的复杂性和不成熟导致的;算法黑幕是人为因素导致的,属于人源性风险,是机构为达到某种目的恶意设计算法,故意掩盖算法真相的结果。对算法黑箱和算法黑幕不加区分势必难以解决问题,尤其是将算法黑幕说成算法黑箱,实际上是推卸责任的一种方式。

李伦指出,技术伦理风险溯源具有人源性和技源性,防范技术伦理风险的方法相应地可分为技术方法和非技术方法。他将通过技术方法防范伦理风险的方案称为“伦理工程学”。

他通过对算法歧视溯源的分析,强调了风险防范方法与风险类型相匹配的重要性。算法歧视至少包括两种情形:算法偏差导致的算法歧视和恶意设计的算法歧视。算法偏差是由于技术不成熟或技术缺陷产生的,这有赖于算法技术的改进。恶意设计是人为因素导致的,这技术上并不存在偏差,也不存在技术瓶颈,而是有些机构通过算法设计故意不公正地对待用户。“大数据杀熟”就属于这种情况。算法偏差不涉及人的不良动机,恶意设计恰恰是人的不良动机导致的。算法偏差是因为“技术蠢”,恶意设计是因为“人坏”。

李伦指出,新近发布的《人工智能科技伦理审查与服务办法(试行)》特别强调伦理工程学在防范人工智能伦理风险的作用。《办法》第六条提出,“支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险;促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。”

李伦指出,《办法》极为重视防范人工智能伦理风险的技术方法的作用和创新,并且明确提出了人工智能风险防范技术方法创新的重点,包括人工智能科技伦理审查技术创新、防范人工智能科技伦理风险技术手段的创新、通用性风险管理和评估审计工具的研发等。

李伦提出,人工智能创新主体尤其头部企业应在原有的基础上进一步落实这一要求,针对算法黑箱、隐私泄露、算法歧视、“幻觉”和“失控”等风险开发安全可靠的技术工具,切实提高人工智能伦理风险防范的实效。

本文转载自科技伦理公众号。

供稿:王伊帆

一审:胡耀飞

二审:文贤庆

三审:李培超

上一条:讲座预告|从思辨辩证法到对话辩证法——论伽达默尔哲学诠释学对黑格尔辩证法的继承

下一条:讲座预告| 空间重组、价值博弈与生产转型——当代西方资本主义生产方式的演变

【关闭】 打印    收藏