术语表

人工智能中的偏见

通过合乎道德的人工智能开发战略、工具和真实案例,了解如何识别、减轻和防止人工智能系统中的偏见。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能(AI)中的偏差指的是人工智能系统中存在的系统性和可重复的错误,这些错误会导致不公平、偏斜或歧视性的结果,通常是基于任意特征而偏向一个群体而非其他群体。这种偏见并非源于人工智能模型本身的恶意行为,而是当模型学习并复制训练数据、算法设计或参与开发和部署的人类所做选择中存在的隐含价值观、历史不平等或统计不平衡时产生的。解决人工智能偏差问题是人工智能道德发展的基础,它对模型性能、可靠性和公众信任度有着至关重要的影响,尤其是在计算机视觉(CV)等敏感领域。

艾滋病偏见的来源

人工智能的偏见并非人工智能的固有属性,而是源于用于构建这些系统的人类流程和数据。了解其根源是减少偏差的关键:

  • 数据集偏差这是最常见的来源,当用于训练的数据不能代表真实世界的人口或模型部署的环境时,就会产生数据集偏差。这包括历史偏差(反映了过去的社会偏见)、测量偏差(不同群体的数据收集不一致)、代表性偏差(对某些群体采样不足)以及数据标注中的问题(注释反映了主观观点)。了解数据集偏差的影响对视觉人工智能至关重要。
  • 算法偏差算法本身也可能带来偏差,例如算法优化指标时无意中不利于特定群体,或者模型设计所做的假设并非对所有人都适用。例如,某些优化选择可能会优先考虑整体准确性,而牺牲对少数群体的公平性。
  • 人为偏见:开发人员和用户自身有意识或无意识的偏见会影响模型设计、数据选择、结果解释和部署决策,从而在人工智能生命周期中嵌入不公平因素。

真实案例

人工智能中的偏见会在各种应用中表现出来,有时会造成严重后果:

  • 面部识别系统大量研究(包括NIST 的广泛测试)表明,某些面部识别技术对某些人口群体(如肤色较深的女性)的准确率明显低于其他群体(如肤色较浅的男性)。这种差异往往源于训练数据集不具代表性,可能导致从手机解锁到执法等应用中的错误识别和不平等待遇。算法正义联盟(Algorithmic Justice League)等组织积极致力于强调和消除这种偏见。
  • 医疗保健中的人工智能用于医学图像分析或预测患者风险等任务的人工智能模型可能会继承历史健康数据的偏差。如果诊断工具主要根据某一人群的数据进行训练,那么它对代表性不足的人群的准确性可能会降低,从而可能导致诊断延迟或治疗建议不当。研究强调,如果不积极考虑公平性,临床算法就有可能出现偏差

区分 Ai 中的偏差与相关概念

人工智能中的 "偏见 "主要涉及公平性和道德影响,必须将其与机器学习(ML)中的其他相关概念区分开来:

  • 数据集偏差虽然数据集偏差是人工智能偏差的一个主要来源,但它具体指的是数据本身不具有代表性。人工智能偏差是系统性不公平的广泛结果,它可能源于数据集偏差、算法选择或人为因素。
  • 算法偏差特指模型设计或优化过程中引入的偏差,而非仅来自数据的偏差。这是造成整体人工智能偏差的另一个潜在来源
  • 偏差-方差权衡这是人工智能的一个核心统计概念,描述了模型简单性(高偏差,可能导致拟合不足)与模型复杂性(高方差,可能导致拟合过度)之间的矛盾。这里使用的 "偏差 "是指由于假设过于简单而导致的模型错误,有别于人工智能偏差的道德或公平影响。

解决 Ai 偏差问题

减少人工智能偏见是一个持续的过程,需要在整个人工智能开发生命周期中采取多方面的方法:

  • 数据整理和扩充:积极收集具有代表性的多样化数据集。利用数据扩充和潜在合成数据生成等技术来平衡不同群体的代表性。探索Ultralytics 数据集等资源,获取各种数据源。
  • 公平性指标和审计:模型评估过程中使用适当的指标来定义和衡量公平性。在部署前后定期审核模型在不同分组中的偏差表现。
  • 算法选择与修改:选择不易产生偏差的算法,或修改现有算法以纳入公平性限制。
  • 透明度和可解释性:采用可解释的人工智能 (XAI)技术来了解模型行为并识别潜在的偏差来源。了解有关XAI 概念的更多信息。
  • 道德框架和治理:参考NIST 人工智能 风险管理框架等框架,实施强有力的人工智能道德准则和治理结构,以指导开发和部署。

Ultralytics HUB这样的平台可提供各种工具,支持开发更公平的人工智能系统,具体做法是对数据集进行仔细管理,促进自定义模型训练,并允许对以下方面进行监控 Ultralytics YOLO模型的性能。在人工智能中建立公平原则的意识和嵌入公平原则(经常在ACM FAccT 会议等论坛上讨论),对于负责任地开发人工智能和创造公平造福社会的技术至关重要。

阅读全部
OSZAR »