通过合乎道德的人工智能开发战略、工具和真实案例,了解如何识别、减轻和防止人工智能系统中的偏见。
人工智能(AI)中的偏差指的是人工智能系统中存在的系统性和可重复的错误,这些错误会导致不公平、偏斜或歧视性的结果,通常是基于任意特征而偏向一个群体而非其他群体。这种偏见并非源于人工智能模型本身的恶意行为,而是当模型学习并复制训练数据、算法设计或参与开发和部署的人类所做选择中存在的隐含价值观、历史不平等或统计不平衡时产生的。解决人工智能偏差问题是人工智能道德发展的基础,它对模型性能、可靠性和公众信任度有着至关重要的影响,尤其是在计算机视觉(CV)等敏感领域。
人工智能的偏见并非人工智能的固有属性,而是源于用于构建这些系统的人类流程和数据。了解其根源是减少偏差的关键:
人工智能中的偏见会在各种应用中表现出来,有时会造成严重后果:
人工智能中的 "偏见 "主要涉及公平性和道德影响,必须将其与机器学习(ML)中的其他相关概念区分开来:
减少人工智能偏见是一个持续的过程,需要在整个人工智能开发生命周期中采取多方面的方法:
像Ultralytics HUB这样的平台可提供各种工具,支持开发更公平的人工智能系统,具体做法是对数据集进行仔细管理,促进自定义模型训练,并允许对以下方面进行监控 Ultralytics YOLO模型的性能。在人工智能中建立公平原则的意识和嵌入公平原则(经常在ACM FAccT 会议等论坛上讨论),对于负责任地开发人工智能和创造公平造福社会的技术至关重要。