人工智能的伦理、信任和可解释性
打破人工智能的黑箱,理解人工智能的伦理
随着人工智能(AI)继续快速发展,成为越来越多业务流程的一部分,以及监管和客户压力的不断增加,我们需要解决一些非常深刻的道德问题。特别是人工智能的设计者和开发者可以通过解决这些伦理考虑领域和使用支持工具包来帮助减少偏见和歧视。
Index
如果你被告知,你的贷款申请在没有任何明显理由的情况下被拒绝,你会接受这个决定吗?如果你知道一辆自动驾驶汽车可以被操纵来误解速度标志,你会驾驶它吗?当然不会。
我们人类生活在共同建立的道德规范中,这些规范通过法律、规则、社会压力和公共话语强制执行。尽管道德和价值观可能随着时间和文化的不同而不同,但自人类早期文明以来,它一直在决策中发挥着关键作用。
在商业领域,道德问题也不是新问题。但随着人工智能(AI)继续快速发展,进入越来越多的业务流程并支持决策,我们需要立即解决非常深刻的伦理问题。
人工智能的伦理绊脚石
2019年,客户投诉指责苹果卡的信用评分算法存在性别歧视。而McAfee的安全研究人员使用了一个简单的技巧来欺骗特斯拉的智能巡航控制。为了做到这一点,研究人员在一个35英里/小时的速度标志上贴了一条2英寸的胶带(使3的中间部分稍长),汽车的系统将其误解为85英里/小时,并相应地调整其速度。
因此,负责任地使用数据已经成为竞争优势的核心。
当消费者关注社会问题,如共享繁荣、包容和人工智能对就业的影响时,企业则关注组织的影响,如:
- 监管机构以及欧盟正在制定相应的法律框架,对公司的义务越来越大。2021年4月21日,欧盟委员会提出了有史以来第一个关于人工智能的法律框架,该框架试图将人工智能分为风险类别。
- 如果一个模型不合理地歧视某个客户群体,这可能导致严重的声誉损害。
- 透明的决策建立了与客户的信任,增加了他们分享数据的意愿。例如,81%的消费者表示他们在过去一年中更加关注公司如何使用他们的数据。
例子:IBM的道德准则
因此,许多公司已经实施了自己的人工智能道德准则。100多年来一直致力于负责任的创新的IBM,在开发负责任的人工智能系统时,规定了以下五个重点领域:
- 责任:人工智能设计者和开发者要对符合道德的人工智能系统及其结果负责。
- 价值一致:人工智能的设计应该与你的用户群体的规范和价值一致。
- 可解释性:人工智能的设计应使人类能够理解其决策过程。
- 公平性:人工智能的设计必须最大限度地减少偏见,促进包容性。
- 用户数据权利: 人工智能的设计必须能够保护用户的数据,并且他们能够保留对数据访问和使用的控制权。
伦理人工智能系统的未来
有道德的人工智能系统的标准和衡量标准最终将取决于其部署的行业和用例。但人工智能的设计者和开发者可以通过考虑这五个方面的道德因素来帮助减少偏见和歧视。
人工智能系统必须保持足够的灵活性,以便随着道德问题的发现和解决而不断维护和改进。可用于开发的各种仪表盘或工具包可以支持这一过程。如 “AI Fairness 360“,这是一个开源工具包,可以帮助调查、报告和减轻AI模型中的歧视和偏见。或者开源工具包 “AI Explainability 360“,它可以帮助解释AI算法。
总结
道德决策不只是另一种形式的技术问题解决,而是必须从一开始就嵌入到人工智能的设计和开发过程中。有道德的、以人为本的人工智能的设计和开发必须与它所影响的社会或社区的价值观和道德观相一致。
对于使用人工智能的公司来说,这必须是一个首要任务。必须确保每个员工都了解风险,并对人工智能在公司的成功感到有责任。
Comments are closed.