芝加哥大学和宾夕法尼亚大学的研究表明

芝加哥大学和宾夕法尼 我们现在看到的立法赋予公民起诉那些无法解释其算法如何运作或使用哪些数据来训练算法的企业的权利。欧洲的《通用数据保护条例》(GDPR)立法保障了企业如何管理欧盟公民个人数据的“解释权”,这正是用户所期望的。

用户对可修改算法的信任度高于专家构建 印度尼西亚数据 的算法。这项研究表明,人们更喜欢能够清晰了解算法运作方式的算法,即使这些算法本身存在错误。

话虽如此

这并非包罗万象的解决方案。解释算法如何做出决 作者: 马里奥·普罗斯特 策可以增强信任,但并不能解决机器偏见的问题。这是因为,正如 Prajwal Pzudyal 所说:“可解释人工智能 (XAI) 并非能够自我解释的人工智能,而是开发人员的设计决策。

换句话说:

如果您不预先设计可解释的模型,那么您将来可能无法解释它们。

为什么可解释的人工智能很重要?
算法正在做出越来越多影响我们生活的决策。这些 新加坡电话列表 决策涵盖范围广泛,从选择哪些求职者值得进行面试,到预测哪些罪犯最有​​可能再次犯罪芝加哥大学和宾夕法尼。

滚动至顶部