今天分享的是【2024东盟人工智能治理与道德指南报告(英文版)】 报告出品方:ASEAN东盟
下列七项指导原则有助于确保对AI 的信任,以及道德AI 系统的设计、开发和部署。它们还就如何以考虑更广泛社会影响的方式设计、开发和部署AI系统提供了指导。1.透明度和可解释性透明度是指披露何时使用AI系统以及AI系统参与决策、使用何种数据及其目的。
通过向个人披露系统中使用AI的信息,个人将意识到这一点,并能够做出是否使用 AI赋能系统的知情选择。可解释性是指以一系列人都能理解的方式传达人工智能系统决策背后的推理的能力,因为人工智能系统是如何得出结论的并不总是很清楚。这使个人能够了解导致AI系统推荐的因素。为了建立公众对人工智能的信任,重要的是要确保用户了解人工智能技术的使用情况,并了解从他们的互动中获取的信息是如何使用的,以及人工智能系统如何使用这些信息做出决策。
为了遵循透明度原则,部署者有责任向利益相关者明确披露AI系统的实施情况,并促进对所使用 AI 系统的普遍认识。随着AI在许多商业和行业中的日益普及,公众越来越了解和有兴趣知道他们何时与AI系统进行交互。了解AI系统何时以及如何与用户进行交互,对于帮助用户辨别与行为异常的AI系统进行交互的潜在危害也很重要。过去,人工智能算法被发现歧视女性求职者,并且未能准确识别深色皮肤女性的面孔。
对于用户来说,了解人工智能系统的预期行为非常重要,这样他们就可以就与人工智能系统交互的潜在危害做出更明智的决定。支持AI的电子商务平台透明度的一个例子是通知用户,平台的推荐算法使用他们的购买历史记录来识别类似的产品并将其显示在用户的提要上。遵循可解释性原则,设计、开发、部署AI系统的开发人员和部署人员还应努力通过简单易懂的解释,培养用户对AI系统如何工作的普遍理解,解释AI系统如何做出决策。
免责声明:以上报告均系本平台通过公开、合法渠道获得,报告版权归原撰写/发布机构所有,如涉侵权,请联系删除 ;资料为推荐阅读,仅供参考学习,如对内容存疑,请与原撰写/发布机构联系