0 有用
4 下载
腾讯研究院:可解释AI发展报告2022

文件列表(压缩包大小 1.73M)

免费

概述

2016年以来,以机器学习(machine learning),尤其是深度学习(deep learning)为代表的新一代人工智能技术不断朝着更加先进、复杂、自主的方向发展,这给经济和社会发展带来了新的变革性机遇。AI应用迎来“物种大爆发”,日益渗透到各行各业和人类生活的方方面面,有望塑造新型的经济和社会形态。与此同时,科技伦理也日益成为了当前AI技术发展与产业应用中的“必选项”,各界纷纷探索AI伦理原则、框架、治理机制等。科技伦理的一个核心议题就是人工智能的透明度与可解释性(transparency and explainability)。2021年11月,联合国UNESCO通过的首个全球性的AI伦理协议《人工智能伦理建议书》(Recommendationon the ethics of artificial intelligence),提出的十大AI原则就包括“透明性与可解释性”,即算法的工作方式和算法训练数据应具有透明度和可理解性。

虽然并非所有的AI系统都是“黑盒"(black box)算法,并非比非AI技术、传统软件或人工程序更加不可解释,但就当前而言,机器学习模型尤其是深度学习模型往往是不透明的,难以为人类所理解的。未来,人工智能的持续进步有望带来自主感知、学习、决策、行动的自主系统。然而,这些系统的实际效用受限于机器是否能够充分地向人类用户解释其思想和行动。如果用户想要理解、信任、有效管理新一代的人工智能伙伴,人工智能系统的透明性与可解释性就是至关重要的。因此,近年来,可解AI(Explainable ArtificialIntelligence,简称“XAI")成为了AI研究的新兴领域,学术界与产业界等纷纷探索理解AI系统行为的方法和工具。

来源:腾讯研究院

理工酷提示:

如果遇到文件不能下载或其他产品问题,请添加管理员微信:ligongku001,并备注:产品反馈

评论(1)

0/250
性感的饭盒 • 123
下载后的评价
感谢分享
2023-02-25 回复