首页>行情 >内容

Google在AI平台推出模型解释功能说明资料特徵与预测结果的关係

行情2021-02-18 18:03:50
最佳答案

图片来源:

Google Cloud

Google宣布释出Explainable AI,来提高人工智慧的可解释性,让开发人员可以了解机器学习模型获得预测结果的原因。Explainable AI提供了工具以及框架,供用户部署可解释以及包容性机器学习模型,目前这项功能已经在AutoML表格和Cloud AI平台提供,用户还可结合模型分析工具What-If工具更全面了解模型行为。

机器学习可用来辨识大量资料点之间的複杂关联,儘管以这样的方式,开发者可以让人工智慧模型达到极高的精确度,但是当开发者检视模型结构或是权重的时候,通常无法了解有关于模型行为的资讯,Google提到,也因爲如此,对于部分需要有高度确定性要求的产业,在学习模型无法被解释之前,难以实际应用人工智慧机器技术。

因此Google现在宣布在云端人工智慧服务,推出人工智慧可解释性功能,该功能会量化每个资料因素对于机器学习模型输出的贡献,让用户能够利用这些讯息,进一步改进模型,或是与模型的使用者共享有用的分析资讯。

Google在人工智慧平台加入了特徵贡献(Feature Attribution)功能,让开发者能够理解用于分类(Classification)以及回归(Regression)任务的模型输出,特徵贡献会显示每个特徵对每个实例预测的贡献多寡,可用于表格资料以及图像资料。

以表格资料为例,当要以天气资料和过去骑乘脚踏车资料训练深度神经网路,当用户要求模型预测在特定天气骑士骑车分钟数,则模型输出预估自行车骑乘的持续时间,当用户要求解释预测结果,用户除了会得到预测的骑车时间,还会得到每个特徵的贡献分数(下图),贡献分数显示各因素对于预测值变化的影响程度。

在训练图像方面,当开发者要训练一个能判断图像内动物是猫还是狗的模型,在用户要求解释时,用户会取得一个叠加的图层(下图),上面会显示哪些画素对于预测结果贡献最大。只要用户要求人工智慧平台做出解释请求时,系统便会解释资料中每个特徵贡献影响结果的组成,开发者可以使用这个讯息,来验证模型是否符合预期,并辨识出模型的偏差,获得改进模型和训练资料的想法。

不过,Google也提到,目前所有的解释方法都有其限制,Explainable AI能够反映出模型从资料找出模式的方法,但是却无法揭露资料样本、总体和应用程式之间的基础关係,目前Google会以维持其限制性透明的前提,提供直觉有用的解释方法。

免责声明:本文由用户上传,如有侵权请联系删除!