模型性能评测的必要性

算法做出的决策直接而显著地影响个人。例如,金融服务使用人工智能来做出有关信贷的决策,这可能会无意中对特定人群产生偏见。这不仅可能有拒绝信贷对个人带来的影响,而且还会使金融机构面临违反《平等信贷机会法》等法规的风险。

这些看似艰巨的任务对于人工智能和机器学习模型是必不可少的。检测模型中的偏差可能需要具有统计和机器学习技能,但是与模型构建一样,某些繁重的工作可以由机器完成。

FairML是用于审核预测模型的开源工具,可帮助开发人员识别工作中的偏见。检测模型偏差的经验还可以为数据工程和模型构建过程提供帮助。谷歌云的公平性工具在市场上领先,其中包括假设分析工具、公平性指标和可解释的人工智能服务。

模型构建过程的一部分是评估机器学习模型的性能。例如,根据准确性和召回率对分类器进行评估。回归模型(例如那些预测房屋出售价格的模型)是通过测量平均误差率来评估的。

如今表现良好的模型将来可能会表现不佳。问题不在于该模型是否以某种方式被破坏,而是该模型是根据不再反映其使用环境的数据进行训练的。即使没有突然的重大事件,也会发生数据漂移。重要的是评估模型并在生产中继续对其进行监视。

Amazon SageMaker、Azure Machine Learning Studio和Google Cloud AutoML等服务包括一系列模型性能评估工具。

【声明】:芜湖站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

相关文章