人工智能技术开发人员应遵循的7条道德要求

开发人员需要遵循的道德AI原则

1、以人为本

在概念化AI解决方案时,只有AI系统在整个生命周期中对个人、企业和整个人类都有利的情况下,开发人员才应该继续开发。开发AI解决方案,应该以主要造福和改善人类生活,而不是达到破坏性的目的。

人工智能系统应与人类价值观保持一致,促进人权,尊重个人意见,提高生活水平,挽救生命,甚至保护环境。教育和医疗保健部门是两个最重要的部门,可以从以人为本的AI技术中受益。人工智能解决方案可以帮助提高教育质量,这将帮助学生找到更好的工作机会,进而帮助改善此类人的生活质量。

同样,在医疗保健行业中使用AI技术可以潜在地挽救生命。但是,人工智能技术的使用不应仅限于这两个领域,而可以在企业资源规划、石油和天然气运营、娱乐和环境保护等其他领域得到利用。

2、风险警觉

创建AI系统时应采用基于风险的方法。开发人员应确定与特定AI系统相关的所有风险。并且,只有在风险很小或不存在的情况下,他们才应着手开发AI系统。

例如,当开发人员使用面部识别技术时,他们应该评估该技术可能出错的所有方面。他们应确保面部识别技术不会伤害任何个人。例如,面部识别技术并不是万无一失的,它会导致错误的定罪。因此,开发人员在创建这样的系统时,应确保该技术具有尽可能少的风险。所以,开发人员在使用AI技术时不应对风险意识,评估和管理视而不见。

3、可靠性

如上所述,人工智能系统应尽可能减少与之相关的风险。开发人员应致力于创建高度可靠的AI解决方案。解决方案应在其整个生命周期内按预期工作。它包括确保解决方案在每个阶段都是高度准确、可靠和可预测的。它们不应给可能受到这些系统影响的用户带来风险。

因此,开发人员应确保定期监视和测试系统,以检查AI解决方案是否正常运行。如果发现任何缺点,则应立即解决。最重要的是,开发人员必须在整个生命周期中确保AI系统的稳定性和安全性。

4、问责制

无论自主和自力更生的人工智能技术如何发展,人工监督和监控仍然绝对必要。无论AI系统多么可靠或先进,都应启用人工监督功能。负责开发各个阶段的个人必须是可识别的,并且应对AI系统导致的结果负责。必须建立确保责任和责任的机制。它包括监视所有涉及的过程,从概念到开发,再到部署到运营阶段。如果发现个人对AI系统的不正确使用负责,则应采取适当的措施。

5、合规性

人工智能系统的设计应足够灵活,以适应新的政府法规,反之亦然。 AI系统的开发方式应使其无需进行许多更改即可符合新法规。同样,政府应以不严重影响AI系统的方式起草新的法律和法规。在创造新的AI技术的自由与政府的规则,法规和合规性之间需要保持平衡。这可以通过相关各方之间的相互理解,伙伴关系和沟通来实现。

此外,当AI系统对个人、企业、社区或环境产生重大影响时,应制定相关规定,使人们可以质疑相关AI系统的采用,可用性和结果。

【声明】:芜湖站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

相关文章