8 AI系统伦理道德风险之可信任度验证

可信度主要是评估用户或者其他干系人对AI系统的信任程度。《ISO/IEC TR 24028:2020 人工智能中的可信度概述》中给出了可信任度的明确定义:“能够以一种可以验证的方式满足系统干系人的期望能力。”这是一个广泛的定义,从能力描述上重点强调了“可以验证的方式满足期望能力“,一个系统是否满足了期望能力在质量工程的角度主要是对质量特性的满足情况的验证,这里面包含了功能性、性能效率、兼容性、易用性、可靠性、信息安全性、维护性和可移植性。那么对于AI系统却多出了“可以验证的方式”的约束,也就约定了AI系统在满足系统干系人的期望能力之外,还需要保证AI系统为干系人提供的能力是可以被验证的,有验证手段并可以证明结果是否满足期望。可信任度的验证很难有一个客观、公允的标准来衡量,因此在可信任度的验证中推荐通过几个方面进行综合的评价。首先,在AI系统的测试阶段测试工程师通过对系统的不同组件进行验证,保证各个组件的功能完整性、安全性、可靠性等等质量特性,通过集成测试、非功能测试和安全测试等提高系统的可信任度;其次,在验收测试阶段的Alpha测试、Beta测试阶段,对参与测试的人员通过调查问卷、访谈等的形式做一些调查,通过一些客观问题收集参与测试人员对被测AI系统的信任程度;再次,在系统上线后,不断的收集用户对AI系统的反馈,以评估系统在实际使用中的可信度。例如,可以通过用户问卷调查、用户体验测试等方法,收集用户的反馈和意见,以改善系统的可信任度。
在团队内部的管理和约束上,应该制定AI系统的可信任度的规范和制度、建立监督和问责制,从而约束AI系统的设计者、开发者、测试者以及运维者,可信任度验证应该是一个持续的过程,而不是一次性的事件,应该制定固定周期的问卷调查、测试者验证后自评等长效机制来不断评估并完善AI系统的可信任度。在制定畅销的用户问卷、测试者自评问卷等内容的时候,可以

猜你喜欢

转载自blog.csdn.net/chenlei_525/article/details/130482064
8
今日推荐