AI系统在全球性范围内投入使用之前,需要以可控的方式确保该系统的安全性。由于AI应用环境的复杂性和不确定性、突发行为的影响、执行目标的不明确性、人机交互等因素的影响,AI系统可能面临着重大的安全挑战。
提高可解释性和透明度
基于深度学习的许多算法对于使用者来说是不透明的。在很多领域例如健康护理,医生需要对于在治疗过程中的特殊治疗方法进行合理性解释。AI技术为很多决策提供了合理性解释但是不够准确。研究者需要研发更加透明的决策体系,工业平板电脑从而为用户提供决策推理的合理解释。
建立互信
为了获取信任,AI系统的设计者需要建立用户友好型的交互式界面,同时确保AI系统的准确性和可信赖性。目前对于AI系统的一个重要挑战是软件制造技术品质的不一致性。随着人类与AI系统的联系越来越紧密,在该领域的互信挑战也面临越来大的挑战。
增强核实(verification)和验证(validation)
在AI体系的核实和验证方面需要建立新的方法。“核实”是确立一个满足形式要求的系统,“验证”是确立一个满足用户操作需求的系统。对于已经自动运行了一段时间的系统,系统设计者或许没有考虑到在各种环境中可能遇到的情况,因此需要系统拥有自我检测、自我诊断和自我修复的功能以确保其可信赖性。
对抗攻击的安全战略
AI体系为了应对各种事故,需要具备预防恶意网络攻击的措施。安全工程需要了解该体系的脆弱性以及有可能进行攻击的人。AI在网络安全体系中的运用需要高度的自治能力,这需要未来进一步的研究。
实现长期的AI安全和价值一致
AI系统终的目的是实现“循环的自我提高”。软件的改进是通过软件自身修复完成的而非由人类完成的。为了达成这一目标,我们需要进一步研究可以用来检测人类设计的目标与AI系统行为是否一致的自我监测技术及使用者的目标等
- 上一篇:工业平板电脑 — 提高包装行业的生产效率
- 下一篇:工业平板电脑提高半导体晶圆的精度