人工智能安全


人工智能技术在深度神经网络模型的协助下取得了令人瞩目的进展,人脸识别、自动驾驶、医学诊断已走进人们生活,对经济、民生、教育、医疗等领域产生了巨大的影响。然而,深度神经网络作为典型的数据驱动机器学习方法,对数据具有极大的依赖性。通过对数据进行恶意攻击,即在原数据中添加轻微的人为设计扰动,将会严重干扰甚至控制深度神经网络的预测结果。因此,基于深度神经网络模型的人工智能应用安全性引起了社会各界的高度关注,深度神经网络模型的弱鲁棒性成为深度神经网络模型实际部署中尚未克服的技术局限。

机器学习隐私与安全


机器学习已普遍应用于图像分类、语音识别、自动驾驶等领域。然而,机器学习模型面临着一系列隐私和安全问题。例如深度学习模型容易被精心构造的对抗样本所误导。另一方面,广泛部署的机器学习模型存在被窃取,训练数据泄露等问题。机器学习隐私和安全问题已经引起了广泛关注。面对大量的攻击威胁,有效的防御策略显得尤为重要,这关乎机器学习的发展与应用。在保护机器学习隐私方面,目前有四种主流的技术:差分隐私、同台加密、安全多方计算和可信执行环境。安全方面的主要防御分为输入预处理、恶意检测、提高模型鲁棒性,在隐私保护方面有大龄研究,将进一步扩展相关领域的研究,包括但不限于以下方向:对抗样本防御、投毒攻击防御等。

密态计算理论


大数据,是一种具有极高价值的资源,通过数据挖掘等手段可以获取数据中蕴含的巨大价值,尤其深度学习的研究提高了社会对数据分析的依赖性。同时,大数据中的敏感信息在数据处理和分析的过程中极易暴露,给用户带来了极大的风险和危害。如何在保证数据隐私安全的情况下,对大数据进行处理和分析具有十分重要的研究价值。 为确保数据的隐私安全以及避免隐私保护耗时的缺点,密态计算理论作为一种重要的技术手段,其以密码学为基础,旨在不损失数据之间关联性以及泄露数据敏感信息的前提下,降低数据处理的开销,提高计算的效率以及可以为千万量数据提供并发隐私处理。 大数据时代,密态计算理论得到了更加广泛的应用,其不仅为数据的隐私安全处理与分析提供了理论支撑,而且在智慧交通领域、医疗诊断方面、无人驾驶、金融证券分析等方面同样充当着保护数据隐私安全的角色。