在最近举行的一次数字安全盛会上,一个展位通过骑行者的现场体验,展示了数据保护的过程。随着参与者踏上自行车,心率、速度等个人信息被各种设备捕捉并实时显现在屏幕上,以此说明数据分类与传输中如何防范潜在的信息泄露和恶意攻击。
近期,人工智能技术,特别是大型模型的应用,引发了广泛关注。它们在带来高效与便利的同时,也引发了人们对隐私和数据安全的忧虑。人们在享受AI对话的便利时,不禁担忧个人及商业敏感信息的安全。这一话题成为了包括院士、学者和网络安全领域领头企业代表在内的众多专家在大会上探讨的焦点。
浙江大学金小刚副教授指出,在与大模型互动过程中,用户数据如位置、偏好可能被收集,因此选择信誉良好的平台至关重要。中国科学技术大学左晓栋教授则强调,生成式AI除了面临数据安全挑战,还需考虑其生成内容是否合规,以及如何保障涉及个人信息和商业秘密的数据权益。
针对AI技术的双刃剑特性,专家们提出,安全技术需与大模型同步发展并紧密结合,以应对不断涌现的安全威胁。现实中,不仅大模型的训练和使用存在隐患,AI深度伪造技术已被不法分子用于诈骗等非法活动,如“黑模型”的出现大大降低了犯罪的技术门槛。