人工智能时代:拥抱未来并警惕挑战
2023-04-26 11:01 文章来自:检察日报 收藏(0) 阅读(4005) 评论(0)

本文转自:检察日报


张凌寒中国政法大学数据法治研究院教授、博士生导师


翁音韵上海市人民检察院第四检察部三级高级检察官

编者按:人工智能是新一轮科技革命和产业变革的重要驱动力量,自其步入大众视野后,深刻影响并惠及人们生活的方方面面,但同时也产生前所未有的挑战。如何确保人们的隐私和个人信息安全?新技术会引发哪些法律风险?对科技犯罪应该如何治理?带着这些问题,本刊邀请专家学者和检察官进行深入探讨,以期更好地理解科技、防范风险和应对挑战。

记者:随着ChatGPT的出现,公众在欣喜于科技带来便捷的同时,也发现人工智能技术在运用中不可避免地会对伦理、法律等方面带来挑战。请举例说明。

张凌寒:以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景展现了强大的能量和可能性,但其带来效率和便利的同时,也带来了伴生风险。深度合成的技术与应用,不仅不能化解算法治理一直致力解决的算法黑箱、算法歧视等传统问题,而且由于其技术特点,还会给我们带来更多的治理挑战。其一,深度合成改变了信息生成方式,会带来潜在的安全问题。其二,深度合成的发展对现有数据、算法、算力分而治之的治理体系提出严峻挑战,网络安全、个人信息、数据保护、数据跨境流动的制度都需要作出相应调整。其三,深度合成会强化技术垄断和技术竞争,不仅使数据共享共用愈加难以实现,而且会加深国家、地区、人群间的数字鸿沟。

翁音韵:近期人工智能生成内容的相关技术大火,其所带来的商业价值和应用前景备受关注,但其可能关联的风险也迅速呈现,值得警惕。以ChatGPT等大模型的运用为例,首先,大模型的数据被反复训练打散和整合,数据源的所有权和保护权就可能会被架空。其次,若用户在大模型中输入问题请求时,可能会无意或有意输入含有个人信息、金融、商业秘密等在内的各种信息,则可能导致相关数据泄露。最后,大模型训练使用的数据源可能存在不合法、不合规、虚假甚至是完全错误的内容,生成的内容会引发相关的法律风险,甚至可能被用于犯罪,如用于生成犯罪脚本、虚假信息的网络“钓鱼”和欺诈活动,以及生成恶意代码等行为,可能会对用户设备和数据造成损害。

特别声明:以上内容为自媒体平台“明珠号”用户上传并发布,仅作分享,如有侵权,请联系我们lee@ifintechnews.com