开放期刊系统

人工智能大模型的泄密风险与防范

文霞 殷(等保(上海)企业发展有限公司,中国)

摘要

近年来,人工智能大语言模型(简称大模型)取得显著进展,在语音识别、机器翻译、视频处理等众多领域发挥着重要作用。随着DeepSeek的火爆和各种大模型的应用对象越来越广泛,其泄密风险进一步凸显,一旦发生泄密事件,不仅会损害集体和个人的利益,还可能对国防安全产生负面影响。本文首先分析了大模型泄密风险的类型和泄密产生的原因,然后指出大模型防泄密要解决的四个问题,给出了大模型防泄密的技术和方法,最后对大模型泄密防范的未来技术进行了展望。

关键词

人工智能;大语言模型;ChatGPT;DeepSeek;泄密风险

全文:

PDF

参考

Silver, D., Huang, A., Maddison, C. et al. Mastering the game of Go with deep neural networks and tree search. Nature 529, 484–489 (2016). https://doi.org/10.1038/nature16961.

Andrew Mihalache, Ryan S Huang, Marko M Popovic, Rajeev H Muni, ChatGPT-4: An assessment of an upgraded artificial intelligence chatbot in the United States Medical Licensing Examination, Medical teacher, Volume 46, 2024, pp 366-372.

DeepSeek-AI, Daya Guo, et al. DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning, https://arxiv.org/pdf/2501.12948v1.

周瑜,周涛,大模型的安全挑战及应对建议,中国信息安全,2024年第6期,42-44.



DOI: http://dx.doi.org/10.12345/bdai.v6i2.24598

Refbacks

  • 当前没有refback。
版权所有(c)2025 文霞 殷 Creative Commons License
此作品已接受知识共享署名-非商业性使用 4.0国际许可协议的许可。
  • :+65-62233778 QQ:2249355960 :contact@s-p.sg