导读 自2022年11月推出ChatGPT以来,AI作家和聊天机器人在最近几个月取得了巨大成功。凭借其最新的化身——多模态GPT-4模型,能够处理图像等媒体
自2022年11月推出ChatGPT以来,AI作家和聊天机器人在最近几个月取得了巨大成功。
凭借其最新的化身——多模态GPT-4模型,能够处理图像等媒体——大型语言模型(LLM)一直在提高工作效率和利用创造力,但它们并非没有风险。
为此,英国国家网络安全中心(NCSC)在一篇博文中发布了一般性警告(在新标签页中打开),暴露了LLM对网络安全的一些相关风险。
技术总监兼作者DavidC和PaulJ首先揭穿了一些神话:例如,人们越来越担心ChatGPT和类似工具会学习和存储最终用户输入的信息。这是不正确的,训练是由此类模型的创建者在受控环境中进行的。
然而,有关查询的信息确实会反馈给相关公司,这意味着ChatGPT背后的公司OpenAI将能够确定用户提出的问题类型,以改进其服务。出于这个原因,NCSC建议不要在网上任何地方共享个人或机密信息,包括聊天机器人。
在日常用户领域之外,作者还注意到恶意行为者的使用可能会超出其通常范围进行网络攻击,这表明我们面临更复杂攻击的风险增加。
随着人们对人工智能的兴趣持续增长,对尖端技术的怀疑也在增加。近日,彭博社(在新标签页中打开)报道称,由于担心不得不委托外部软件,银行业巨头摩根大通已经对员工使用ChatGPT进行了限制。世界各地的教育机构也对其在学术不诚实行为中的使用施加了限制。