财联社8月31日讯(编辑 卞纯)英国官员日前警告公司不要将人工智能(AI)聊天机器人整合到他们的业务中,称越来越多的研究表明,它们可能被诱骗执行有害任务。
(资料图)
英国国家网络安全中心(NCSC)在周三发表的两篇博客文章中表示,专家们尚未掌握与可以生成类似人类互动的算法(大型语言模型)相关的潜在安全问题。
人工智能工具目前正以聊天机器人方式实现一些早期运用,一些人设想,聊天机器人不仅可以取代互联网搜索,还会取代客户服务工作和电话销售。
NCSC表示,这样做可能带来风险,尤其是如果此类模型被嵌入公司的重要业务流程时。学者和研究人员已经多次发现,如果输入恶意指令或欺骗它绕过内建的防护机制,就可以扰乱聊天机器人。
例如,如果黑客正确下达指令,那么银行部署的AI聊天机器人可能会被诱骗执行一笔未经授权的交易。
“公司在利用大语言模型搭建服务时需要小心,就像它们在使用处于测试阶段的产品或代码库的时候一样。”NCSC表示。“它们不会让那种产品参与代表客户进行交易的工作,而且也不会完全信任这样的产品。同样的审慎也适用于大语言模型。”
AI安全成全球关注焦点
眼下,世界各国政府都在努力应对大语言模型的崛起,比如OpenAI的ChatGPT,企业正在将其纳入广泛的服务中,包括销售和客户服务。人工智能的安全影响也成为人们关注的焦点,美国和加拿大当局表示,他们已经看到黑客采用了这项技术。
路透社/益普索最近的一项调查发现,许多企业员工都在使用ChatGPT这样的工具来帮助完成基本任务,比如起草电子邮件、总结文件和进行初步研究。
约10%的受访者表示,他们的老板明确禁止使用外部人工智能工具,而四分之一的人不知道他们的公司是否允许使用这项技术。
网络安全公司RiverSafe的首席技术官Oseloka Obiora表示,如果企业领导人未能引入必要的检查,将人工智能融入商业实践将产生“灾难性后果”。
“高管们应该三思,而不是盲目追随最新的人工智能趋势。”他称。“评估收益和风险,并实施必要的网络保护,以确保公司免受伤害。”