7月22日,据外媒消息,目前已有包括OpenAI在内的多家人工智能头部公司的自愿承诺,将对AI生成的内容添加水印等鉴别措施,从而提高技术安全性。
类似水印等识别措施的加入,将有效解决目前AI生成内容难以分辨的困境。
同时,当前亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI这七家公司都同意提高其系统的安全性和透明度,包括允许第三方专家对其模型进行审查。
首先,这七家公司承诺在向公众发布AI系统之前,对其进行内部和外部安全测试,并与相关行业参与者、政府、学术界和公众共享信息,以帮助管理人工智能风险。
这些公司还将致力于网络安全投资和内部威胁控制,以“保护专有和未发布的模型权重”,这对于驱动生成人工智能的数据模型的运行至关重要。
此外,他们还同意促进第三方调查并报告系统中的任何安全漏洞。