OpenAI回应安全性质疑,公布保障AI模型安全方法

美国当地时间4月5日,ChatGPT研发公司OpenAI在其官方博客发布文章《我们保障AI安全的方法》,回应外界对其AI模型安全性的质疑。

文章介绍了ChatGPT六个方面的安全部署,包括构建日益安全的AI系统、在实际使用中学习改进安全措施、保护儿童、尊重隐私、提高事实准确性,以及持续研究和参与。

其中提到,OpenAI要求用户必须年满18周岁,或在父母同意的情况下年满13周岁才能使用AI工具,验证选项正在研究中。OpenAI不允许其技术被用于生成仇恨、骚扰、暴力或成人内容。与GPT-3.5相比,GPT-4响应禁止内容请求的可能性降低了82%。此外,当用户试图将儿童性虐待材料上传到图像工具时,OpenAI会阻止并向美国国家儿童失踪与受虐儿童援助中心报告。

在隐私方面,OpenAI强调不使用数据来销售服务、做广告或建立用户档案,并努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人信息的请求,响应用户从OpenAI系统中删除个人信息的请求。

在提高事实准确性方面,OpenAI表示,通过用户的错误报告反馈,GPT-4的事实内容准确性较GPT-3.5提高40%。当用户注册使用该工具时,该公司尽可能做到透明。

未经正式授权严禁转载本文,侵权必究。

OpenAI

  • 意大利因OpenAI违反隐私条例对其罚款1500万欧元
  • 谷歌推出一款类似OpenAI o1的推理模型

评论

暂无评论哦,快来评价一下吧!