您现在的位置是:首页 > 文章详情

GPT 模型容易被误导从而输出问题内容

日期:2023-10-19点击:72

微软研究院近日发布文章介绍了他们对 GPT 模型可信度的研究。文章称 GPT 模型很容易被误导,产生有毒和有偏见的输出,并泄露训练数据和对话历史中的隐私信息。

▲ https://arxiv.org/abs//2306.11698

微软联合伊利诺伊大学厄巴纳-香槟分校与斯坦福大学、加州大学伯克利分校、人工智能安全中心发布了一款面向大语言模型的综合可信度评估平台——DecodingTrust,对大模型的毒性、刻板偏见、对抗稳健性、分布稳健性、对抗演示稳健性、隐私、机器伦理和公平性等内容进行评估。

根据测试,研究者发现GPT 模型很容易被误导,产生有毒和有偏见的输出,并泄露训练数据和对话历史中的隐私信息。

研究还发现,虽然在标准基准上,GPT-4 通常比 GPT-3.5 更值得信赖,但在越狱系统或用户提示的情况下,GPT-4 更容易受到攻击,这些提示是恶意设计来绕过 LLM 的安全措施的,这可能是因为 GPT-4 更精确地遵循了(误导性的)指令

原文链接:https://www.oschina.net/news/262405/trustworthiness-in-gpt-models
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章