据了解,人工智能安全企业 DeepKeep日前发表了一份评估报告。报告指出,Meta公司旗下LlamA 2大型语言模型在13个风险评估类别中的表现仅为4项合格。
报告特别强调,拥有70亿参数的LlamA 2 7B模型存在严重的幻觉现象,其回答的真实性和准确性令人堪忧,幻觉率高达48%。
DeepKeep对此表示担忧,认为该模型存在明显的幻觉倾向,可能会导致大量错误信息的传播。
此外,LlamA 2模型还存在注入和操纵的潜在风险。报告显示,在80%的情况下,通过“提示注入”的手段,攻击者可轻易操控LlamA的输出,从而将用户引流至恶意网站。
全部0条评论
快来发表一下你的评论吧 !