设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

提高大语言模型可信度,新方法助生成式AI破除“幻觉”

发布时间: 来源: 科技日报

 ZzY速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。
ZzY速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

类似ChatGPT和Gemini等LLM,是能阅读和生成自然人类语言的AI系统。不过,这类系统很容易产生所谓“幻觉”,即生成不准确或没有意义的内容。检测LLM出现的这种错误非常难,因为这些回答的呈现方式看起来很可信。ZzY速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

英国牛津大学研究团队此次尝试量化一个LLM产生此类错误的程度,从而判断生成的内容有多忠于提供的源内容。他们的方法能检测“编造”——这是幻觉的一个子类别,特指不准确和随意的内容,常出现在LLM缺乏某类知识的情况下。这种方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。团队的研究表明,他们的方法能在LLM生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“编造”内容。ZzY速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

在同时发表的新闻与观点文章中,澳大利亚皇家墨尔本理工大学科学家指出,该方法由一个LLM完成,并通过第三个LLM进行评价,等于在“以毒攻毒”。文章写道,“用一个LLM评估一种基于LLM的方法似乎是在循环论证,而且可能有偏差。”不过,团队指出他们的方法有望帮助用户理解在哪些情况下使用LLM的回答需要注意,也意味着可以提高LLM在更多应用场景中的置信度。ZzY速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

未来,人工智能或将帮助科研工作者跳过文献检索、粗读的过程,直接找到需要的文献,大幅提升科研工作者的文献阅读效率。 就在ChatGPT推出一周年前夕,其开发机构OpenAI经历了一场令人瞠目的高层“地震”。联合创始人之一的首席科学家伊利亚 12月17日,记者从北京协和医院获悉,由该院儿科主编的《儿童风湿免疫病标准数据集》(以下简称数据集)正式发布。专家表示,作为 美国哈佛大学校长克洛迪娜·盖伊当地时间1月2日发表声明,宣布辞去哈佛大学校长一职。 盖伊在声明中说,她 法国政府近日推出“2030国家生物多样性战略”,包括40项措施和200项行动,旨在保护和恢复生态系统、减少对生物多样性的 四川省科学技术厅关于组织申报2024年第二批中央在川高校院所“聚源兴川”项目的通知 各中央在川高校院所、市(州)科 。

本文链接:提高大语言模型可信度,新方法助生成式AI破除“幻觉”http://www.sushuapos.com/show-11-7468-0.html

声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: 新技术可发现基因突变初期迹象

下一篇: 陕西省发布关键核心技术攻关项目答辩评审事项通知

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜