0°

阻止 AI 说谎! OpenAI 引入新训练法,要人工智能「停止蒙蔽人类」

  尽管 ChatGPT、微软的 Bing 和 Google 的 Bard 等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的「人工智能幻觉」(hallucinations),这让 AI 是否会对人类造成重大危机的讨论就被推向高峰。

  OpenAI 希望阻止 AI 产生幻觉

  近日 ChatGPT 开发商 OpenAI 就对此发表论文,阐述已找到对策,希望解决 AI 在生成内容时出现的问题,包括「幻觉」和「撒谎」,从而减少模型逻辑错误,避免编造谎言。

  根据这篇文章,OpenAI意识到 AI 系统可能会生成虚假的信息或误导性的内容,这可能对用户产生负面影响。 为了解决这个问题,他们提出了一种新的训练方法,称为「抑制式学习」(inhibition learning),旨在教导 AI 辨别和避免产生虚假或误导性的内容。

  另外,据CNBC报导,OpenAI的研究人员表示,未来将会在训练AI模型期间加以监督,当AI在每个步骤推理正确时,便会给予奖励,而不是仅等到推理出正确的最终结论时才给予奖励。 研究人员解释:

  这方法为「过程监督」,不再只是进行「结果监督」,相信这能更有效地鼓励模型,可按照类似人类的思考方式进行推理,训练出更好的 AI。

  据了解,人工智能幻觉指的是,AI自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。 多数研究人员认为,幻觉问题是运行聊天机器人的大型语言模型(Large Language Models)本身设计的问题。

  而目前研究人员纷纷提出建议,盼能不断改善相关问题,例如麻省理工学院(MIT)最新报告就提议,让多个机器人相互辩论,来取得更符合事实的答案。

  此外,一封包括OpenAI首席执行官Sam Altman在内的350位AI领域的权威专家,也在本周共同签署了一封公开信,呼吁人们重视正在开发的AI技术,可能会对人类生存构成重大威胁。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论