
尽管 ChatGPT、微软的 Bing 和 Google 的 Bard 等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的「人工智能幻觉」(hallucinations),这让 AI 是否会对人类造成重大危机的讨论就被推向高峰。
OpenAI 希望阻止 AI 产生幻觉
近日 ChatGPT 开发商 OpenAI 就对此发表论文,阐述已找到对策,希望解决 AI 在生成内容时出现的问题,包括「幻觉」和「撒谎」,从而减少模型逻辑错误,避免编造谎言。
根据这篇文章,OpenAI意识到 AI 系统可能会生成虚假的信息或误导性的内容,这可能对用户产生负面影响。 为了解决这个问题,他们提出了一种新的训练方法,称为「抑制式学习」(inhibition learning),旨在教导 AI 辨别和避免产生虚假或误导性的内容。
另外,据CNBC报导,OpenAI的研究人员表示,未来将会在训练AI模型期间加以监督,当AI在每个步骤推理正确时,便会给予奖励,而不是仅等到推理出正确的最终结论时才给予奖励。 研究人员解释:
这方法为「过程监督」,不再只是进行「结果监督」,相信这能更有效地鼓励模型,可按照类似人类的思考方式进行推理,训练出更好的 AI。
据了解,人工智能幻觉指的是,AI自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。 多数研究人员认为,幻觉问题是运行聊天机器人的大型语言模型(Large Language Models)本身设计的问题。
而目前研究人员纷纷提出建议,盼能不断改善相关问题,例如麻省理工学院(MIT)最新报告就提议,让多个机器人相互辩论,来取得更符合事实的答案。
此外,一封包括OpenAI首席执行官Sam Altman在内的350位AI领域的权威专家,也在本周共同签署了一封公开信,呼吁人们重视正在开发的AI技术,可能会对人类生存构成重大威胁。