传统知识工程“寒冬期”,OpenAI推出通用人工智能对话工具

  我国的信息化建设可以追溯到20世纪80年代,经过数十年的发展,教育、政务、金融、医疗等各个领域都积累了海量数据,普遍面临着将大数据转化为领域知识这一共性需求。这是求解各领域实际工程问题(如偷逃骗税识别、疫情防控等)的重要基础,也是各领域从数字化迈向智能化的必由之路。然而,传统知识工程与主流深度学习技术在求解各领域实际工程问题过程中都具有局限性。

  知识工程旨在研究人类知识的机器表征与计算问题,是人工智能领域的重要分支。以专家系统为代表的传统知识工程在20世纪70~80年代蓬勃发展,但在90年代进入了“寒冬期”,主要归于两个原因:(1)知识主要来自领域专家,受到高昂人工成本和专家经验的限制,传统知识工程遭遇到“知识获取”的瓶颈;(2)传统知识工程只适合解决场景明确、规则和边界清晰的简单问题,而实际工程问题通常具有场景动态变化、边界不清和规则事先未知的特点,解决这些问题需要动态融合跨领域和跨学科知识,传统知识工程难以应对。

  当前,深度学习模型,特别是大规模预训练模型在自然语言处理上取得了显著进展。2022年11月,OpenAI推出全新的通用型人工智能对话工具——ChatGPT,短短几天内,注册用户超100万,2个月活跃用户数已达1亿,引爆全网热议。ChatGPT在语言理解、生成、知识推理等任务上表现出了令人惊叹的能力,它能够很好地理解用户的意图,真正做到多轮有效沟通,并且其回答具有内容完整、思路清晰、逻辑有条理的特点。ChatGPT的优秀表现被认为是向通用人工智能迈进了一大步,甚至有可能对很多行业领域做出颠覆性的改变。笔者认为,基于大数据、大算力、大模型,结合人类反馈的强化学习训练策略,造就了ChatGPT的成功。与传统知识表示采用逻辑符号和形式化语言不同,ChatGPT的知识表示是以参数化形式存在的,即以模型参数的形式表达知识元素之间的关系。这种表示具有语义丰富、灵活性高的特点,因此有着更好的可拓展性。

  但是,这类大语言模型也具有过度依赖数据(例如,仅GPT-3训练就消耗了45 TB的文本数据)、过度消耗算力/能源(例如,GPT-3单次训练耗费高达1200万美元,ChatGPT模型训练产生的碳排放量达552吨)、推理能力弱、可解释性差等局限性,导致以深度学习为代表的主流人工智能技术已触及“天花板”,难以应对实际工程问题中的高阶、多跳推理任务,也难以满足医疗、信息安全等关键领域的可解释性需求。

  大数据知识工程能够缓解上述技术的局限性,为求解实际工程问题提供支撑。与传统知识工程不同,大数据知识工程从多源大数据中挖掘碎片知识,融合成人类可理解,机器可表征、可推理的知识库/知识图谱。知识获取过程以机器为主、人工为辅,有效缓解了传统知识工程中的“知识获取”瓶颈。大数据知识工程生成的符号化知识有助于弥补现有深度学习的局限性,两者融合有望实现“符号+神经”的推理方式,能够应对实际工程问题中普遍存在的同时涉及直觉系统和逻辑分析系统的推理任务。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论