0°

火爆背后,ChatGPT打开了人工智能的“潘多拉魔盒”

  从ChatGPT出世到现在快半年了,这半年它给我们带来许多革新性的消息,大量的资本向它靠拢,人们也有保不住饭碗的危机感。作为数据工作者,ChatGPT对我来说不是那么陌生。

  近几个月也体验了ChatGPT,它带给我的感受确实很惊艳,提出各种各样的问题,都能回答的不错。获得知识变得比原来更容易了。网络上有很多关于ChatGPT的新闻,大多数是关于AI革命,人工智能突破了,要夺走我们饭碗之类的。于是也开始对GPT做了一些深入了解,其中有很多问题都是GPT给我的答案,今天想在这里把我对GPT的理解总结一下。

  一、ChatGPT没有意识,它是仿生人类学习的语言模型

  1. 先简单的了解一下ChatGPT

  ChatGPT是个大语言模型,那为啥叫大语言模型?我特意问了行业内的专业人士,大模型的要素是“超多的数据量、超多的计算集群、超多的模型参数“。

  这几天工作中和同事聊天,他说他回家的路上下载了一个英文词典大全,有2mb的大小。GPT3训练使用了45tb的数据,45tb基本上也都是文本数据,所以训练gtp3的数据量级是一本字典的23,517,744,000(百亿)倍。我们不经感叹,一个英文字典的实体书拿在手上沉甸甸的,里面的内容可能我们一生也读不完整,但它仅仅只有2mb的大小。

  gpt的回答:

  在参数数量和训练资源上,GPT3有1750亿个参数,用了数千个高端的GPU进行了训练,是个典型的大模型。同事们说其实GPT就是“大力出奇迹”,因为数据、参数量级上来了,在语言的理解和表达上就越来越准确。

  2. 训练语言模型核心是模拟人脑训练过程

  我们从出生那一刻开始就在持续的接收数据开始训练了。想想看,你听到的声音、触摸到物体的感受、闻到的气味、看到的图像都会转化成信号,传输入到你的大脑中,并且默默地接受慢慢的训练,且一直持续。在训练的过程中,好的不好的感受你都会体会到,别人的反馈,会让你知道什么是对的,什么是错的。这个过程对于人来说,会持续一生,活(训练)到老学到老嘛。

  语言的训练模型就是这个原理,很多人比喻它是鹦鹉学舌的过程。训练它的数据就是在互联网上产生的数据。这也是它远远远强于人类的地方,它汇集了整体人类的“智慧”。

  3. ChatGPT是否能取代人类?

  网上关于人工智能时代来临了,要取代人类了,灭杀人类的新闻吹的天花乱坠,一时间让很多人信以为真。我通过实际体验ChatGPT的功能,是真的让人感觉在和一个人聊天。

  在早些年,我们在网上客服上和机器人沟通就是定式的,感觉很刻板。例如早期的微软小冰,对话过程是没有这么柔性的衔接的。一是不能联系上下文,二是回答的问题很刻板,让你很明显感觉它是机器。但ChatGPT的产品体验已经非常接近人了,让机器能够和人顺畅的通过自然语言对话,至少这种感觉非常真实,这种突破确实让人觉着机器有了生命,于是它带给人们的恐惧感就扑面而来,这本身就是人们的普遍心理反应。

  ChatGPT本质上就是个大力出奇迹的计算效果,它根据你的输入,来算出回答概率最高的答案。它没有意识,只有你和它说话,它才会回答你,它不会主动和你沟通。

  二、ChatGPT在人机交互上的革新

  ChatGPT不是技术革命,它的技术很早就出现了,它在这个时间出现,是必然的,因为现在满足了训练模型的大数据量和大计算量基础。对产品来说,想象的空间还是挺大的。

  我认为,ChatGPT的真正突破在于人机交互上的革新。刚体验ChatGPT的时候,我觉着它很神奇,它什么都会,还能帮你做很多事,写文章、回答一些天马行空的问题,还能写代码,搭建个小网页,给我一种无所不能的感觉。它具备了理解你的意思,并帮助你做事情的两个最基本能力。

  那为什么说ChatGPT的突破在人机交互上?作为一个老产品人,人机交互是产品经理工作中非常重要的一环,我们会花费很多时间来研究人机交互,设计页面结构、功能、画原型、想尽办法提高用户产品使用体验。

  说白了就是怎么能够让自己的产品好用,怎么让用户不用花费太多的学习成本快速的上手自己的产品。简单的说人机交互就是功能按钮、页面的布局摆放,往深了说,它要研究人的心理,要通过数据进行交互统计,对用户体验度量,要了解用户的心智,好的产品体验在人机交互上一定做的很好。

  但是以往的人机交互,我们努力的方向是让人来适应机器。

  我们通过良好的设计,把用户限定在一个条条框框里(交互框架),核心目的就是让机器能够在这个框架中充分理解人的“动作’,因为我们无法通过眼神、肢体动作、语言来让机器直接理解我们意图,我们必须把产品的实际功能摆放出来,让用户理解产品功能,逐步摸索用法。这个过程实际上是人与机器在交互上的折中方案,人不能无所顾忌的让机器随心所欲干什么事情。

  好的交互体验无需说明书,更贴近人的本性。举个简单的例子,苹果手机的屏幕使用方式(交互)(2007年乔布斯发布的iphone一代机),从二岁的孩子到80岁的老人,不用教,看别人用两次就会了。因为这个设计符合人的一般使用习惯。现在的应用程序,拿ios应用来讲,产品设计基本都使用苹果给出的基本交互框架,或者基于这个框架衍生发展出来的。例如底层页、瀑布流、九宫格、tab页的设计等等。

  所有的业务服务都会通过拆解业务过程,选择合理的交互框架进行功能的组装,最后形成一个完整的交互逻辑,就是用户看到的产品样子。复杂的可以看看微信、支付宝这些超级应用,都离不开苹果1代发布的交互框架。

  人与人的沟通是情景式的,是随机的,每个人的表达方式又不同,通过语言让机器理解人表达的意思并执行命令想想就很难。试想机器要和刚会说话的孩子、80岁的老人、全世界200多个国家的人,得诺贝尔奖的科学家、老师、司机、学生、等等不同的角色来沟通是件多么不容易的事,全球80亿人有80亿种表达方式,从机器的角度来看,理解这80亿人的表达就是一个无限集,是无边界的。

  ChatGPT的出现,打碎了传统的交互边界,让人机交互有了更多的可能。

  设想未来,我们可以有自己的私人gpt,他可以帮你整理历史的聊天记录,例如整理我们2018年去云南的的照片,然后生成一篇图文游记;周末我想吃火锅,结合我的口味,选择出我要在美团买菜上的货物;我想在周末带孩子去图书馆,帮我预约周日下午的时间;新闻应用方面,基于我过去的喜好,总结今天的热点新闻,告诉我财经方面都发生了什么大事情等等。这是个人生活领域。但这个过程不是一蹴而就的,随着时间的推移,会有一个逐步的演化的过程。

  在我所在的数据科学领域,我一直努力期待看到的一个场景就是说出问题后,直接给出结论。例如请帮我分析一下,华中大区昨天销量暴增的原因,然后直接出结果:“运营补贴起效果,又赶上地方补贴政策和节假日多重效果导致销量暴增”。又如电影钢铁侠中的助手,帮我分析一下战甲强度,帮我分析一下反应堆的持续性…

  结合现有数据进行推理分析,简化掉所有数据分析过程,分析数据,直接出给结论是我做数据产品的一个梦想。我们现在要花费7成左右的时间去处理数据,大量的时间用在了数据采集、处理与准备的过程。

  Ch

  ChatGPT的爆火,生动诠释了什么是“人红是非多”,发展至今已经吸引了众多互联网大佬的关注和讨论。

  毋庸置疑,对于一款具有分水岭意义的产品而言,不少企业家都认同大型语言模型的广泛应用。微软创始人比尔盖茨曾表示:“ChatGPT的诞生丝毫不亚于个人电脑的诞生。”英伟达创始人黄仁勋也表示:“ChatGPT只是起点,我们正处于AI的iPhone时刻。”谷歌前AI团队成员、deeplearning.ai创始人吴恩达曾在推特上发表言论,认为ChatGPT等大型语言模型是“人工智能领域最为激动人心的进展之一。”

  但也有部分企业家认为,ChatGPT们的火爆背后,隐忧犹存。

  人工智能需要强监管吗?

  我们在人工智能的发展方面,是否步伐太快?

  3月末,生命未来研究所(Future of Life)发布了一封公开信,包括马斯克在内的上千名人工智能研究人员和技术高管进行了签名,呼吁所有人工智能实验室暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。

  对此,国内的相关企业家也对此示警:刘慈欣曾在一次采访中表示:“ChatGPT等大型语言模型的出现将彻底改变人类的阅读和写作方式,同时也会带来一些新的道德和伦理问题。”周鸿祎也曾就相关大型语言模型的安全性问题给予提醒:“在使用公开GPT时一定要注意安全问题。大型企业在用 GPT 时不只是搜索,还会给它喂很多数据,会把很多上下文的前提背景告诉它,这就意味着很多信息的隐私可能会被泄露。”

  毋庸置疑,ChatGPT这样的产品是人工智能产业发展的里程碑。但即使是火爆如ChatGPT,也面临着至暗时刻的来临。

  不久前,以色列网络安全公司Team8的最新报告显示,使用ChatGPT等生成式人工智能的企业可能会因此泄露客户信息和商业机密。该报告称,新型人工智能聊天机器人和协作工具的广泛普及,可能会令一些公司面临数据泄露和法律风险。他们担心黑客可能会利用聊天机器人获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息未来也有可能会被人工智能公司利用。

  除此之外,各国政府对于ChatGPT的态度也开始变得更加冷静。

  美国联邦贸易委员会(FTC)也表示将重点关注滥用人工智能技术违反反歧视法或存在欺骗行为的公司。意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。英国则发布了一份文件,建议监管机构监督人工智能的发展,重点在安全性、透明度和公平性。

  AI的使用离不开适度监管

  阿里通义千问、飞书My AI、知乎知海图 AI、京东言犀、马斯克的 TruthGPT 都冒出了头,科技互联网行业一时之间,好不热闹。当越来越多的企业跑步入场,大型语言模型也面临着越来越多的困局。

  4月18日,CSDN发布《2022-2023 中国AIoT开发者调查报告》。报告中提到:“对AIoT抱持不安全感态度的开发者占比6%,也有11%的开发者担心AIoT会加剧失业问题。”并且,伴随AIoT技术的广泛应用,也会带来一系列伦理、法律和社会影响,将改变我们经济发展路径和社会生活形态。因此,在AIoT技术普及之前,需要开展广泛的社会、文化和伦理的探讨研究。

  目前,ChatGPT作为生成式AI的代表已经迭代到了ChatGPT 4.0。随着版本的更新迭代,GPT-4的文字输入限制也得到了提升,达到了2.5万字,并且对于非英语语种的支持也得到了更多的优化。这也使得ChatGPT不仅能够更加准确地回答问题,还具备更高水平的图像识别能力。此外,ChatGPT 4.0还能够生成歌词和创意文本,并且实现了风格的多样性。

  相关资料显示,初代GPT模型的参数是1.17亿个,GPT-2是15亿个,GPT-3模型参数量达到1750亿,是GPT-2的100倍;而GPT-4的真实参数在1750亿-2800亿之间,重点在数据处理优化上。

  但需要注意的是,伴随着ChatGPT成长而越来越庞大的数据和越来越强的算力,也意味着更大的数据和隐私风险。据报道,三星在引入ChatGPT不到20天里,就已经发生了三起半导体机密资料外泄事故,涉及测量资料、产品良品率等内容,传闻已被存入到ChatGPT学习资料库中。大型语言模型的负面效应已经开始展现。

  在国内,相关政策的制定已经走在前列。此前,《生成式人工智能服务管理办法(征求意见稿)》面向社会征求意见,这意味着,当下备受关注的生成式AI产业将迎来首份监管文件。从生成式人工智能服务商的准入,到算法设计、训练数据选择、模型、内容,以及用户个人隐私、商业秘密等方面提出了相关要求。其中特别强调了生成式人工智能产品训练数据及生成内容的真实性、合法性,要求提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

atGPT理解我们的意图,然后执行命令,简化了我们搜循、准备、以及各种场景的“过程”,在产品的交互上,我们可以减少很多过程式的设计。

  那是不是传统的交互框架就完全被替代消失了?我认为不会,产品设计讲用户场景,即便AI帮你把云南的照片整理出来形成故事游记,选择出你周末要吃火锅的货物,也是需要展现出来的,展现出来的形式,还是离不开传统交互框架,并且应用程序永远也绝对不会只是动动嘴皮子就完成所有任务的。所以传统的交互加上AI的加持是未来的发展方向。

  目前已经眼睛可见的就是工具类产品,例如微软的office套件、adobe全家桶生这类生产力工具方面的变化。例如我现在在大数据领域研究的埋点AI化、数据质量AI化,会议软件的自动会议纪要,邮件中的自动周报等,都会先从效能工具开始,具有直观的提效能力,消费者也有绝对的愿意为此埋单。

  在未来几年,语言模型渗透在应用交互模型里是个逐步的过程。但可能需要出现另一个现象级的应用才能真正带起这个浪潮。现在ChatGPT可以说是最原始的应用,目前国民级应用还基本上看不到ChatGPT在应用体系内的发挥,一是思想上还没有突破,还是原有思维模型和交互定式,二是完全独立做自己的ChatGPT成本太高了,导致ROI(投资回报率)不足。随着技术提升和单位成本的下降,语言模型的渗透会越来越多。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论