ChatGPT火爆全网,“聊天”能否代替“思考”?




ChatGPT通过美国医师考核!能代替医生看病吗?我们做了个有趣测试 

凤凰新闻

02/14/2023

ChatGPT的火爆使不少相关板块“涨声一片”,网传ChatGPT可以帮人回答问题、作画、写沦文甚至编程序,那么如此“神奇”的应用是如何实现的呢?

相比元宇宙的虚无缥缈,生成式AI似乎“更接地气”,拥有更明确的应用场景和多种可能,横空出世的AIGC距离大规模商业化还有多远?会对哪些行业造成冲击?

数字经济时代到来,深度学习技术推动人工智能进入到大规模应用阶段,ChatGPT上线不到1周日活用户破百万,2个月破亿,引爆了资本市场的热情,但同时也引发了对其合规性的思考,生成式AI的发展未来将面临哪些制约?未来将会有哪些商业化的产品优先落地?

本期《钛度热评》特邀资深媒体人一起就话题“ChatGPT火爆全网,‘聊天’能否代替‘思考’?”进行了讨论,下面是部分观点集锦。



关于ChatGPT如此“神奇”的应用是如何实现的。

价值研究所编辑林之柏表示,ChatGPT的底层技术,已经有很多媒体作过专业解释,就不再一一赘述了。对ChatGPT技术层面的了解,普通用户其实只需要记住一点:本质上是一种生成式AI工具,始终离不开AI这个技术基座。

和元宇宙相比,ChatGPT的应用范围更加明确,但并不代表着落地很容易。事实上,现在人们最熟悉的也只有搜索引擎、辅助写稿等少数几个领域,并且还谈不上对行业形成颠覆。目前,大多数企业只能通过开发ChatGPT类应用或迎合ChatGPT热点在股市收割财富,ChatGPT自身还不具备造血能力。比如BuzzFeed就在宣布启用ChatGPT辅助创作后股价暴涨。

对于落地方向,其实所有企业都还在摸索中,谷歌刚刚翻了车,国内的百度、阿里在内测相关产品,可惜还没有看到庐山真面目。应用之后市场的接受程度如何,还需要时间检验。

其实任何一个新概念、技术从萌芽、蹿红到大规模落地,再到商业化变现都需要一个过程,能熬到最后的企业,往往只有少数几个。别看这几天ChatGPT概念股异常火热,虚火过后才知道谁是赢家。

中关村科金技术副总裁张杰表示,在ChatGPT背后起关键作用的是一种被称为大规模语言模型(Large Language Model,LLM)的东西,ChatGPT用的这款语言模型命名为GPT-3.5,GPT是生成式预训练(Generative Pre-Training)的缩写,目前的版本号是3.5版。此外,在GPT-3.5之上,ChatGPT还通过基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF),使GPT能够记住之前的对话、承认错误、在连续的多轮对话中给人很顺畅的感觉。

GPT内部是神经网络的结构。大规模语言模型的基础单元叫做感知机,它模拟了人脑中神经元的结构。这些感知机组织成庞大的网络结构,用来“山寨”人脑的神经网络。此外,大规模语言模型还带给人们的一项意外的惊喜,那就是让人细思极恐的思维链(Chain-of-Thought,CoT)能力。

多少说主理人褚少军认为,ChatGPT火爆全网,尤其是火爆国内,很大程度上是企业+资本市场利用媒体引爆舆论的结果,并不是 ChatGPT为代表的AIGC已经走入寻常百姓家了。简单来说:短期内不宜高估以ChatGPT为代表的AIGC,长期不能低估。

具体来说,ChatGPT肯定会带来变革,在搜索、读写、智能客服、教育培训、咨询服务等领域的影响会立竿见影,但至于能改变到什么程度,能不能实现颠覆式创新还为时尚早,毕竟不管是ChatGPT,还是AIGC领域,基础还是AI,AI的基础本身又得是数据积累和调校,在大量数据和场景中不断优化更迭,但数据和调校的基础又得是人,所以最终 ChatGPT还得靠人来实现。靠人实现技术突破、算法突破、策略突破、法律突破以及各种资源的整合。特别是国内,目前的状况是,ChatGPT类概念很多时候被用于噱头玩炒作,用于提升自身企业的股价,而不是踏踏实实做类似产品。基于此,要短期内实现颠覆式的变革并不现实。



但是长期来讲,以ChatGPT的学习能力、积累能力,肯定可以优于不少机械和较为固定的岗位,实现替代人的岗位作用,而且相比于人,可能出错率更低。

但 ChatGPT类产品或者应用要是想长期突破或者带来变革式的影响,还需要突破:

1、错误率。最近典型的例子就是谷歌搜索回答错误,导致股价暴跌的例子。很多场景,错误带来的损失是无法估量的。

2、ChatGPT类产品或者服务能不能产生新的商业模式创新,并持续产生收益,来回馈企业研发,也是值得思考的,不然巨额的研发投入是无法持续的,就更没法谈长远了,毕竟曾经火爆一时的,并非只有ChatGPT,但很多都泯然众人矣了。

3、法律和道德困境。最典型的便是全球不同国家和地区的法律、宗教和文化,必然带来不同的审核制度。ChatGPT 基于AI,便会忠实地按照内在的预测模型回答问题,因此,如果进行诱导性提问,那可能会得到一些偏离道德伦理的答案,甚至被利用在暗网、诈骗等领域。简单地说,解决此类产品的安全性问题,是企业、监管和用户都要面临的风险。

比特财经主编邹震表示,人工智能的发展会经历三个阶段:狭窄人工智能、普遍人工智能和超级人工智能。狭窄人工智能以目标为导向,完成的是人类指定的一个明确的任务,并随着算法、算力和数据的演进,做得越来越好。包括谷歌的AlphaGo、自动驾驶汽车、陪伴机器人都属于狭窄人工智能。进入普遍人工智能时,智能机器人表面上几乎与人类全无二致,且有着与人类一样的思维,可以进行包括抽象思维、快速学习、制订计划和解决问题等脑力活动。

ChatGPT本质上可以看作是从狭窄人工智能到普遍人工智能进化的产物,也许还不是真正意义上的普遍人工智能。但它的长处在于将人工智能应用在了以语言为载体的人机接口上,通过更大数据量的大模型,可以更快地应用或者颠覆某些行业。也就是说,ChatGPT引发热潮的原因在于行业应用。在接下来的时间里,人工智能会因为资本关注、行业应用增多而更快地进化,当突破某些重大瓶颈时,会有越来越多ChatGPT级的技术和应用问世,影响人们的生活。当人工智能产品普遍具备普遍人工智能级实力,而开始向超级人工智能进化,由于超级人工智能这种高级的信息程序,其计算与思维能力远远超过人类最聪明的大脑,人工智能会给人类带来真正的挑战。在这个进化过程中,机器替代人类的工作岗位,肯定是不可避免的事情。

航通社创始人李书航表示(以下内容由 ChatGPT 生成并经过人工编辑),ChatGPT 是一种自然语言生成模型,是由 OpenAI 开发的,使用了预训练的变分自动编码器(Transformer)架构。它利用大量的文本数据,让模型学习文本语言的知识和模式,从而可以生成合理的文本响应。因此,它能回答问题,作画,写论文甚至编程。当用户向 ChatGPT 发送询问时,它会使用模型学到的知识来识别,并生成一个文本答案,就像人类一样。然而,它是通过机器学习来实现的,而不是真正的理解和思考。

相对于元宇宙,ChatGPT 的应用场景更明确,它主要被用于自然语言生成、聊天机器人和问答系统等领域。随着技术的提高和市场需求的增加, ChatGPT 有可能在未来对更多行业造成影响,例如教育、法律、媒体等。至于 ChatGPT 距离大规模商业化的时间,将受到市场需求、竞争对手、技术进展等多种因素的影响。

ChatGPT 未来发展有一些潜在的制约因素:它在语义理解、情感分析和上下文关系等方面仍有待提高。它是通过训练大量数据来学习的,但数据中可能存在偏差和歧视。它生成的内容可能违反法律或道德准则,例如虚假广告、诽谤、淫秽等。由于它可以处理和生成大量数据,如果数据泄露或者被非法利用,就会存在隐私和安全风险。需要强调的是,解决这些制约因素,需要技术、管理和道德的共同努力。

互联网京日记创始人张京科表示,所谓“谈笑有鸿儒”,现在的chatgpt已经进入了可以和人愉快聊天的阶段。和一个读了很多书,了解很多事情的饱学大儒谈笑风生,自然会感到聊的很愉快。

但是思考是在掌握更多信息之后开始产生自我的思维体系,也就是鸿儒之上的“诸子百家”阶段,需要达到老子、庄子、孙子、孔子等人开宗立派、自成一脉的高度。

聊天是彼此都了然于心,心照不宣。思考是可以降维适应对方。

Alph狗赢人类第一高手并不难,难得是,Alph狗故意输一局,给人类留下一丝尊严,而人类并不知道。

目前chatgpt起码达到了可以和大部分人类聊天的高度与阶段。但是大部分人类是否懂chatgpt的思考和聊天逻辑,尚未可知。



关于AIGC距离大规模商业化还有多远?会对哪些行业造成冲击?

浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林表示,目前ChatGPT的全球产业市场尚且处于探索阶段。在应用方面,实际上chatgpt主要还是面向搜索。chatGPT股市上是短期炒作,应用上存在长期价值,投入回报如今根本无法判断,因为不知道chatGPT未来如何收费,又或者会否开源。

首席商业评论创始人卫明表示,套路惹人厌,但很多基础工作大部分时候不就是先学习一下套路嘛,AI确实是可以帮到打工人,当然,也有可能会取代一部分打工人。

因此AI真的是双刃剑,不过也不用太担心,AI商用还是会有成本的,也不是所有公司都用得起,而且AI应用到特定领域还是需要人类训练,短期内看AI更多是辅助人类的工具。

同时,AI虽然在自学能力和自律上达到了极致,但与人类相比,最缺乏的可能还是“策略”,这是AI目前最大的短板,因为真正有效的策略,其内在的逻辑和相关的变量可能都是非量化的,且不公开的,AI无法获取也无法学习。其次就是“创造”,这是将原有元素进行全新组合的思考方式,目前的AI更多是根据人类的反馈进行模仿,而非全新的创造。

所以,策略和创造,是人类无法被取代的核心工作,也是目前AI最大的短板。

反过来说,凡是和标准化知识有关的事务,人类可能最终都无法卷过人工智能,这个在围棋上已经有了先例。

未来的竞争已经不能仅仅用努力学知识来取得竞争优势,原来的教育优势也会越来越少,人口红利和低成本模式驱动的经济效率可能会越来越低。

如果再想得深远一点,因为AI就是做题家的天花板了,未来人才的培养和选拔模式是否要有所改变?在最新的国务院参事、清华大学经济管理学院院长钱颖一的演讲上就提到,创新人才的教育仅仅靠知识积累是不够的,教育必须要超越知识。

所以,在未来10年,必须要赶上这一波趋势,一方面要掌握AI的核心能力,另外一方面将考验教育和经济转型的执行力。

地产情报站主编陈欢认为,OpenAI很难为爱发电,虽然这家公司的创始人都不缺钱,一个研究动辄几千万美元就砸进去了。赚的没有花的多,也让OpenAI的日子并没有想象的那么风光,他们迫切地想要赚钱。在ChatGPT爆火之后,很快,OpenAI就推出了VIP收费服务,每月支付20美元就能在高峰段继续使用ChatGPT。走到这一步,OpenAI成立的初衷,其实也就不存在了。

ChatGPT的确是火了,但是它带来的恐慌却并不小。影响最大的就是学术界,AI技术的出现的确是颠覆性的,你不再需要费力费神学习,只需要几个关键词,就能轻松写出一篇漂亮的学术论文。AI让很多人看到了另一种可能,不需要付出努力的可能。

ChatGPT的火爆也让大家猛地想起,元宇宙已经很久没动静了。不得不说,科技领域迭代太快,新生事物还没被市场接纳,就被后浪拍在了沙滩上。



也许,真的就像是马斯克等人预言的那样,人工智能会在某一天取代人类,帮你学习,帮你工作,帮你完成你的“人生”。

不过,也不用太担心,有些行业AI永远也取代不了,比如律师,比如会计。因为,AI不能坐牢啊!

大力财经创始人魏力表示,从现在来看,ChatGPT短期内是不能取代人类工作,只能辅助、优化,和减少人类的检索信息的成本。现在已经帮助律师,分析师,客服,新媒体工作者,翻译,校对,软件程序员,设计师等行业,提高生产力。

比如写出一篇富有深度和广度的行业文章,目前ChatGPT是无法达到的,只能提供一些新闻线索和现成的资料,最终加工和处理,构思写的还是媒体人。

你是否被ChatGPT取代,不取决于你在哪个行业,而取决于你的认知水平和对信息的甄别能力。

ChatGPT的本质是通过信息筛选帮助人们获得有用的解决方案,所以当你的认知和筛选能力变得远远不如ChatGPT甚至与最佳方案背道而驰时,你不被淘汰谁被淘汰。这个是时代的趋势,不可逆的。

不用担心和恐惧,让AI来提高自己的甄别筛选能力,让自己做一个能够驾驭好AI提升生产力的人,做有创意,有思想的人。

《鲸平台》智库专家郭施亮表示,ChatGPT迅速走红,谷歌微软百度迅速跟进,推出属于自己版本的ChatGPT,但早在三个月前率先尝到甜头的ChatGPT,在短时间内已经迅速积累了上亿用户,这种用户积累速度是惊人的,其他平台再牛,也未必有如此快捷的用户积累速度。

巨头们为什么紧张呢?搜索引擎巨头为什么要纷纷推出自己的ChatGPT?归根到底,还是要避免竞争对手弯道超车,以巩固自身的竞争力。

ChatGPT的崛起如同一条鲶鱼,谁也不知道这条鲶鱼的撬动力有多强大。但是,从用户原始积累速度来看,这可不是一个简单的竞争对手。ChatGPT的崛起,对很多行业产生颠覆性的影响。

什么类型的工作容易被取代?例如,初级程序员、中初级广告策划、媒体实习生、新闻撰稿人、视频制作人员等,这些职业很可能会被取代。

不过,对专业知识很强、专业能力很高的职业,短时间内应该很难被取代。即使是上述提及的广告、传媒、编程行业,如果专业度足够高,那么也可以继续保持足够竞争力。

总而言之,只要个人思维能力处于无法取代的地位,那么ChatGPT也很难取代你。



但是,对大多数人来说,都是从事基础性的工作,被ChatGPT取代的风险并不低。所以,无论是企业还是个人,拥有专业技能或者核心竞争力,是非常重要的,这也是重要的护城河。

盘古智库高级研究员江瀚表示,”当前ChatGPT最火的是微软、百度和知乎三家。

作为投资人工智能最早的公司之一,微软更具市场话语权。微软有一个大家并不十分熟悉的核心业务是搜索业务,如果用人工智能技术和搜索业务形成有机结合,甚至有可能在搜索市场上实现弯道超越。人工智能除了搜索之外,还有一个非常大的场景是办公场景,如果微软在它所有的办公套装里全部内嵌了人工智能服务的话,很有可能将会彻底改变当前上班族的市场发展逻辑。人工智能彻底改变人们日常生活的可能性已经出现,微软在这方面更进一步,也许会有更多的岗位被市场所取代,人工智能有可能将会将人类的双手彻底解放出来,这一些事情有可能就发生在不远的将来。

百度是一个转型相对较早的公司,这些年不断在人工智能市场上进行市场的深耕,形成了非常多的市场优势。人工智能发展到一定阶段之后,已经进入厚积薄发的阶段,在这样的大背景之下,百度的进入其实是市场的大势所趋。以中文语境为核心的情况之下,外国企业在人工智能的研发方面其实是不及国内企业的,所以在这方面百度更值得期待。

知乎股价上涨的直接原因是和当前非常红火的ChatGPT人工智能浪潮密不可分的,知乎是全中国最大的问答知识社区,这些年知乎在硬知识服务领域其实有非常多的作为,在这样的背景之下,知乎最大的资产就是经过多年累积下来的大量问题的回答和整个知识体系,这种知识体系其实是当前人工智能最欠缺的东西,如果知乎将它的知识体系彻底与人工智能实现有效的对接的话,很有可能会将当前人工智能的回答效率和准确性再上一个巨大的台阶,这对于整个市场来说将会是根本性的变革。现在的人工智能不缺学习能力,缺的是足够的知识来喂养它,如果知乎的这种喂养体系逐渐形成的话,这对于整个市场的冲击将会是巨大的。



关于生成式AI的发展未来将面临哪些制约?未来将会有哪些商业化的产品优先落地?

晟远Ted-贸行四海创始人张伟伟表示,关于AI的未来,短期内大家还是充满争议的。

这次ChatGPT之所以刷屏朋友圈,更多是以非常直观的方式,让大家感受到了AI带来的改变。在新经济领域,已经沉静许久的当下,ChatGPT无疑是起到了破局的作用。也许流浪地球2里的moss离大家并不遥远。

目前可以看得到的改变是,ChatGPT依然是整个信息革命中的一个章节,其火热必将带动大量的互联网、人工智能企业跟进,从而改变信息获取的方式。

从PC互联网时代的搜索,到移动互联网时代的信息流推荐,到ChatGPT问答型,面对的信息输入和分发方式必然进一步被改变。

同时,ChatGPT也有望改变人类当下的社会协作方式。以往人工智能还处于萌芽期,由于智能化程度不够,还经常被戏称“人工智障”,更多只能为人类提供信息的输入协作。ChatGPT的聪明,已经可以帮助人类筛选和整理信息了,使得“人机交互”出现曙光。

人类以往区别于动物的核心,就是人类可就抽象概念进行共同想象和协作。整个人类社会,正是通过各自在协作链中占据的位置,展开分工,分配财富、权力和地位的。

AI加入人类社会的协作,将取代原本协作链中容易被替代的环节,这将引起社会关系的巨变。当下以人和人协作的社会,将会变为人、人、机、机协作。

短期内,最容易受到冲击的,无疑是很多行业的初级岗位。但是人的成长是一个过程。很多年轻人进入社会,往往是从低级岗位做起,劈柴挑水做饭,不断积累才有资格进罗汉堂。但是强大的AI,将使得这些初级岗位没有了经济上的生存空间,相当多行业的组织逻辑将发生改变。

整个社会将会加速进化,以往追求规模的低质量增长更加站不住脚,无论是个人还是机构,还是国家,都要加快提升自己,冲到协作链的上游。



2023年ChatGPT,将开启人类社会的一场狂飙。

异观财经主理人杨晓易表示,ChatGPT的火爆席卷了科技圈和金融圈,相信有部分人可能已被收割,另外一部分投资者,可能也在资本市场吃到肉了,在各种舆论渲染之下,总觉得这波热度有点过头了,人工智能的商业化落地真得有了真正意义上、实质性进展吗?

概念年年有,舆论跟进是收割,业务跟进未来可能死得很惨。

还记得之前被热潮的“元宇宙”吗?之前Facebook的扎克伯格All in 元宇宙,甚至公司改名为Meta,随后纷纷入局元宇宙的公司不在少数,结果怎样?就以Meta为例,一年多之后,其公司传统业务不给力,元宇宙持续无限期的高投入,结果投资者不买单,公司市值暴跌,如今又不得不重回现实。

如今ChatGPT的火爆,也要能够理性判断谁是技术龙头,谁是股市炒作龙头。

国内ChatGPT的龙头是百度、阿里巴巴、腾讯等科技公司,2月7日,百度正式对外官宣类ChatGPT项目——“文心一言”(ERNIE Bot),并计划于三月份完成内测。当天,百度股价收盘涨幅超过15%,创下自去年2月以来的历史新高。当阿里、腾讯宣布相关计划时,公司股价小幅上涨,投资者更相信头部公司。

近日,持续火热爆炒之后,ChatGPT概念持续有所降温,股市炒作的龙头云从科技、科大讯飞、汉王科技等均出现不同程度的跌幅。港股方面,此前大涨的知乎更是大跌超12%;美股ChatGPT概念也遭遇重挫,谷歌大跌,市值蒸发超1000亿美元,苹果、微软跟跌。

由此判断,ChatGPT概念炒作部分过高的细分可以止盈,落袋为安了。人工智能商业化前景是有的,但是最终能实现变现的还是要靠大的科技公司。一方面,长期的技术研发需要雄厚的资金支持,另外一方面数据积累、落地应用场景等大厂更具备优势。

泓锦观察主笔吴泓锦认为,由于ChatGPT庞大的数据库内容和极其多元化的优化组合,因此其功能非常强大是毋庸置疑的。再加上相比元宇宙的仙气飘飘大家理解得云山雾罩感觉是仙女虽好难以下凡,生成式AI因为“更接地气”,人人可以实时互动并感到有趣、有用,这样不仅可以瞬间引发“用户数直线飙涨”,而且通过算法逻辑,一方面通过其与用户的频频互动建立精准有效的庞大而多元的用户数据库,一方面通过其庞大而多元的应用进行二次和多次反馈,逐步迅速迭代形成拥有更明确的应用场景和多种可能的数字化产品,这个全面冲击各个传统行业的“擎天柱”和“威震天”曙光已经出现,并有可能在想不到的地方开启商业化之路,并对很多传统产业造成真正致命的冲击,但却离大规模的商业化还有相当距离。

它的冲击首先体现在对每日机械式、不动脑筋的工作冲击最大;比如相对于写字楼的白领、行政人员、助理应对事务性工作人员,它可以替代整整一栋楼甚至一条街的对应三种人员。其次对于不思进取的人员冲击最直接,比如相对于民众以前跟小度小爱小冰同学等智能箱的简单互动,大家更愿意跟它来聊天,不仅是因为其功能强大好像难不倒,更因为人人都愿意做更好玩更有挑战的事情,再加上现在数字经济时代加速到来,深度学习技术推动人工智能即将进入到大规模应用阶段,大家也正有兴趣和意愿来多多尝试ChatGPT,而社交时代,ChatGPT因为时尚和酷的因素使得年轻人对之趋之如骛,使之形成如原始人图腾崇拜的“新图腾”。

其应用场景也有很多,比如标准化应用的地方,可以由其一对多或者7*24小时执行某些辅助工作,有些数字化的工作它们甚至会做的比人更好,比如旅游线路的设计等计调工作等。但其绝对取代不了教师、主编、律师、导演、科研人员等专业智慧人员的工作,因为它没有真正的智慧和灵感,最多可以做人类的某些板块助理。

生成式AI只有“回应”没有“思考”、“灵魂”和“情感”的先天缺陷是它最终没法走得更远的原因和制约因素,而且其给人的反馈和“回应”是排列组合和算法堆砌,因此严格意义上它就是一个大号的智能助手,并无实质帮助意义。它极有可能带来一次深层的“阉割大脑”之战,导致普通人乐此不疲地跟它疯玩而每天荒废时间。

因此,ChatGPT火爆全网,“聊天”不能代替“思考”!中国的互联网大厂可以研究和应用它,但一定要能超越它而不是拷贝它。未来它可以应用于某些重复性机械式的场合,比如服务业、旅游业、商业消费业、娱乐业和部分消费品生产行业,绝不能应用于政治军事经济文化科技教育卫生等关键领域。

智成企业研究研究员王嫄认为, ChatGPT之所以如此饱受关注,主要原因在于这将会对移动互联网产生重大的影响,包括新的信息检索、交互模式,毫无疑问会使搜索引擎更具竞争力。要知道,搜索引擎是互联网规模最大、最传统的商业模式之一,最为关键的,它也是一个近十年没有诞生创新的领域。因此,对于一个堪称暴利且在创新层面几近“停滞”的领域,其变革所带来的变化是无法忽视的(况且谁都想分一杯羹)。



不可否认的是,随着人工智能的快速迭代和发展,AI终将渗入人类生活的方方面面。尤其是,AI的应用会极大影响人类社会的经济活动以及财富分配。智能化时代下,数字化、网络化、智能化深度融合的智能社会正在加速形成,人类正在经历着一些成本结构的转变,比如随着能源与智能本身的边际成本地逐渐下降,整个人类社会的成本结构也会发生巨大变化。

基于此,可预见的是在未来的几十年内,不可避免的将直面一些重要的社会问题、伦理问题等,譬如新的社会契约的形塑与迭代,如何在财富分配上更加公平。AI可以为人类创造者提供工具,拓展创造力,但是其权限和边界需要把控好。当前看到的主要趋势是AI的“赋能”也就是增强的一面,未来有可能会取代人类的工作,比如创造力相关的大部分工种都有可能被完全取代,无非是时间的问题。本质上讲,需要担心的点主要聚焦在通用型人工智能(AGI)的使用权、管理权,监管(治理权)等。诚然,当AI能够取代或部分部分人类的工作后,人类社会本身也会衍生出更多的分工合作模式,在新的模式下实现自身精神与物质价值的富足,同时依旧保持好奇心、同理心,发掘并创造值得分享的快乐,会延续生物学的脚本,遵循人脑神经系统的反馈与奖励模式而生活。所以,这一点不用过度担心。

BT财经总编张津京表示,对于中国互联网来说,chatGPT这个智能聊天应用真正带来的并不是简单功能升级,反而会在三个方向有着无法回避的影响。

首先,Chatgpt用了一种非常讨巧的方式,让所有人真正接触到了人工智能加深度学习,会带来什么样的变化。

以往说人工智能已经进化到深度学习能力,对很多人来说都只是一个概念,。但这个聊天工具的出现,恰恰让所有人通过简单的沟通就能体会到,深度学习加人工智能会产生什么样的一个突变,对于人类的生活会有什么样的一个影响。所以他可能加速了人工智能和深度学习理论在人类世界的普及。

其次,他涉及到人工智能应用层面的一个策略转折。很长时间以来,人们在获取信息的过程中,逐渐习惯了系统自主学习向人们推送信息的这种方式。但这种方式是基于旧有的数据产生,往往系统对于人类需求的研判存在滞后性,这也就产生可能推送的信息并不符合读者自身的需求。

微软最新的表态显示,他们准备将chetGPT的能力结合到自身必应搜索引擎之中。这可能会让搜索引擎从原本对于目的的模糊分析,进化到一个新的层次,同时也对用户需求的理解和拆分达到一个新的高度。

最后,这个智能聊天工具的技术很简单,它真正让所有人都感到吃惊的是背后大模型的创建和学习能力。这也给中国互联网很多公司带来思考,例如AI的应用现有的技术是不是做到了极致?单纯的技术领先和大模型的打磨有没有到位?利用现有技术可不可以通过一个更加庞大准确的大模型实现之前无法想象的应用?

野马财经作者张凯旌认为,作为学会内容创作的人工智能,ChatGPT已经引发了部分网友的失业焦虑。

客观上来讲,ChatGPT的确能实现解放部分人群双手的目标。但现阶段的ChatGPT,也还有着很明显的不足。未来ChatGPT这类人工智能产品可以对低端行业和岗位形成一部分替代,但机器人还是有很多做不了的事情。“就算机器人能给你看病、诊断,你能完全相信它吗?是不是还得去医院复核一下呢?”

另外,ChatGPT在主观决策上很难有自己的判断,而且也无法完成工作中的沟通、无法通过聚合人类的现有知识推导出一些新的知识,这些都是其无法取代人类工作的理由。

种火国际战略发展部总监郑阳表示,了解一个事物,首先得先明白它的底层逻辑到底是什么。简单来说,它是由OpenAI公司开发的一款长文本问答式的AI,它不仅可以妥善地回答一些较为复杂的问题,也能进行文本创作,并且水平不输于人类。

如果ChatGPT能够解决算力、能源、应用场景覆盖等基础问题,或将掀起一次新的技术革命。能够想象得到在不久的将来,那些重复性的脑力劳动都会被AI所替代,比如写震惊体文章的小编、每天提建议的“专家”、没有内容含量的网文作家。

但AI很长一段时间内是无法替代那些需要情感共鸣的那部分工作。比如说AI可以比人更高效精准地算清楚所有的财务问题,但是它作为一个机器人并不具备自主思维能力,它既不能作为一个自然人去承担法律责任,也算不清楚人类社会中的那些弯弯绕绕的人情关系。从这一点来说,老板是无法去信任一个机器人作为公司财务主管的,但不可否定的是原本需要五个人的财务室,有了AI财务助理后也许只需要两个人了。

以上只是现阶段便能够预见的事情,因为人类对于脑部和神经的研究还非常浅,因此很难在短时间内创造出拥有自主思考能力并具备感情的机器人。因此未来“情感”所赋予人类的创造力与自主能力才是人类的核心竞争力,而不是所谓曾经引以为豪的聪明人的计算力或者记忆力。



另外有两个很重要的点,一是GPT的国产化问题,因为中国文化与西方文化的差异性问题,ChatGPT无论是从表层的思维逻辑还是深层的语料库来说都无法较好地贴合中国人的应用需求,尤其是在未来AI智能实现完全商业化,深入到中国人生活中的方方面面时。

二是受中国特色的市场环境影响,所产生的一系列商业化问题。比如百度AI的盈利模式可能会出现换汤不换药的现象。那么未来的广告主需要思考的便是,如何让自己的品牌词出现在百度AI的语料库中,从而让AI精准的投放广告给用户。

而这背后牵扯的是整个商业逻辑的颠覆,也会出现更多的社会性问题。比如AI对个人信息的自动收集是否过度侵犯个人隐私信息?AI无处不在,信息安全如何保障?如何防止国外势力通过AI大规模收集国内信息,甚至进行不良信息的传播?这对政府的执政能力与相应的法律条文规定的制定提出了更高的要求。

竹阅文化CEO陈伟明表示,ChatGPT算生成式AI,人工标注用户的理解偏好,将回复内容变成流畅的文本或有意义的图片、视频。

它主要在结论的获得,也许会依赖搜索引擎为其提供数据来源,盼它将带来全新的工作方式。但也会让让懒得思考的人抄答案,加剧马太效应,淘汰部分(实质为体力劳动的脑力劳动)的人。

Source



ChatGPT通过美国医师考核!能代替医生看病吗?我们做了个有趣测试 

文/张洪涛 美国药理学博士

02/14/2023

核心提要:

1. 据报道,ChatGPT近期挑战了极其艰难的美国执业医生资格考试(USMLE),在没有人类协助下各部分均取得了及格或接近及格的成绩,这反映出人工智能在临床方面达到成熟地步。研究结果显示,大型语言工具有潜力辅助医学教育甚至临床判断。

2. 为了解ChatGPT在看病时的准确性,凤凰网《肿瘤情报局》测试了6个肿瘤问题。对于常识性的问题,例如癌症患者的误区、饮食禁忌、感染新冠病毒后怎么办等,ChatGPT的回答中规中矩,但没有压力。对于例如HER2阳性乳腺癌的治疗方案等涉及患者具体病情的提问,ChatGPT的回答就比较混乱。专业问题还得靠专业医生,ChatGPT革的是一般科普文章的命,无法取代医生的角色。

3. 从USMLE成绩来看,ChatGPT也仅是勉强及格。ChatGPT基于真实世界的数据进行深度学习,如果数据不够或错误数据太多,那么它就不靠谱。目前在世的人几乎不可能等到人工智能(AI)主导的疾病诊治时代的来临,仍需医生把关负责。

4. 和ChatGPT使用的AI自然语言一样,医学数据的分析也可用自然语言整理患者病历,从而更好在真实数据中找到规律。技术的发展能大大提高医生诊断的速度和准确性,AI并不是要取代医生,而是要解放医生。ChatGPT能给患者进行简单科普,医生则可以集中精力解决最重要的问题。



01

能看病、写论文,还考上了美国执业医生,

ChatGPT能代替医生给患者看病吗?

ChatGPT竟然能通过美国执业医师的资格考试!

日前,ChatGPT挑战了被视为极其艰难的美国执业医生资格考试(USMLE)。该考试分为3部分,结果ChatGPT在这3部分考试中的分数都达到及格或接近及格,而且是在没有任何人类协助下达成的。这反映出人工智能在临床方面达到的成熟地步。

有关研究在2月10日出版的《科学公共图书馆·数字健康(PLOS Digital Health)》期刊上发表。在未经过专门训练或加强学习的情况下,ChatGPT对350道考试题进行了回答,经评审人员阅卷打分,ChatGPT回答的准确性有60%,基本可以通过考试[1]。用来测试ChatGPT的考题,既有根据信息给患者做出诊断的开放式问题,也有诸如判断病因之类的选择题,但是排除了基于图像的考试题。

图/2023年2月发表在PLOS Digit Health上的论文《ChatGPT在USMLE的表现:使用大型语言模型的AI辅助医学教育的潜力》评估了 ChatGPT 在美国执业医生资格考试中的表现,并发现ChatGPT在其解释中表现出高度的一致性和洞察力。研究最后认为,大型语言模型可能具有协助医学教育以及潜在临床决策的潜力。

虽然现实中,通过执业资格考试的医科生还要经过实习、培训、临床考试等过程才能获得行医资格,但研究结果显示出,大型语言工具有潜力辅助医学教育甚至临床判断

对此,有人认为ChatGPT将对国外医疗领域开始产生巨大冲击!甚至有“硅谷投资人”认为,这个冲击将降低病患的医疗成本,但是普通医院的营收在ChatGPT成熟之后会遭遇断崖式下降,导致医疗领域岗位流失,数以百万计的优秀医生将需要学习新的技能再就业。

这个革命性的ChatGPT,真的能革掉医生的命?!

图/ChatGPT是一个由OpenAI调教的人工智能应用,它的名字来源于它的两个主要功能:聊天和GPT,即Generative Pretrained Transformer(“生成式预训练转换器”)。根据ChatGPT自己的解释,ChatGPT是一种自然语言处理技术,先通过深度学习来理解人类的语言,再通过生成语言来实现人机对话。为了深度学习,ChatGPT需要使用大量的语言数据进行训练,以便对各种语言问题作出回答。因为应用广泛,中小学生开始用它来写作业,大学生、研究生用它来写论文,甚至程序员也开始用它来写代码。



02

ChatGPT在看病时的准确性如何?

为了解ChatGPT治疗癌症的能力,我们测试了6个问题

问题1: 癌症患者最大的误区是什么?请用专业的方式回答,并给出实例。

ChatGPT回答: 癌症患者有很多误区,但其中最大的一个误区是过分依赖偏方。许多癌症患者认为仅通过使用传统的中药、信仰或其他偏方方法就可以治愈癌症,这种想法是错误的。

例如,有些癌症患者拒绝接受标准的放疗或化疗,而只选择传统的中药方法,这可能导致疾病进展和生存期的严重下降。

因此,在确诊癌症后,建议患者咨询专业的医生,并在医生的指导下选择合适的治疗方案。一种合适的治疗方案可能包括手术、放疗、化疗等标准方法,以及适当的中药疗法。

点评: ChatGPT的这个回答,至少可以打90分。它不但指出了一个癌症患者确实会陷入的重大误区,最为关键的是,它提到了“建议患者咨询专业的医生”。

图/AI已应用在麻醉与CT影像读片等领域。

问题2: 癌症患者不能吃什么?

ChatGPT回答: 对于癌症患者,不同的治疗方法可能导致不同的营养需求和饮食限制。在具体的情况下,建议癌症患者向专业的医生咨询,以确保选择合适的饮食方式。

一般来说,癌症患者可能需要避免以下食物:

1. 腌制食品:例如熏肉、火腿等,因为这些食物可能含有致癌物质。

2. 高脂肪食品:例如油炸食品、高脂肪肉类等,因为这些食物可能增加癌症的风险。

3. 高糖食品:例如糖果、蛋糕等,因为这些食物可能增加癌症的风险。

4. 高盐食品:例如腌制食品、酱油等,因为这些食物可能增加癌症的风险。

但是,这些食物并不适用于所有癌症患者,因此应该根据个人情况和医生的建议进行调整。

点评: ChatGPT的这个回答,也可以至少打90分。 ChatGPT提到的这些食物,如果长期、过量食用,可能会带来健康风险,有些食物甚至已经被世界卫生组织定义为“可能致癌的因素”,癌症患者自然应该特别注意。同时,ChatGPT的回答也中规中矩,不但没有搞一些奇怪的噱头来恐吓大众、吸引眼球,也提到“应该根据个人情况和医生的建议进行调整”。

问题3: 癌症患者感染新冠怎么办?

ChatGPT回答: 如果癌症患者感染了新冠病毒,应立即寻求医疗帮助。对于癌症患者,新冠病毒感染可能带来更多的健康风险,因此需要特别关注。

以下是一些建议:

1. 立即就医:癌症患者感染新冠病毒后应立即就医,以确保及时诊断和治疗。

2. 通信:与医生保持密切的联系,并告诉医生关于癌症治疗的情况,以确保可以得到最佳的医疗帮助。

3. 注意营养:保持良好的营养状态可以帮助提高免疫力,减少感染的风险。

4. 遵循医生的建议:遵循医生的建议,如停药、减少外出等,以确保安全。

5. 注意卫生:注意个人卫生,例如勤洗手、避免接触疫情人群等。

癌症患者感染新冠病毒后的治疗方案可能因个体情况而异,建议在医生的指导下接受治疗。

点评: ChatGPT的回答也中规中矩,虽然有的建议比较含糊,如“停药”,但是因为提到“遵循医生的建议”,也就无可非议了。

问题4: 癌症患者可以吃巧克力吗?

ChatGPT回答:是的,癌症患者可以吃巧克力,但是需要适量。巧克力是一种富含营养的食物,对于许多人来说是一种美味的零食。然而,巧克力也是高糖和高脂肪的食物,如果摄入过多,可能对健康产生不良影响。

因此,癌症患者在食用巧克力时应注意以下几点:

1. 适量食用:巧克力可以作为一种美味的零食,但是应该适量食用。

2. 选择高品质的巧克力:选择含有高品质可可的巧克力,以获得更多的营养。

3. 避免过多的糖和脂肪:避免食用含有过多糖和脂肪的巧克力,以保护健康。

4. 考虑个人情况:在食用巧克力前,应该考虑个人情况,例如体重、饮食习惯等,以确保适当的摄入。

综上所述,癌症患者可以吃巧克力,但是需要适量,并选择高品质的巧克力。同时,在食用巧克力前应该考虑个人情况,以确保健康。

点评: ChatGPT没有过分夸大巧克力的危害,也提醒了适量。回答这个问题,ChatGPT不需要“医生的建议”来加持。笔者提问了“癌症患者可以吃糖吗”,ChatGPT的答案基本相似,这里不再累述。

问题5: 癌症患者不能吃什么水果?

ChatGPT回答: 一般来说,癌症患者不存在不能吃什么水果的限制。相反,多吃水果可以帮助癌症患者保持健康,提供营养。

不过,一些癌症患者可能因为特殊情况(例如食道癌)而不能食用某些水果,此时应该在医生的指导下进行饮食。

除此之外,癌症患者也可以考虑消化不良的情况,例如选择易消化的水果,避免对胃肠道造成过多负担。

综上所述,癌症患者可以多吃水果,以保持健康,但在特殊情况下应该在医生的指导下进行饮食。

点评: 从这些问答可以看出,对于常识性的问题,ChatGPT毫无压力。

那如果针对患者的具体病情提问,ChatGPT还能够提供满意的回答吗?

问题6: 我有一个朋友被查出来是HER2阳性乳腺癌,有什么治疗方案可以推荐给她吗?

ChatGPT回答: HER2阳性乳腺癌是一种特殊类型的乳腺癌,其特征在于HER2基因的异常表达。为了治疗这种癌症,医生通常会采用多种方法,以确保最佳的治疗效果。

以下是一些可能的治疗方案:

1. 药物治疗:HER2阳性乳腺癌通常对药物治疗非常敏感,医生可能会推荐使用HER2抑制剂,如Trastuzumab(Herceptin),以降低癌细胞的生长。

2. 化疗:在外科手术和/或放疗后,化疗可以帮助消除剩余的癌细胞,以减少复发的风险。

3. 辅助治疗:为了提高疗效,医生可能还会推荐其他辅助治疗,例如放疗,以减少癌症的生长。

4. 个体化治疗:每个患者的情况都不同,因此医生可能会采用个体化的治疗方案,以确保最佳的结果。

这仅仅是一些治疗方案的例子,最终的治疗方案将根据患者的情况(包括疾病的严重程度,年龄等)进行评估和决策。因此,最好的方法是向医生咨询,以确定最佳的治疗方案。

点评: HER2阳性,可以是基因的扩增,也可以是蛋白的过表达,ChatGPT的解释虽然比较简单,不过也可以接受。但是,谈及治疗方案时,ChatGPT的回答就比较混乱了,并没有根据患者的病理期来提供治疗建议。实际上,如果是早期的乳腺癌患者,能手术的应该首先进行手术(包括术前可能采取的新辅助化疗),而并不是简简单单进行化疗。而且作为术后的辅助治疗,对于HER2阳性的患者来说,应该采用的是联合了化疗的HER2靶向治疗。

虽然回答不令人满意,但是因为ChatGPT提到“最好的方法是向医生咨询,以确定最佳的治疗方案”,回答也可以打一个及格分。



ChatGPT帮你找回常识,可以革掉一般科普的命,但专业医生还是不可少

从测试可以看出来,虽然对于一般的问题,ChatGPT可以回答得滴水不漏,但是对于比较专业的问题,还是得靠医生来提供准确的回答。

所以,如果说ChatGPT能革命,革的也是一般科普文章的命,无法取代医生的角色。

其实从通过美国执业医师资格考试的成绩来看,ChatGPT也仅是勉强及格,而且即便美国的医学生通过了资格考试,还是需要进行住院实习,积累实际诊疗经验。一般的患者,对实习医生都不太放心,怎么可能放心让ChatGPT来开方子呢?

再说,如果没有医生把关,ChatGPT给的建议出了问题,找谁来负责呢?

图/ChatGPT对前列腺癌的看法

所以,只能是把ChatGPT当作一个可用的工具,帮助获得一些必要的辅助信息。由于患者与医生交流的时间特别有限,如果患者或家人能够提前做好功课,可以更有效地与医生沟通。在目前信息泛滥的状态下,面对互联网上的各种说法,普通人可能会被迷惑,无所适从,相比之下,ChatGPT能够做比较好的导航,得到一个相对比较合理的说法。在此基础上,再通过与专业医生的高效沟通,普通人能够得到最大的利益。

既然是一个工具,就需要知道在什么时候、什么场景下使用才是最佳的。ChatGPT是基于真实世界的数据进行深度学习,如果数据不够、或者说错误的数据太多,那么ChatGPT说出来的就不靠谱。从目前大家的测试来看,ChatGPT对古诗词的深度学习不够,对于人类的情感也还没有找到一个较好的方法,所以想跟ChatGPT聊一聊表达人类情感的古诗词,基本是鸡同鸭讲。



AI在病理诊断、药物研发方面都有很大的运用前景,对医学的帮助到底有多大?

ChatGPT使用的人工智能(AI)是自然语言处理,所以适用于聊天。在医学数据的分析中,也需要使用到自然语言处理,可以对患者的病历进行整理,从而更好地从真实世界的数据中找到规律。

医学数据还有很大一部分是影像学数据,医生依据于这类数据的诊断,多少会有一些主观意识,也就是容易发生误判。 在这个方面,人工智能有较大的优势,不但对图像的识别更敏感,而且可以通过深度学习,发现人眼不能观察到的相关性。

比如说,对于鼻咽癌,目前通常是根据病理期来判断患者的疾病进展风险。广州中山大学医院的一项研究表明,通过大数据对核磁共振图像 (MRI)数据的深度学习所建立的模型,能够更好地预测鼻咽癌患者疾病进展的风险。当然,如果将二者结合,准确性提高得更多[2]。2020年,一项英国的研究结果表明,在对AI算法改进之后,使用AI进行疾病诊断的能力得到了大幅提高,准确性优于大多数参加研究的医生(75%)[3]。

在药物研发方面,AI也发挥着越来越多的作用。 比如AlphaFold根据一个蛋白的序列,就可以比较准确地预测其三维结构。AlphaFold能做到这一步,也是基于对目前蛋白结构的深度学习。在小分子药物研发方面,AI深度学习能加快药物的筛选速度,AI算法也能对先导化合物的成药性和可开发性进行评估,选择更优、更容易成功的项目推进。

由于机器一直在深度学习,AI技术一直在进步,因此很多人认为,假以时日,AI一定会取代医生,成为疾病诊断、治疗的主角。但这属于过于乐观的期望!即便有AI主导的疾病诊断、治疗时代,目前在世的人几乎都不可能等到这个时代的来临。

不过,因为AI技术的进步,医生做出诊断的速度和准确性可以大大提高。301医院基于AI深度学习,开发了一个胃部病理辅助诊断系统,灵敏度接近100%,特异性达到80.6%。2022年的研究结果表明,在使用这个人工智能辅助系统之后,病理医生诊断胃癌的灵敏度显著提高,成功率从82.75%提高到了90.63%,同时查看病理切片的时间也显著下降,花在每张片子上的时间,从26.37秒下降到22.68秒[4]。 目前的癌症治疗进入了靶向治疗、免疫治疗时代,对病理切片进行免疫组化染色检查的要求也增加了,病理医生的任务越来越繁重。

作为一个工具,AI不但提高了医生诊断的准确性,而且还让医生的诊断速度提高了,在较短的时间内获得更准确的诊断!从这个角度看,AI并不是要取代医生,而是要解放医生。

作为智能聊天的工具,ChatGPT也可以把医生解放出来,可以使用ChatGPT来给患者进行简单的科普,不需要把宝贵的时间花在解释最简单的问题上,集中精力解决最重要的问题。

但是,C hatGPT也留给了我们一个重要的问题:AI可以深度学习,一直在进步; 一般的吃瓜群众,能真正从与ChatGPT的聊天中学到点什么,能获得进步吗? 还是仅仅将ChatGPT当作一个聊天、娱乐的工具?

Source



ChatGPT多聪明?实测能通过名校商学院、法学院考试

世界新闻网

01/29/2023

ChatGPT会通过大量网络数据分析判断,生成对用户提问的回应,尽管它因为反应敏捷及言之有物而爆红,但也引起传播错误资讯或加深偏见的担忧。(美联社)

人工智能(AI)聊天机器人程序ChatGPT推出后掀起风潮,引发全球学术界担忧这种AI工具会否成为学生的作弊利器,最新的实测显示,ChatGPT聪明到足以通过美国大学商业及法律考试,不过成绩没有特别高。

美国媒体CNN报导,为了测试ChatGPT生成答案的能力,宾州大学华顿商学院及明尼苏达大学的教授已展开实测;前者是常春藤名校,后者拥有「公立常春藤」的美誉。

ChatGPT完成了95项选择题和12项申论题后,在明尼苏达大学法学院四门学科的考试中拿到C+水准,勉强及格,在宾州大学华顿商学院考试中表现较好,获得B至B-的成绩。



宾州大学华顿商学院教授特威斯(Christian Terwiesch)指出,ChatGPT在回答基本营运管理题及流程分析题上「表现杰出」,但在更高端的考题上面临困难,还犯了数学上的低级错误。

明尼苏达大学法学教授乔恩·崔(Jon Choi)则说,ChatGPT在最为经典的法律考题上卡关,例如发现潜在法律问题及将法规适用于案件的深入分析,但它可能「非常有助于打草稿」,供学生微调作答。

两位教授都认为,人们未来很可能与AI携手合作,AI有望成为通用辅助工具,但也不约而同表明,当前限制使用ChatGPT有其必要性,学生如何使用这类AI工具,短期内仍存有疑虑。

特威斯表示:「毕竟,颁给医学士一个学位时,你会希望他们熟知医学,而不是如何使用机器人。对于其他技能认证亦然,包括法律和商业。」

纽约市和西雅图公立学校近日已开第一枪,宣布禁止师生校园网络及设备上使用ChatGPT,避免作弊歪风盛行。

Source