前员工发长文称谷歌走向瘫痪:迷失方向 效率低下 管理不善




前员工发长文称谷歌走向瘫痪:迷失方向 效率低下 管理不善

澎湃新闻

02/17/2023

·“在我看来,谷歌有四个核心文化问题。它们都是拥有一台名为‘广告’的印钞机的自然结果,它每年都在无情地增长,掩盖所有其他罪恶。(1)没有使命,(2)没有紧迫性,(3)例外论的错觉,(4)管理不善。”

·谷歌有175000多名有能力且薪酬丰厚的员工,他们每季度、每年完成的工作很少。像老鼠一样,他们被困在批准、启动流程、法律审查、绩效审查、执行审查、文件、会议、错误报告、分类、OKR、H1计划之后的H2计划、全体会议和不可避免的重组的迷宫中。

在ChatGPT风潮中,谷歌公司最近的日子不好过。



为了对抗微软+OpenAI联盟,谷歌上周匆忙发布聊天机器人“巴德”,但宣传片中出现事实性错误,股价瞬间暴跌千亿美元。谷歌多名人工智能人才宣布离开,有员工在内部论坛中批评管理层。2月14日,前谷歌员工Praveen Seshadri在一篇题为《迷宫在老鼠里》的博客文章中称,该公司已经迷失方向,效率低下,管理不善,并因风险而走向瘫痪。

Praveen Seshadri于2020年初加入谷歌,当时谷歌云收购了Seshadri共同创立的AppSheet。他在博客文章中表示,尽管他受到了欢迎和善待,但他离开谷歌时明白“这家曾经伟大的公司已经慢慢停止运作”。根据他在LinkedIn上的个人资料,他于今年1月离职。

Seshadri认为目前对于谷歌来说是一个“脆弱的时刻”,特别是因为它最近面临着与微软的人工智能计划竞争的压力。他表示,谷歌的问题不在于其技术,而在于其文化。

“在我看来,谷歌有四个核心文化问题。”Seshadri 说, “它们都是拥有一台名为‘广告’的印钞机的自然结果,它每年都在无情地增长,掩盖所有其他罪恶。(1)没有使命,(2)没有紧迫性,(3)例外论的错觉,(4)管理不善。”



Seshadri认为大多数谷歌的员工最终不是为客户服务,而是为其他谷歌员工服务。他将公司描述为一个“封闭的世界”,加倍努力工作不一定会得到回报,反馈是“基于你的同事和经理对你工作的看法。”他补充说,员工还被困在一长串的批准、法律审查、绩效审查和会议中,几乎没有给创造力或真正的创新留下空间。

Seshadri表示,谷歌有机会扭转局面,但不能仅仅通过规避风险来继续取得成功。谷歌需要“以对使命的承诺来领导”,奖励那些为“雄心勃勃的事业”而奋斗的人,并削减中层管理人员的层级。

针对Seshadri的这篇吐槽长文,谷歌尚未发表评论。

以下为Praveen Seshadri的博客文章,由澎湃科技(www.thepaper.cn)编译(小标题为编者所加):

Praveen Seshadri博客文章的配图:迷宫里的老鼠。

Praveen Seshadri博客文章的配图:迷宫里的老鼠。



迷宫在老鼠里

就在疫情爆发前,我加入了谷歌,当时我共同创立的公司AppSheet被谷歌云收购。收购团队和高管欢迎我们,并善待我们。我们以极大的热情和承诺加入,将AppSheet集成到谷歌中,并使其取得成功。然而,在我三年强制保留期到期时,我离开了谷歌,了解到一家曾经伟大的公司是如何慢慢停止运作的。

谷歌有175000多名有能力且薪酬丰厚的员工,他们每季度、每年完成的工作很少。像老鼠一样,他们被困在批准、启动流程、法律审查、绩效审查、执行审查、文件、会议、错误报告、分类、OKR、H1计划之后的H2计划、全体会议和不可避免的重组的迷宫中。老鼠定期被喂食他们的“奶酪”(晋升、奖金、美味的食物、更高级的津贴),尽管许多人希望从他们的工作中获得个人满足感和影响力,但系统训练他们平息这些不适当的欲望并了解这实际上意味着什么是“谷歌人”——只是不要搅局。正如Deepak Malhotra(哈佛商学院教授、谈判专家)在他出色的商业寓言中所说,在某些时候,问题不再是老鼠在迷宫里。问题是“迷宫在老鼠里”。

在OpenAI+微软的压力下,对谷歌来说,这是一个脆弱的时刻。大多数人从技术角度看待这一挑战,尽管现在有人怀疑这可能是某种更深层次不适的征兆。最近的裁员在公司内部引起了焦虑,因为许多员工认为这是管理层的失败或向激进投资者投降。在某种程度上,这反映了管理层和员工普遍缺乏自我意识。谷歌的根本问题是文化方面的,其他一切都反映了这一点。当然,我不是唯一一个观察这些问题的人(见Waze创始人兼前Googler员工Noam Bardin的帖子)。

在我看来,谷歌有四个核心文化问题。它们都是拥有一台名为“广告”的印钞机的自然结果,它每年都在无情地增长,掩盖所有其他罪恶。

(1)没有使命,(2)没有紧迫性,(3)例外论的错觉,(4)管理不善。

不幸的是,这不是我第一次目睹一个占主导地位的帝国逐渐衰落。我在另一家伟大的公司(微软)度过了十多年(1999-2011年),因为它慢慢退化并迷失了方向。然而,谷歌有一些微软在试图恢复时没有的优势——它不是一种以自我为中心和封地式的文化,其环境重视反省,公司既定的核心价值观坚如磐石,外界仍然非常尊重谷歌。谷歌和我在那里工作的朋友们还有希望,但这需要干预。



降低风险胜过一切

谷歌有没有人真正开始考虑“组织全球信息”?他们忘记了自己为谁服务以及为什么。我在一家初创公司工作了八年,答案对我来说非常清楚——我为我们的用户服务。但很少有谷歌人认为他们为客户或用户服务。他们通常服务于一些流程(“我负责审查隐私设计”)或一些技术(“我让CI/CD系统正常工作”)。他们为经理或副总裁服务。他们为其他员工服务。他们甚至会服务于一些通用的谷歌技术或宗教信仰(“我是一名代码可读性专家”、“我维护SWE阶梯描述文档”)。这是一个封闭的世界,几乎每个人都只为其他谷歌员工工作,反馈循环基于你的同事和经理对你工作的看法。在这样一个世界里,格外努力或加倍聪明地工作不会创造任何根本性的新价值。事实上,以一种奇怪的方式,情况正好相反。

虽然谷歌的两个核心价值观是“尊重用户”和“尊重机会”,但在实践中,系统和流程是有意为“尊重风险”而设计的。降低风险胜过一切。如果一切顺利,这是有道理的,最重要的是避免摇摆不定,并在广告收入不断上升的趋势中继续航行。在这样一个世界里,潜在的风险无处不在。人们会相应地采取行动:

·你更改的每一行代码都是有风险的,因此请投入大量流程以确保每次代码更改都完美地避免风险(不要介意它是否对用户没有吸引力)。

·你启动的任何东西都是风险,因此请进行大量的审查和批准(在让人想起NASA太空发射复杂度的“启动(launch,和发射同词)”过程中,需要15次以上的批准),只是为了将每个小更改部署到次要产品。

·任何非显而易见的决定都是有风险的,所以要避免任何不是集体思考和符合传统智慧的东西。

·任何改变过去做事方式的方式都是有风险的,所以坚持现状。

·任何你不满意的员工都是职业风险,因此经理的目标是让员工100%满意,即使对表现最差的员工也采取谨慎态度(另一方面,你不满意的任何个人客户都会产生零风险,除非是超级大客户,因此客户满意度只是仪表板上的概念,可以在全体会议上被抛出,被吐槽,然后被遗忘)。

·与管理链的任何分歧都是职业风险,所以总是对副总裁说是,副总裁对高级副总裁说是,一直向上。

如果重点放在价值创造上,等式就会改变。如果你每天都问:“我今天为谁创造了价值”,你的行为就会大不相同。如果每半年的计划都确定“将在世界上产生多少价值”,那将导致不同的思考。如果我能创造更多价值并产生更大影响,我会更加努力地工作。但我不会更努力地工作来防止人们犯错误——放慢工作速度并放慢他们的速度会更容易、更有效。只需要求更多说明,并在两周后安排另一轮会议。我没有成为监管者、房屋质量监督员或政府官员是有原因的。这些都是很好的职业,但如果谷歌真的“尊重机会”改变世界,这些职业就不应在像谷歌这样的地方占据主导地位。



明确而自豪地嘲笑“英雄主义”

谷歌的核心价值观之一是“相互尊重”。有两种方法可以解释这一点:我希望这是尊重每个人的独特优势,并弄清楚如何让每个人最大限度地发挥他们的潜力和影响。不幸的是,这导致组织普遍缺乏改变任何事情的愿望。“相互尊重”被翻译为“想办法包容和同意每个人的意见”。在具有非常分散的所有权的包容性文化中,你很快就会需要许多人的批准才能做出任何决定。如果这是一个算法,我们会称之为“最谨慎的人获胜”,而且几乎总是有人谨慎地倾向于什么都不做。此外,参与者往往拥有截然不同的知识、能力和利益,而且总会有人感到不舒服,什么都不想做。因此,任何脱离现有预先批准计划或偏离传统智慧的决定几乎都不可能实现,就像现有预先批准的计划几乎不可能改变一样。

现在,在预先批准的计划中,当务之急是寻求风险最小的可预测性。每个经理都试图用自己版本的“承诺不足和过度交付”来表现出独特的智慧,尽管这是愚蠢的,而不是智慧。我还没有遇到一个超额兑现承诺的工程团队。这种愚蠢植根于通过设定低期望来进行管理的文化。有些文件明确而自豪地嘲笑“英雄主义”,并断言产品团队不仅不应该鼓励“英雄”,还应该积极劝阻。如果有人选择比预期的两倍努力工作,他们通常会被阻止这样做,因为他们必须与他人一起工作,而这样做会迫使其他人也更努力地工作。如果有人说他们可以在一个月内完成一个项目,他们的经理会告诉他们要现实一点,把它延长到四个月,并告诉副总裁是六个月。他们可能会声称甚至认为,最好慢点做、正确做,但这并不意味着做对了——但确实做得很慢。

总的来说,这是一种和平时期的软文化,没有什么值得为之奋斗的。倾向于为客户或新想法、创造力而战的人很快就会明白这样做的弊端。超出标准会被压制,如果你试图超越,你的同事和经理会斜眼看你。正如在非常严格定义的阶梯系统中所定义的那样,你应该按照职业阶梯中的级别定义来执行。L5软件工程师应该做某些事情,并将根据该标准进行评估。“客户”这个词不属于该准则的一部分,所以你不要费心去支持客户,如果你这样做了,也不要指望得到赞赏。不要费心去创新或做六个月前制定的官方计划中没有的事情,因为即使你这样做了,你的经理们不会把相关的开发、PM、Pgm、UX、文档、法律和营销资源安排好,以使任务可以启动。但是,你的代码最好格式正确并确保打卡。等两年,你就会升职,然后你可以转到谷歌的另一个团队。就像Waze的Noam Bardin说的——虽然每个人都是出于好意,但系统有它自己的动力。而在这个系统中,没有什么值得为之奋斗的。



挥之不去的错觉

在谷歌内部,有一种集体错觉,认为这家公司是卓越的。就像所有这类错觉一样,有错觉者只是站在真正杰出的人的肩膀上的凡人,这些人在他们之前创造了一个极其成功的环境。最终,特殊的环境开始消退,但挥之不去的错觉已经消除了凡人的谦逊。你不会每天醒来都在想你应该如何做得更好,你的客户应该如何得到更好的服务。相反,你相信你正在做的事情已经非常完美,以至于它们是唯一的方法。宣传对内对外都很重要。当新人加入你的公司时,你会对他们进行灌输。你坚持做事是因为“这就是我们在谷歌做事的方式”。如果大多数人悄悄抱怨整体效率低下和无能,那也没关系。这里有些例子:

·谷歌有一个独特的自产内部技术堆栈,名为“Google3”。公司所有的大规模消费产品都建立在这个堆栈上。有一种核心错觉,认为谷歌拥有世界上最好的技术堆栈。这在十年前可能是正确的,但今天肯定不是这样。许多其他公司已经在没有特定堆栈的情况下构建了大规模的消费服务。什么意思呢?也许你不想禁止世界上其他人正在学习和使用以加速其工作的有用技术。比如React!或者像Twilio、Intercom和Mixpanel这样的SaaS(软件即服务)!也许他们会帮助公司更好地招聘和更快地创新。至少要保持开放的心态跟上世界的步伐。

·谷歌的内部流程无疑是过时的。这几乎就像公司陷入了二十年前的时间扭曲,采用瀑布式规划流程。如果一个团队中的所有高级经理都要花一个月时间策划六个计划,再花一个月休假,一个月进行绩效评估,那么突然间就有足够时间进行一年一次的重组和战略变更了,对吧?什么都没完成,没有问题,没有风险——升职发奖金,继续前进。

·谷歌的价值观可能是“尊重用户”,但在关注客户成功方面显然差强人意。除非客户支付一大笔钱,否则他们会得到一些孤陋寡闻的一线工程师,对产品的了解远少于客户本身,并且他们被迫被毫无用处的回复折磨。每个级别的每个人都将花费数百小时来准备一次对高管的演示,最低级的员工,甚至不是全职员工来负责帮助客户十分钟。



糟糕的招聘

我在2005年和2009年第一次面试并收到了加入谷歌的邀请。虽然我两次都拒绝了,但我对这家公司的与众不同印象深刻。他们想知道我是否有关于如何改变世界的雄心勃勃的想法。这就是他们当时的想法,也是他们想要雇用的那种人。想猜猜现在是不是这样?

谷歌的规模在短短几年内翻了一倍多,尽管也有削减。我在2020年初加入,到2022年的某个时候,我在谷歌的时间超过了一半的谷歌员工。以这种速度招聘总是一个问题,因为它会导致糟糕的招聘,而那些糟糕的招聘又会带来更多糟糕的招聘。 “坏”是主观的——每个人单独看都可以是好的,但他们是否被安排在最大限度地发挥优势和减少劣势的位置上?这很难在匆忙中实现。在初级阶段,谷歌的面试过程具有挑战性,而且招聘人员的总体素质都不错。大多数初出茅庐的人才都被浪费了,他们的技能逐渐萎缩。问题和负面影响在于经理级别,并在总监级别和更高级别加剧。在这个级别招聘面试完全是主观的,面试官的素质很重要。尤其是谷歌云,通过从周围的每家企业公司招聘中高级人才发展迅速。在大多数情况下,在不那么精英的企业X公司担任总监所需的技能与在谷歌胜任总监所需的技能并不一致。而当有人从精英公司Y被雇用到谷歌时,真的是因为他们在那里大杀四方但还是被谷歌吸引走了,还是因为他们在那里没有跑道了,而谷歌是一个好的落脚点?有时是前者,但往往是后者。在缺乏稳定有效的现有文化的情况下,你会看到这些不同企业“移植”过来的混乱混合体,他们都想弄明白如何在新的地方发挥作用。

招聘的另一面是管理和留住人才。从我在谷歌云看到的情况来看,他们应该更好地识别和培养人才,将人才转移到最适合的角色,并全面优化公司现有员工。相反,他们的模式似乎是等到有人不开心并离开,然后再找替换者。不费心引导人们担任合适角色并最大限度地发挥才能。太浪费了。

不同团队的管理能力质量差异很大,因此绩效评估的解释非常依赖于团队。然而,谷歌人仍然相信公司第一个十年的神话——所有绩效评估都是标准化的,谷歌其他团队的任何人都和你自己团队的员工同样优秀。这意味着团队在内部调动之前不会进行彻底的内部访谈——只是礼貌的谈话。

还有许多其他领导力挑战,这反映在糟糕的战略和战术决策上。主要因为决策是由具有特殊角色或头衔的人做出的,而不是有专业知识的人。几乎所有的重要决定都是在副总裁或以上级别做出的,通常由拥有职权并喜欢表达意见的人做出。更糟糕的是,副总裁轮换到不同的产品或来自其他公司,但做出关键决策时往往几乎不了解他们的产品或客户。战略很少被清楚地阐明,通常在与下一位副总裁一起审查后,或没有立即转化为成功时发生变化。许多内部项目由一名副总裁启动,然后由下一位副总裁终止。与此同时,所有中层管理人员都放弃了他们刚刚在努力的工作,拥抱新的方向,并等待下一次重组。



谷歌能否实现“软着陆”

谷歌再也不能通过避免风险来寻求成功了。前进的道路必须从文化变革开始,这必须从最顶端开始。谷歌的高管应该看看Satya Nadella(微软公司首席执行官)在微软做了什么,并执行类似的策略:

·带着对使命的承诺领导。它必须超越技术(例如:使用人工智能)或赚钱(例如:谷歌云收入)。它必须是为了在现实世界中给真实的人(用户、客户)带来积极变化。谷歌人本质上是理想主义者,他们的工作需要有意义。他们还需要相信,他们的高管正在追求真正的使命,而不仅仅是鹦鹉学舌地喊口号。例如,如果他们“尊重用户”,那么每位副总裁和每位主管取消每周一小时的会议,而是利用这些时间自己做一些直接的客户支持怎么样?要求并不过分——客户应该得到关注,而谁想开那么多会。

·撇开和平时期承诺不足和交付不足的“将军”们。定义你将集体为之奋斗的雄心勃勃的事业。期待并奖励个人为这些事业做出的牺牲。这样的战斗需要你应该启用和奖励的英雄。最优秀的人想要有所作为。在适当的情况下,有动力的人能够做出巨大而独特的有价值的贡献。

·随着时间的推移积累的中层管理者,逐渐升迁到力不从心,无力改变。他们通常与自己拥有的产品和团队脱节。他们通过雇佣更多层次的主管、项目经理、产品经理、幕僚和其他人,会见、听取介绍和委派任务给他们,从而使问题更加复杂。相反,增加经理扇出(fanout)并缩减组织结构的深度。最近的裁员或许应该更多地集中在经理、董事和副总裁身上。我不想让任何人失业,但也许他们应该学会再次成为有价值的个人贡献者,亲自动手,做真正有形、有价值的工作。

对于中层管理人员和领导,请质疑过去25年积累的一些传统智慧。孤立的技术堆栈导致效率低下而不是效率。拥抱敏捷或精益开发——瀑布技术已经过时了。 “企业客户”不是慢慢构建复杂的垃圾的借口。决定哪些产品需要法律审查,让其他产品运行得更快。将员工视为具有特殊才能的独特的人,而不是可替换的乐高积木。期望并激励每位员工尽其所能,而不是将他们限制在低标准的期望中。鼓励团队向客户做出承诺并信守承诺。构建一些客户想要的东西,而不是只构建副总裁想要的东西。



最后,对于所有员工来说,不要把时间花在memegen(谷歌内部论坛)上。这是一个给人打滚的房间,所有内部指责都无济于事。照照镜子,看看你是否可以在团队、产品和客户层面做出积极改变。这可能只是一小步,但却是建设性的一步。

谷歌能否实现“软着陆”——即在持续稳步增长的同时逐步转型,重新成为强者?大多数公司都未能通过此测试。他们要么逐渐枯萎,然后作为自己的影子徘徊(例如:IBM),要么就彻底失败(例如:AT&T)。微软设法扭转了局面,但这需要卓越的领导才能和好运。谷歌有机会,我会支持它。如果谷歌重新发现其作为一家“不作恶”并努力让世界变得更美好的、雄心勃勃的公司的根源,世界将受益匪浅。老鼠可以忘记他们的迷宫。

Source



ChatGPT通过美国医师考核!能代替医生看病吗?我们做了个有趣测试 

文/张洪涛 美国药理学博士

02/14/2023

核心提要:

1. 据报道,ChatGPT近期挑战了极其艰难的美国执业医生资格考试(USMLE),在没有人类协助下各部分均取得了及格或接近及格的成绩,这反映出人工智能在临床方面达到成熟地步。研究结果显示,大型语言工具有潜力辅助医学教育甚至临床判断。

2. 为了解ChatGPT在看病时的准确性,凤凰网《肿瘤情报局》测试了6个肿瘤问题。对于常识性的问题,例如癌症患者的误区、饮食禁忌、感染新冠病毒后怎么办等,ChatGPT的回答中规中矩,但没有压力。对于例如HER2阳性乳腺癌的治疗方案等涉及患者具体病情的提问,ChatGPT的回答就比较混乱。专业问题还得靠专业医生,ChatGPT革的是一般科普文章的命,无法取代医生的角色。

3. 从USMLE成绩来看,ChatGPT也仅是勉强及格。ChatGPT基于真实世界的数据进行深度学习,如果数据不够或错误数据太多,那么它就不靠谱。目前在世的人几乎不可能等到人工智能(AI)主导的疾病诊治时代的来临,仍需医生把关负责。

4. 和ChatGPT使用的AI自然语言一样,医学数据的分析也可用自然语言整理患者病历,从而更好在真实数据中找到规律。技术的发展能大大提高医生诊断的速度和准确性,AI并不是要取代医生,而是要解放医生。ChatGPT能给患者进行简单科普,医生则可以集中精力解决最重要的问题。



01

能看病、写论文,还考上了美国执业医生,

ChatGPT能代替医生给患者看病吗?

ChatGPT竟然能通过美国执业医师的资格考试!

日前,ChatGPT挑战了被视为极其艰难的美国执业医生资格考试(USMLE)。该考试分为3部分,结果ChatGPT在这3部分考试中的分数都达到及格或接近及格,而且是在没有任何人类协助下达成的。这反映出人工智能在临床方面达到的成熟地步。

有关研究在2月10日出版的《科学公共图书馆·数字健康(PLOS Digital Health)》期刊上发表。在未经过专门训练或加强学习的情况下,ChatGPT对350道考试题进行了回答,经评审人员阅卷打分,ChatGPT回答的准确性有60%,基本可以通过考试[1]。用来测试ChatGPT的考题,既有根据信息给患者做出诊断的开放式问题,也有诸如判断病因之类的选择题,但是排除了基于图像的考试题。

图/2023年2月发表在PLOS Digit Health上的论文《ChatGPT在USMLE的表现:使用大型语言模型的AI辅助医学教育的潜力》评估了 ChatGPT 在美国执业医生资格考试中的表现,并发现ChatGPT在其解释中表现出高度的一致性和洞察力。研究最后认为,大型语言模型可能具有协助医学教育以及潜在临床决策的潜力。

虽然现实中,通过执业资格考试的医科生还要经过实习、培训、临床考试等过程才能获得行医资格,但研究结果显示出,大型语言工具有潜力辅助医学教育甚至临床判断

对此,有人认为ChatGPT将对国外医疗领域开始产生巨大冲击!甚至有“硅谷投资人”认为,这个冲击将降低病患的医疗成本,但是普通医院的营收在ChatGPT成熟之后会遭遇断崖式下降,导致医疗领域岗位流失,数以百万计的优秀医生将需要学习新的技能再就业。

这个革命性的ChatGPT,真的能革掉医生的命?!

图/ChatGPT是一个由OpenAI调教的人工智能应用,它的名字来源于它的两个主要功能:聊天和GPT,即Generative Pretrained Transformer(“生成式预训练转换器”)。根据ChatGPT自己的解释,ChatGPT是一种自然语言处理技术,先通过深度学习来理解人类的语言,再通过生成语言来实现人机对话。为了深度学习,ChatGPT需要使用大量的语言数据进行训练,以便对各种语言问题作出回答。因为应用广泛,中小学生开始用它来写作业,大学生、研究生用它来写论文,甚至程序员也开始用它来写代码。



02

ChatGPT在看病时的准确性如何?

为了解ChatGPT治疗癌症的能力,我们测试了6个问题

问题1: 癌症患者最大的误区是什么?请用专业的方式回答,并给出实例。

ChatGPT回答: 癌症患者有很多误区,但其中最大的一个误区是过分依赖偏方。许多癌症患者认为仅通过使用传统的中药、信仰或其他偏方方法就可以治愈癌症,这种想法是错误的。

例如,有些癌症患者拒绝接受标准的放疗或化疗,而只选择传统的中药方法,这可能导致疾病进展和生存期的严重下降。

因此,在确诊癌症后,建议患者咨询专业的医生,并在医生的指导下选择合适的治疗方案。一种合适的治疗方案可能包括手术、放疗、化疗等标准方法,以及适当的中药疗法。

点评: ChatGPT的这个回答,至少可以打90分。它不但指出了一个癌症患者确实会陷入的重大误区,最为关键的是,它提到了“建议患者咨询专业的医生”。

图/AI已应用在麻醉与CT影像读片等领域。

问题2: 癌症患者不能吃什么?

ChatGPT回答: 对于癌症患者,不同的治疗方法可能导致不同的营养需求和饮食限制。在具体的情况下,建议癌症患者向专业的医生咨询,以确保选择合适的饮食方式。

一般来说,癌症患者可能需要避免以下食物:

1. 腌制食品:例如熏肉、火腿等,因为这些食物可能含有致癌物质。

2. 高脂肪食品:例如油炸食品、高脂肪肉类等,因为这些食物可能增加癌症的风险。

3. 高糖食品:例如糖果、蛋糕等,因为这些食物可能增加癌症的风险。

4. 高盐食品:例如腌制食品、酱油等,因为这些食物可能增加癌症的风险。

但是,这些食物并不适用于所有癌症患者,因此应该根据个人情况和医生的建议进行调整。

点评: ChatGPT的这个回答,也可以至少打90分。 ChatGPT提到的这些食物,如果长期、过量食用,可能会带来健康风险,有些食物甚至已经被世界卫生组织定义为“可能致癌的因素”,癌症患者自然应该特别注意。同时,ChatGPT的回答也中规中矩,不但没有搞一些奇怪的噱头来恐吓大众、吸引眼球,也提到“应该根据个人情况和医生的建议进行调整”。

问题3: 癌症患者感染新冠怎么办?

ChatGPT回答: 如果癌症患者感染了新冠病毒,应立即寻求医疗帮助。对于癌症患者,新冠病毒感染可能带来更多的健康风险,因此需要特别关注。

以下是一些建议:

1. 立即就医:癌症患者感染新冠病毒后应立即就医,以确保及时诊断和治疗。

2. 通信:与医生保持密切的联系,并告诉医生关于癌症治疗的情况,以确保可以得到最佳的医疗帮助。

3. 注意营养:保持良好的营养状态可以帮助提高免疫力,减少感染的风险。

4. 遵循医生的建议:遵循医生的建议,如停药、减少外出等,以确保安全。

5. 注意卫生:注意个人卫生,例如勤洗手、避免接触疫情人群等。

癌症患者感染新冠病毒后的治疗方案可能因个体情况而异,建议在医生的指导下接受治疗。

点评: ChatGPT的回答也中规中矩,虽然有的建议比较含糊,如“停药”,但是因为提到“遵循医生的建议”,也就无可非议了。

问题4: 癌症患者可以吃巧克力吗?

ChatGPT回答:是的,癌症患者可以吃巧克力,但是需要适量。巧克力是一种富含营养的食物,对于许多人来说是一种美味的零食。然而,巧克力也是高糖和高脂肪的食物,如果摄入过多,可能对健康产生不良影响。

因此,癌症患者在食用巧克力时应注意以下几点:

1. 适量食用:巧克力可以作为一种美味的零食,但是应该适量食用。

2. 选择高品质的巧克力:选择含有高品质可可的巧克力,以获得更多的营养。

3. 避免过多的糖和脂肪:避免食用含有过多糖和脂肪的巧克力,以保护健康。

4. 考虑个人情况:在食用巧克力前,应该考虑个人情况,例如体重、饮食习惯等,以确保适当的摄入。

综上所述,癌症患者可以吃巧克力,但是需要适量,并选择高品质的巧克力。同时,在食用巧克力前应该考虑个人情况,以确保健康。

点评: ChatGPT没有过分夸大巧克力的危害,也提醒了适量。回答这个问题,ChatGPT不需要“医生的建议”来加持。笔者提问了“癌症患者可以吃糖吗”,ChatGPT的答案基本相似,这里不再累述。

问题5: 癌症患者不能吃什么水果?

ChatGPT回答: 一般来说,癌症患者不存在不能吃什么水果的限制。相反,多吃水果可以帮助癌症患者保持健康,提供营养。

不过,一些癌症患者可能因为特殊情况(例如食道癌)而不能食用某些水果,此时应该在医生的指导下进行饮食。

除此之外,癌症患者也可以考虑消化不良的情况,例如选择易消化的水果,避免对胃肠道造成过多负担。

综上所述,癌症患者可以多吃水果,以保持健康,但在特殊情况下应该在医生的指导下进行饮食。

点评: 从这些问答可以看出,对于常识性的问题,ChatGPT毫无压力。

那如果针对患者的具体病情提问,ChatGPT还能够提供满意的回答吗?

问题6: 我有一个朋友被查出来是HER2阳性乳腺癌,有什么治疗方案可以推荐给她吗?

ChatGPT回答: HER2阳性乳腺癌是一种特殊类型的乳腺癌,其特征在于HER2基因的异常表达。为了治疗这种癌症,医生通常会采用多种方法,以确保最佳的治疗效果。

以下是一些可能的治疗方案:

1. 药物治疗:HER2阳性乳腺癌通常对药物治疗非常敏感,医生可能会推荐使用HER2抑制剂,如Trastuzumab(Herceptin),以降低癌细胞的生长。

2. 化疗:在外科手术和/或放疗后,化疗可以帮助消除剩余的癌细胞,以减少复发的风险。

3. 辅助治疗:为了提高疗效,医生可能还会推荐其他辅助治疗,例如放疗,以减少癌症的生长。

4. 个体化治疗:每个患者的情况都不同,因此医生可能会采用个体化的治疗方案,以确保最佳的结果。

这仅仅是一些治疗方案的例子,最终的治疗方案将根据患者的情况(包括疾病的严重程度,年龄等)进行评估和决策。因此,最好的方法是向医生咨询,以确定最佳的治疗方案。

点评: HER2阳性,可以是基因的扩增,也可以是蛋白的过表达,ChatGPT的解释虽然比较简单,不过也可以接受。但是,谈及治疗方案时,ChatGPT的回答就比较混乱了,并没有根据患者的病理期来提供治疗建议。实际上,如果是早期的乳腺癌患者,能手术的应该首先进行手术(包括术前可能采取的新辅助化疗),而并不是简简单单进行化疗。而且作为术后的辅助治疗,对于HER2阳性的患者来说,应该采用的是联合了化疗的HER2靶向治疗。

虽然回答不令人满意,但是因为ChatGPT提到“最好的方法是向医生咨询,以确定最佳的治疗方案”,回答也可以打一个及格分。



ChatGPT帮你找回常识,可以革掉一般科普的命,但专业医生还是不可少

从测试可以看出来,虽然对于一般的问题,ChatGPT可以回答得滴水不漏,但是对于比较专业的问题,还是得靠医生来提供准确的回答。

所以,如果说ChatGPT能革命,革的也是一般科普文章的命,无法取代医生的角色。

其实从通过美国执业医师资格考试的成绩来看,ChatGPT也仅是勉强及格,而且即便美国的医学生通过了资格考试,还是需要进行住院实习,积累实际诊疗经验。一般的患者,对实习医生都不太放心,怎么可能放心让ChatGPT来开方子呢?

再说,如果没有医生把关,ChatGPT给的建议出了问题,找谁来负责呢?

图/ChatGPT对前列腺癌的看法

所以,只能是把ChatGPT当作一个可用的工具,帮助获得一些必要的辅助信息。由于患者与医生交流的时间特别有限,如果患者或家人能够提前做好功课,可以更有效地与医生沟通。在目前信息泛滥的状态下,面对互联网上的各种说法,普通人可能会被迷惑,无所适从,相比之下,ChatGPT能够做比较好的导航,得到一个相对比较合理的说法。在此基础上,再通过与专业医生的高效沟通,普通人能够得到最大的利益。

既然是一个工具,就需要知道在什么时候、什么场景下使用才是最佳的。ChatGPT是基于真实世界的数据进行深度学习,如果数据不够、或者说错误的数据太多,那么ChatGPT说出来的就不靠谱。从目前大家的测试来看,ChatGPT对古诗词的深度学习不够,对于人类的情感也还没有找到一个较好的方法,所以想跟ChatGPT聊一聊表达人类情感的古诗词,基本是鸡同鸭讲。



AI在病理诊断、药物研发方面都有很大的运用前景,对医学的帮助到底有多大?

ChatGPT使用的人工智能(AI)是自然语言处理,所以适用于聊天。在医学数据的分析中,也需要使用到自然语言处理,可以对患者的病历进行整理,从而更好地从真实世界的数据中找到规律。

医学数据还有很大一部分是影像学数据,医生依据于这类数据的诊断,多少会有一些主观意识,也就是容易发生误判。 在这个方面,人工智能有较大的优势,不但对图像的识别更敏感,而且可以通过深度学习,发现人眼不能观察到的相关性。

比如说,对于鼻咽癌,目前通常是根据病理期来判断患者的疾病进展风险。广州中山大学医院的一项研究表明,通过大数据对核磁共振图像 (MRI)数据的深度学习所建立的模型,能够更好地预测鼻咽癌患者疾病进展的风险。当然,如果将二者结合,准确性提高得更多[2]。2020年,一项英国的研究结果表明,在对AI算法改进之后,使用AI进行疾病诊断的能力得到了大幅提高,准确性优于大多数参加研究的医生(75%)[3]。

在药物研发方面,AI也发挥着越来越多的作用。 比如AlphaFold根据一个蛋白的序列,就可以比较准确地预测其三维结构。AlphaFold能做到这一步,也是基于对目前蛋白结构的深度学习。在小分子药物研发方面,AI深度学习能加快药物的筛选速度,AI算法也能对先导化合物的成药性和可开发性进行评估,选择更优、更容易成功的项目推进。

由于机器一直在深度学习,AI技术一直在进步,因此很多人认为,假以时日,AI一定会取代医生,成为疾病诊断、治疗的主角。但这属于过于乐观的期望!即便有AI主导的疾病诊断、治疗时代,目前在世的人几乎都不可能等到这个时代的来临。

不过,因为AI技术的进步,医生做出诊断的速度和准确性可以大大提高。301医院基于AI深度学习,开发了一个胃部病理辅助诊断系统,灵敏度接近100%,特异性达到80.6%。2022年的研究结果表明,在使用这个人工智能辅助系统之后,病理医生诊断胃癌的灵敏度显著提高,成功率从82.75%提高到了90.63%,同时查看病理切片的时间也显著下降,花在每张片子上的时间,从26.37秒下降到22.68秒[4]。 目前的癌症治疗进入了靶向治疗、免疫治疗时代,对病理切片进行免疫组化染色检查的要求也增加了,病理医生的任务越来越繁重。

作为一个工具,AI不但提高了医生诊断的准确性,而且还让医生的诊断速度提高了,在较短的时间内获得更准确的诊断!从这个角度看,AI并不是要取代医生,而是要解放医生。

作为智能聊天的工具,ChatGPT也可以把医生解放出来,可以使用ChatGPT来给患者进行简单的科普,不需要把宝贵的时间花在解释最简单的问题上,集中精力解决最重要的问题。

但是,C hatGPT也留给了我们一个重要的问题:AI可以深度学习,一直在进步; 一般的吃瓜群众,能真正从与ChatGPT的聊天中学到点什么,能获得进步吗? 还是仅仅将ChatGPT当作一个聊天、娱乐的工具?

Source



ChatGPT多聪明?实测能通过名校商学院、法学院考试

世界新闻网

01/29/2023

ChatGPT会通过大量网络数据分析判断,生成对用户提问的回应,尽管它因为反应敏捷及言之有物而爆红,但也引起传播错误资讯或加深偏见的担忧。(美联社)

人工智能(AI)聊天机器人程序ChatGPT推出后掀起风潮,引发全球学术界担忧这种AI工具会否成为学生的作弊利器,最新的实测显示,ChatGPT聪明到足以通过美国大学商业及法律考试,不过成绩没有特别高。

美国媒体CNN报导,为了测试ChatGPT生成答案的能力,宾州大学华顿商学院及明尼苏达大学的教授已展开实测;前者是常春藤名校,后者拥有「公立常春藤」的美誉。

ChatGPT完成了95项选择题和12项申论题后,在明尼苏达大学法学院四门学科的考试中拿到C+水准,勉强及格,在宾州大学华顿商学院考试中表现较好,获得B至B-的成绩。



宾州大学华顿商学院教授特威斯(Christian Terwiesch)指出,ChatGPT在回答基本营运管理题及流程分析题上「表现杰出」,但在更高端的考题上面临困难,还犯了数学上的低级错误。

明尼苏达大学法学教授乔恩·崔(Jon Choi)则说,ChatGPT在最为经典的法律考题上卡关,例如发现潜在法律问题及将法规适用于案件的深入分析,但它可能「非常有助于打草稿」,供学生微调作答。

两位教授都认为,人们未来很可能与AI携手合作,AI有望成为通用辅助工具,但也不约而同表明,当前限制使用ChatGPT有其必要性,学生如何使用这类AI工具,短期内仍存有疑虑。

特威斯表示:「毕竟,颁给医学士一个学位时,你会希望他们熟知医学,而不是如何使用机器人。对于其他技能认证亦然,包括法律和商业。」

纽约市和西雅图公立学校近日已开第一枪,宣布禁止师生校园网络及设备上使用ChatGPT,避免作弊歪风盛行。

Source