从硅谷银行到ChatGPT,危机前夜还是革命时刻?

从硅谷银行到ChatGPT,危机前夜还是革命时刻? 经济观察报 3/29/2023 2023年3月,确实看起来像是一个历史性时刻。一面是从全球金融从业者们到业界学者们均忧心忡忡于硅谷银行是否意味着科创公司的泡沫破裂;但另一面,春节前几个月还深陷裁员、亏损、倒闭阴霾的全球科技圈,整个三月都在为了ChatGPT的惊人表现而欢呼“下一个时代来了”。 截止目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。 导读 壹  ||  包括诸多中国科创公司在内的全球创业公司之所以倾向于选择硅谷银行,是因为其有别于传统银行风控机制的投贷联动模式。 贰  ||  下一个支撑科创公司发展的究竟是新一个硅谷银行,还是以微软谷歌为代表的产业资本,甚至会不会是包括比特币、区块链在内的新技术手段,他们的出现会不会彻底使得创业公司和传统银行彻底“脱钩”?如今来看,一切都还没有答案。 一只南美洲亚马逊河流域热带雨林中的蝴蝶扇动翅膀,可以在两周以后引起美国得克萨斯州的一场龙卷风。 如今,这一效应再一次在这一次席卷全球的银行业危机中得到印证。当美国西海岸的硅谷银行暴雷风波未平之际,远在欧洲的瑞士银行业第二大巨头、在全球资本圈声名显赫的瑞信“接棒”:在其最新披露的年报中,瑞信称2021和2022财年的报告程存在“重大缺陷”,未能在财报中设计和维持有效的风险评估。 不过,也就短短一礼拜时间,面对瑞信危机,相比硅谷银行时险些耽误发工资的窘迫,后来的市场反馈显然要平静的多。而随着时间的流逝,曾经被认为是金融海啸前夜的危机,到现在似乎也并未到来,末日博士预测的“大而不能倒”的瑞信将引发的多米诺骨牌坍塌也并未出现。 这种变化,全球政府的接连出手固然打下了信心的底座,但许多人可能忽略了这种淡定背后另一个层面的信心抚慰——如果站在金融的视角来看,硅谷银行和瑞士信贷背后的科技创业公司群体似乎已经站在泡沫一触即破的悬崖之上;但如果站在科技的视角来看,他们似乎已经穿越了2008年的恐慌、进而已经站在2009年的新起点上:ChatGPT4.0的发布,在全球点燃了人工智能的熊熊希望之火,多年之后微软再一次站在了浪潮之巅,比尔盖茨曾经被乔布斯掩盖的光环再度闪亮,预言家说,这将是新的“iPhone时刻”。 历史总是相似,但历史绝不会是重复。我们当下究竟处于金融危机的前夜,还是新技术革命的转折点? 01 投贷联动 对于系统性金融风险究竟是否会发生,分析师们的观点不尽相同。 作为全美第 16 大银行,硅谷银行是专注服务于初创企业以及 …

千名科技专家呼吁暂停大型AI研究

千名科技专家呼吁暂停大型AI研究 凤凰网 3/29/2023 当全社会都在为AI的进化而欢呼雀跃,全新的、意想不到的风险可能也正在悄悄酝酿。 3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。 该机构在信中提到: 我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。 人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。 截止目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。 值得一提的是,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。 那么ChatGPT是如何看待公开信中AI对人类社会的影响?华尔街见闻专门询问了ChatGPT 3.5,其表示随着人工智能技术的不断发展和普及,人工智能可能对社会和人类造成的影响将越来越大。这封公开信提出的呼吁和建议,应该被视为引起更广泛和深入讨论的起点和参考,而不是一个终点或解决方案。 以下是公开信原文: 正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。 现在,人工智能在一般任务上变得与人类有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。 因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。 人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统是安全的。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。 …