文章标签:关键词:AI洗礼,科技行业,应激反应。
出品 | 虎嗅科技组
作者 | 陈伊凡 齐健
头图 | 电影《华尔街之狼》
在经历了半年人工智能的培训之后,也许很难找到一个更为贴切的词语来描述当今科技领域中每个人所处的状态——紧张、刺激以及压力。
“应激反应”, 是指生物体在遭遇外部环境压力或威胁时,为了维持身体的稳态而产生的一系列反应。它是生物为了适应环境、确保生存所产生的一种自然反应。这种反应可以是短暂的,也可以是长期的。
在7月26日的声明中,OpenAI官方推特宣布,其安卓版的ChatGPT已在美國、印度、孟加拉國以及巴西等国家陆续上架,並計劃在短期内進一步擴大至其他國家。隨著ChatGPT逐步扩寬用戶群體並提升使用黏性,生成式AI的趨勢不斷升温,相關應用與技術也隨之受到關注。
在2023年7月初的上海 WAIC 世界人工智能大会上,一位技术专家正在展览馆内积极寻找适合大模型训练的国产芯片解决方案。她的目标是找到一种具有高性价比的国内芯片,以便为大模型的训练提供支持。
“我们有1000张A100,但完全不够。”她告诉虎嗅。
作为英伟达旗下的一款顶级GPU,A100不仅为ChatGPT提供了稳固的硬件基础,同时也是众多高性能模型训练的关键设备。据公开数据显示,在训练GPT系列模型的过程中,OpenAI所依赖的英伟达GPU数量达到了约2.5万个。因此,对于那些希望打造大型模型的人来说,评估自己能够获取到多少台A100显卡,几乎已经成为行业内的通用做法。
哪里有GPU?哪里有便宜算力?这只是2023WAIC大会上众多问题的缩影。
过去半年里所有被“应激”到的人,几乎都渴望能够在这场“盛会”中找到更多关于AI的答案。
2023WAIC现场
在WAIC大会上,一位来自芯片展览商的技术人员向虎嗅透露,他们的展台吸引了众多产品经理前来造访。这些产品经理希望能够借此机会,为公司的大模型业务寻求产品的定义和方向。
5月28日在中关村论坛上,中国科学技术信息研究所发布的《中国人工智能大模型地图研究报告》显示,截至5月底,中国10亿级参数规模以上的大模型发布了79个。在此后的两个月里,又有阿里云的通义万相、华为云的盘古3.0、有道“子曰”等一系列AI大模型发布,据不完全统计目前国内的AI大模型已超过100个。
近期,我国各大企业纷纷推出自家的AI大模型,这一现象成为了行业应对“应激反应”的生动写照。这种紧张情绪正在向整个行业传递,影响到了从互联网巨头CEO到AI研究机构研究员,从创投基金合伙人到AI公司创始人,还包括许多AI相关的法律专业人士以及负责数据和网络安全监管的部门。
对行业之外的人而言,这可能只是短暂的狂欢,但在如今,又有多少人敢说自己置身AI之外。
AI正在开启一个新时代,一切都值得用大模型重塑一遍。越来越多的人开始思考技术扩散之后的结果。
资金涌入,飞轮已现
ChatGPT诞生的一个月内,出门问问创始人李志飞两赴硅谷,逢人必谈大模型,在与虎嗅交谈时,李志飞直言这是他最后一次“All in”。
在2012年,李志飞先生创立了出门问问,这是一家人工智能公司,其主要的核心技术是语音交互和软硬件的融合。这家公司在我国人工智能行业的兴起与沉寂中,见证了两次波澜壮阔的变革。曾经有一段时间,出门问问的估值甚至达到了独角兽的水平,然而,随着市场的变化,它也经历了一段低潮时期。直到2022年,ChatGPT的出现,才为人工智能行业带来了新的突破,为这个长期沉寂的领域注入了新的活力。
在一级市场,“热钱正在涌进来。”
在过去的半年里,业界普遍达成了一个共识,那就是AI大模型的发展将进入一个全新的阶段。奇绩论坛的创始人陆奇指出,AI大模型就像一个正在运转的“飞轮”,它将推动整个行业向更高的目标前进。而这个“飞轮”已经开始運转,而其中最重要的动力源,正是资本。
7月初,商业信息平台Crunchbase发布的数据显示,分类为AI的公司在2023年上半年筹集了250亿美元,占全球融资的18%。虽然这一数字与2022年上半年的290亿美元相比有所下降,但2023年上半年全球各行业的总融资额比2022年同比下降了51%,由此可见AI领域的融资额在全球融资总额中的占比,几乎提高了一倍。Crunchbase在报告中这样写到:“如果没有ChatGPT引发的人工智能热潮,2023年的融资额会更低。”
到目前为止,2023年AI行业最大的一笔融资,就是微软在1月对OpenAI投资的100亿美元。
虎嗅根据公开数据统计,在美国的大模型公司创业中,Inflection AI或将成为人工智能领域融资量仅次于Open AI的第二大初创公司,在其之后分别是,Anthropic(15亿美元),Cohere(4.45亿美元)、Adept(4.15亿美元)、Runway(1.955亿美元)、Character.ai(1.5亿美元)和Stability AI(约1亿美元)。
在中国,2023年上半年国内人工智能行业的公开投融资事件共有456起。而这项统计在2018年-2022年的5年间分别是731、526、353、631和648。
上半年国内人工智能行业公开投融资事件
另一个引发飞轮的事件则是ChatGPT放出API接口。当OpenAI在3月首次开放ChatGPT的API接口时,AI行业内外对此几乎形成共识:行业要变天了。随着更多应用接入大模型,AI之上正在长出更加繁茂的森林。
“做大模型和做应用本身就应该分开”,投资人的嗅觉总是敏锐的,在源码资本执行董事陈润泽看来,AI是一个与半导体分工一样的逻辑,AI大模型的繁荣之后,很快就会看到AI应用的一波繁荣。
今年年初,陈润泽与同事一起前往硅谷时发现,硅谷声名显赫的创业孵化器Y Combinator(OpenAI首席执行官Sam Altman曾在这家孵化器任总裁多年),有一半的项目都转型做生成式AI了。对于大模型的热情,丝毫不逊于如今大洋彼岸的中国。
不过,他也发现在美国无论是资本还是创业者,相比于大模型创业,更看好基于大模型所做的生态应用,毕竟在这个赛道,已经跑出了诸如OpenAI这样的公司,与此同时,美国有很强的ToB应用生态土壤,因此更多的美国公司正在尝试基于大模型的生态做企业应用。
陈润泽的观察正在得到证实,大模型服务平台OpenCSG联合创始人陈冉告诉虎嗅,如今,美国湾区90%以上的公司已经把大模型能力用到方方面面。至于中国,陈冉认为,在年底之前很多的客户也都会用起来。
今年3月左右,陈润泽和团队开始尝试在国内寻找基于大模型做应用的公司,但他发现这样的公司很少。大量资本进入了人工智能行业,但如果追溯这些资金的流向会发现,更多的钱仍集中在头部几家公司中。
“即便是现在,10个与生成式AI相关的项目,能投1个-2个也已经是很不容易了。”除了源码资本,虎嗅也与多位硬科技投资人交流,他们都表示,虽然项目看得多,但真正靠谱的凤毛麟角。
应用端的这种态度,在很多业内人士看来,已是常态。
思必驰联合创始人俞凯认为,表面看似热闹的赛道,其实更多的是名义上的竞争,结果无非两种情况:“一种是为了融钱,纯资本导向;另一种是做全域通用大模型的公司,确实需要喊,不喊的话别人不会知道。”
国内的一些统计数据也正在说明这个问题,根据第三方机构烯牛数据统计,截至2023年7月,国内有AIGC公司242家,1月以来AIGC赛道融资事件71起。而AI大模型赛道上的公司有67家,从ChatGPT发布到现在,融资事件只有21起。
AIGC赛道和AI大模型赛道自ChatGPT发布后的融资事件|数据来源:烯牛数据
“现在国内AI市场上,好的标的太少了。”一位投资人如此告诉虎嗅——好项目太贵,便宜的又不靠谱。虽然目前国内发布的AI大模型数量过百,但国内一众大模型公司中,获得巨额融资的并不多,甚至屈指可数。
很多AI投资到最后都变成了投人——曾经的独角兽公司创始人、互联网大佬、具备大模型相关创业经验的人等。
国内AI大模型相关公司部分统计
今年的一众AI明星项目中,智谱AI、聆心智能、深言科技和面壁智能,都是清华实验室孵化的公司。深言科技、面壁智能两家公司均成立于2022年,且有AI行业内知名学者的技术背书。
比这几家清华系AI公司成立时间更短的是一些互联网行业大佬创立的AI公司,光年之外、百川智能和零一万物均成立于这波大模型热潮开始之后。
美团联合创始人王慧文在2023年年初成立的光年之外,一度融资5000万美元,已是彼时中国大模型行业为数不多的融资案例。与智谱AI、西湖心辰这类已有大模型为基础的公司不同,光年之外是2023年2月开始,从零开始做大模型,其难度可想而知,6月29日,美团公告宣布收购光年之外的全部权益,总代价包括现金约2.33亿美元(合人民币16.7亿元)、债务承担约3.67亿元、及现金1元。
“起码要有自然语言处理背景的人,有一定大模型训练实操经验的人,以及数据处理、大规模算力集群等方面的专业人才。如果同时还要做应用,那应该还要有对应领域的产品经理和运营人才。”陈润泽如此描述一个大模型核心团队的标配。
大公司的AI赌注
过去半年中,老牌互联网大厂们的AI新闻漫天纷飞。对AI大模型的投入,看似是在追热点,但如百度、阿里、华为这样的大公司,在AI上投下的赌注,显然不是跟风。
巨头们在AI上的押注很早就已开始,对这些公司来说,AI并不是一个新鲜的话题。虎嗅根据企查查数据不完全统计,各大厂在2018年开始就对人工智能相关的企业有不同程度的投资,从投资企业来看,大多是人工智能应用方面的企业,尽管涉及到一部分AI芯片企业,但是数量并不多,涉及大模型方面的企业几乎没有,并且大厂所投资的人工智能相关的公司大多与其业务息息相关。
三家互联网大厂投资AI相关公司情况|数据来源:企查查
2017年阿里达摩院成立,研究对象涵盖机器智能、智联网、金融科技等多个产业领域,将人工智能的能力赋能到阿里的各个业务线中。2018年,百度提出了“All in AI”的战略。
有所不同的是,生成式AI的出现,似乎是一个转折点。对于拥有数据、算力和算法资源优势的科技巨头来说,人工智能对他们已经不光是赋能场景,而是需要承担基础设施的角色,毕竟,生成式AI的出现,意味着针对人工智能产业的分工已经开始。
以百度、阿里、华为、腾讯,四家云供应商为代表的大厂,虽然都宣布了各自的AI策略,但明显各有侧重。
在过去的半年时间里,巨头纷纷发布自己的大模型产品。对于百度、阿里这样的大厂来说,他们入局大模型的时间并不算晚,基本在2019年。
百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。阿里的通义千问大模型也是始于2019年。除了百度和阿里的通用大模型,6月19日,腾讯云发布了行业大模型的研发进展。7月7日,华为云发布了盘古3.0行业大模型产品。
这些侧重也与各家的整体业务,云战略,以及在AI市场里的长期布局有所呼应。
百度的主线业务盈利能力在过去的5年中,出现了较大波动。百度很早就看到了基于搜索的广告业务在国内市场中的问题,对此,百度选择了大力投入AI技术寻找新机会。这些年来,百度不仅邀请过吴恩达、陆奇等业界大佬出任高管,在自动驾驶上投入热情也远超其他大厂。如此关注AI的百度,势必会在这波大模型之争里重手投注。
阿里对通用大模型同样表现出了极大的热情。一直以来,阿里云一直被寄予厚望,阿里希望走通技术路线创造集团的第二增长曲线。在电商业务竞争日趋激烈,市场增长放缓的大环境下,依云而生的AI产业新机遇,无疑是阿里云在国内云市场上再发力的好机会。
相比百度和阿里,腾讯云在大模型方面选择了优先行业大模型,而华为云则公开表示只会关注行业大模型。
对于腾讯来说,近年来主营业务增长稳中向好。在通用大模型的前路尚不明朗的阶段,腾讯对于AI大模型的投注相对谨慎。马化腾在此前的财报电话会上谈及大模型时曾表示:“腾讯并不急于把半成品拿出来展示,关键还是要把底层的算法、算力和数据扎扎实实做好,而且更关键的是场景落地。”
另一方面,从腾讯集团的角度看,腾讯目前有4所AI Lab,去年也发布了万亿参数的混元大模型,腾讯云投身行业大模型方面的动作,更像是一种“不把鸡蛋放在同一个篮子里”的投注策略。
对于华为来说,一直以来都是重手投注研发,过去10年里华为在研发方面的总投入超过9000亿元。但由于手机业务遇到发展障碍,华为在很多技术研发上的整体策略或也正在面临调整。
一方面手机业务是华为C端技术最大的出口,如果手机业务不为通用大模型买单的话,那么华为研发通用大模型的动力就会明显下降。而对于华为来说,把赌注押在能快速落地变现的行业大模型,似乎是这场AI博弈当中的最优解。正如华为云CEO张平安所说“华为没有时间作诗”。
不过,对科技巨头来说,无论赌注多大,只要能赌对,就能够先一步抢占基础设施的市场份额,从而在人工智能时代获得话语权。
拿着锤子找钉子
对于商业公司来说,所有的决策仍然落到经济账上。
即便是一笔不小的投入,越来越多有远见的公司创始人也意识到,这是一项未来必须要做的事情,即便前期投入可能完全看不到回报。
AI大模型的研发需要一笔不小的投入,但越来越多企业创始人、投资人都认为,这是一项”必要投入”,即便眼下完全看不到回报。
由此,很多在上一波AI浪潮下诞生的人工智能公司,都在沉寂良久之后看到了新的曙光。
“3年前,大家都说GPT-3是通向通用人工智能的可能性。”李志飞在2020年就开始带着一班人马研究GPT-3,彼时出门问问正处在一个发展的转折点,他们希望探索新业务,但经过一段时间的研究之后,李志飞的大模型项目中止了,原因之一是当时模型不够大,另外就是找不到商业落地场景。
不过,2022年底ChatGPT问世以后,李志飞仿佛被扎了一剂强心针,因为他和所有人一样,看到了大模型的新机会。今年4月,出门问问发布了自研的大模型产品——序列猴子。眼下,他们准备拿着新发布的大模型“序列猴子”冲刺港交所,出门问问已在5月末递交了招股书。
另一家老牌AI公司也在跟进,去年7月,思必驰向科创板递交了IPO申请,在今年5月被上市审核委员会否决。
俞凯坦言,就连OpenAI,在GPT2阶段也是用微软的V100训练了将近一年的时间,算力和A100差好几个量级。思必驰在大模型前期积累阶段,也是用更为经济的卡做训练。当然,这需要时间作为代价。
相比于自研大模型,一些应用型公司有自己的选择。
一家在线教育公司的总裁张望(化名)告诉虎嗅,过去半年,他们在大模型应用场景的探索上不遗余力,但他们很快发现在落地过程中存在诸多问题,例如成本与投入。这家公司的研发团队有50人-60人,开始做大模型研究以来,他们扩充了研发团队,新招了一些大模型方面的人才,张望说,偏底层模型方面的人才很贵。
张望从未想过从头开发大模型,考虑到数据安全和模型稳定性等问题,他也不打算直接接入API做应用。他们的做法是参考开源大模型,用自己的数据做训练。这也是很多应用公司目前的做法——在大模型之上,用自己的数据做一个行业小模型。张望他们从70亿参数的模型开始,做到100亿,现在在尝试300亿的模型。但他们也发现,随着数据量增多 ,大模型训练会出现的情况是,可能新版本不如上一个版本,就要对参数逐一调整,“这也是必须要走的弯路。”张望说。
张望告诉虎嗅,他们对于研发团队的要求就是——基于公司的业务探索AI大模型场景。
这是一种拿着“锤子”找“钉子”的方法,但并不容易。
“目前最大的难题是找到合适的场景。其实有很多场景,即便用了AI,效果也提升不了太多。”张望说,例如在上课的场景中,可以用AI大模型赋能一些交互模式,包括提醒学员上课功能、回答问题和打标签等,但他们试用了AI大模型之后,发现精准度不行,理解能力和输出能力并不理想。张望的团队尝试过一段时间后,决定在这个场景里暂时放弃AI。
小鹅通联合创始人兼COO樊晓星告诉虎嗅,今年4月,当越来越多的应用基于生成式AI诞生时,小鹅通看到了这个技术背后的潜力,“例如MidJourney,生成式AI对于设计图像生成方面的提效确实有目共睹。”樊晓星她们在内部专门组织了AI研究的业务线,寻找与自身业务相关的落地案例。
樊晓星说,在将大模型接入业务的过程中,她所考虑的就是成本和效率,“大模型的投入成本还是蛮高的。”她说。
互联网行业的“钉子”算是好找的,AI落地真正的难点还是在工业、制造这样的实体产业。
俞凯告诉虎嗅,这一波AI浪潮仍然是螺旋式上升、波浪式前进,在产业落地上面的矛盾一点都没变化,只是换了一个套壳而已。所以从这个意义上看,这两次AI浪潮的规律是相同的,最好的办法就是学习历史——“上一波AI浪潮的教训,这次就别再犯了。”
虽然很多厂商在AI大模型的落地方面都喊出了“产业先行”的口号,但很多实体产业的场景真的很难与目前的AI大模型相匹配。比如在一些工业检测场景应用的AI视觉检测系统,即便对AI模型的需求没有高到10亿参数的量级,但初期的训练数据仍然捉襟见肘。
以一个简单的风电巡检场景为例,一个风场的巡检量达到七万台次,但同样的裂痕数据,可能只会出现一次,机器可以学习的数据量是远远不够的。扩博智能风电硬件产品总监柯亮告诉虎嗅,目前风机叶片的巡检机器人还做不到100%的精确分析叶片裂痕,因为可供训练和分析的数据量太小了,要形成可靠的全自动巡检和识别,还需要大量的数据积累和人工分析。
不过,在工业数据积累较好的场景中,AI大模型已经可以做到辅助管理复杂的三维模型零件库了。国内某飞机制造企业的零件库就已经落地了一款基于第四范式“式说”大模型的零件库辅助工具。可以在十万余个三维建模零件中,通过自然语言实现三维模型搜索,以三维模型搜三维模型,甚至还能完成三维模型的自动装配。这些功能,在很多卡住制造业脖子的CAD、CAE工具中都需要经过多步操作才能完成。
今天的大模型和几年前的AI一样面临落地难题,一样要拿着锤子找钉子。有人乐观地相信,今天的锤子和过去完全不一样了,但到了真金白银地为AI付费时,结果却有些不同。
彭博社在7月30日发布的Markets Live Pulse调查显示,在514名受调投资者中,约77%的人计划在未来六个月内增加或保持对科技股的投资,且只有不到10%的投资者认为科技行业面临严重的泡沫危机。然而这些看好科技行业发展的投资者中,却只有一半人对AI技术持开放的接受态度。
50.2%的受访者表示,目前还不打算为购买AI工具付费,多数投资公司也没有计划将AI大范围应用到交易或投资中。
卖铲子的人
“如果你在1848年的淘金热潮里去加州淘金,一大堆人会死掉,但卖勺子和铲子的人,永远可以赚钱。”陆奇在一次演讲时说。
高峰(化名)想当这样的“卖铲子的人”,准确地说,是能够“在中国卖好铲子的人”。
作为一名芯片研究者,高峰大部分科研时间都在AI芯片上。过去一两个月,他感到了一种急迫性——他想做一家基于RISC-V架构的CPU公司。在一家茶室,高峰向虎嗅描绘了未来的图景。
然而,要从头开始做AI芯片,无论是在芯片界,还是在科技圈,都像是一个“天方夜谭”。
当AI大模型的飞轮飞速启动时,背后的算力逐渐开始跟不上这一赛道中玩家的步伐了。暴涨的算力需求,使英伟达成了最大的赢家。但GPU并非解决算力的全部。CPU、GPU,以及各种创新的AI芯片,组成了大模型的主要算力提供中心。
“你可以把CPU比喻为市区,GPU就是开发的郊区。”高峰说,CPU和AI芯片之间,需要通过一个叫做PCIE的通道连接,数据传给AI芯片,然后AI芯片再把数据回传给CPU。如果大模型的数据量变大,一条通道就会变得拥挤,速度就上不去,因此需要拓宽这条路,而只有CPU能够决定这条通路的宽窄,需要设置几车道。
这意味着,中国在大模型上,即便突破了AI芯片,仍有最关键的CPU难以破局。哪怕是在AI训练上,越来越多的任务可以被指派给GPU承担,但CPU依旧是最关键的“管理者”角色。
2023WAIC大模型展区展出的部分国产芯片
自1971年英特尔造出世界上第一块CPU至今50余年,在民用服务器、PC市场,早已是英特尔和AMD的天下,英特尔更是建立起涵盖知识产权、技术积累、规模成本、软件生态于一体的整个商业模式壁垒,且这种壁垒从未衰退。
要完全抛开X86架构和ARM架构,基于一个全新架构研发完全自主的CPU芯片,可以说是“九十九死一生”,基于MIPS指令集的龙芯,在这条路上走了20多年,更不用说是 RISC-V这样未被充分开垦和验证过的开源架构。
指令集,就像一块块土地,基于指令集开发芯片,就相当于是买地盖房子。X86的架构是闭源的,只允许Intel生态的芯片,ARM的架构需要支付IP授权费,而RISC-V是免费的开源架构。
产业界和学术界已经看到了这样的机会。
2010年,加州伯克利两位教授的研究团队从零开始开发了一个全新的指令集,就是RISC-V,这个指令集完全开源,他们认为CPU的指令集不应该属于任何一家公司。
“RISC-V或许是中国CPU的一道曙光。”高峰说。2018年,他在院所孵化了一家AI芯片公司,彼时他表示,自己不想错过 AI浪潮发展的机会,这一次,他依然想抓住,而这个切入点,就是RISC-V。在大模型以及如今国产替代的时代,这个需求显得更为紧迫,毕竟,极端地考虑一下,如果有一天,中国公司用不了A100了,又该怎么办。
“如果要取代ARM和X86,RISC-V的CPU需要性能更强,也需要和Linux上做商业操作系统的人参与到代码的开发中。”高峰说。
高峰不是第一个意识到这个机会的人,一位芯片行业投资人告诉虎嗅,他曾与一家芯片创业公司创始人聊起,用RISC-V的架构去做GPU的机会。如今,在中国已有一些基于RISC-V架构做GPU的公司,但生态依旧是他们面临的最大的问题。
“Linux已经示范了这条路是可以走通的。”高峰说,在Linux这套开源操作系统中,诞生了红帽这样的开源公司,如今许多云服务都建立在Linux系统上。“需要足够多的开发者。”高峰提出了一个方法。这条路很难,但走通了,将是一条光明的道路。
飞轮转得太快了
大模型的“应激反应”下,感到急迫的不光是高峰。
国内某AI大模型公司联创告诉虎嗅,今年初他们也曾短暂上线过一款对话大模型,但随着ChatGPT的升温,有关部门提高了对大模型安全性的重视,并对他们提出了很多整改要求。
“在没有特别明确的监管政策出来之前,我们不会轻易把产品开放给普通用户,主要还是To B的逻辑。”左手医生CEO张超认为,在《管理办法》出台之前,贸然将生成式AI产品开放给C端用户,风险很大。“现阶段,我们一方面在持续迭代优化,另外一方面也在持续关注政策、法规,保证技术的安全性。”
“生成式AI的监管办法还不明确,大模型公司的产品和服务普遍很低调。”一家数字化技术供应商,在6月发布了一款基于某云厂商通用大模型开发的应用产品,在发布会上,该公司技术负责人向虎嗅表示,他们被这家云厂商要求严格保密,如果透露使用了谁的大模型,他们会被视为违约。而对于为何要对案例保密,这位负责人分析,可能很大一部分原因是要规避监管风险。
在全球都对AI提高警惕的当下,任何市场都不能接受监管的“真空期”。
7月13日,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称“《管理办法》”),该办法自2023年8月15日起施行。
“《管理办法》出台后,政策会从问题导向转为目标导向发展就是我们的目标。”观韬中茂律师事务所合伙人王渝伟认为,新规是重“疏”而不重“堵”。
浏览美国的风险管理库,是王渝伟每天必需的功课,“我们正在为利用GPT等大模型进行细分行业的商业应用提供风控合规的方案,建立一套合规治理框架。”王渝伟说。
美国的AI巨头们正排着队向国会表忠心。7月21日,谷歌、OpenAI、微软、Meta、亚马逊、AI创业公司Inflection、Anthropic,七家最具影响力的美国AI公司,就在白宫签署了一份自愿承诺。保证在向公众发布AI系统前允许独立安全专家测试他们的系统。并与政府和学术界分享有关他们系统安全的数据。他们还将开发系统,当图像、视频或文本是由AI生成时向公众发出警告,采用的方法是“加水印”。
7家美国AI巨头排代表在白宫签署AI承诺
此前,美国国会听证会上,OpenAI的创始人山姆·奥特曼表示,需要为人工智能模型创建一套安全标准,包括评估其危险能力。例如,模型必须通过某些安全测试,例如它们是否可以“自我复制”和“渗透到野外”。
或许山姆·奥特曼自身也没有想到,AI的飞轮会转得这么快,甚至有失控的风险。
“我们一开始还没有意识到这件事情这么紧迫。”王渝伟说,直到上门来咨询的公司创始人越来越多。他感到,这一次的人工智能浪潮正在发生与过去截然不同的变化。
今年年初,一家最早接入大模型的文生图公司找到王渝伟,这家公司希望把自己的业务引入中国,因此,他们想了解这方面的数据合规业务。紧接着,王渝伟发现,这类的咨询越来越多,更明显的变化是,前来咨询的不再是公司的法务,而是创始人。“生成式AI的出现,原有的监管逻辑已经很难适用。”王渝伟说。
从事大数据法律工作多年的王渝伟发现,生成式AI与上一波AI浪潮正在呈现更加底层的变化。例如,上一次的AI更多是基于算法进行推荐,还有就是一些人脸识别,都是针对一个场景,针对一些小模型,在具体应用场景当中进行训练,涉及的法律问题不外乎知识产权、隐私保护的问题。而在这个生成式AI生态之上的不同角色,例如提供底层大模型的公司,在大模型之上接入做应用的公司,存储数据的云厂商等,对应的监管都不尽相同。
目前大模型所带来的伴生风险已经有了共识,业界明白,商业化应用势必会放大这种风险,要想保持业务的连续性,就需要重视监管。
难点就是,“如何找到一条既能做好监管,又能不影响行业发展的路径。”王渝伟说。
结语
对于整个行业来说,在对技术加深探讨的同时,也正在引发更为深远的思考。
在AI逐渐占据科技产业的主导地位之时,要如何确保技术的公正、公平和透明性?当头部公司紧紧掌控技术和资金流向时,如何确保中小企业和初创公司不被边缘化?大模型的开发和应用蕴含巨大潜力,但盲目跟风是否会导致我们忽视其他创新技术?
“从短期来看AI大模型正在被严重高估。但从长期看,AI大模型被严重低估了。”
半年时间里,AI热浪翻涌。然而对于中国的创业公司和科技巨头来说,在热炒的市场氛围中,如何保持清醒的判断,做出长远的规划和投资,将是检验其真正实力和远见的关键。
(包校千对本文亦有贡献)
关键词:AI洗礼,科技行业,应激反应。