文章主题:关键词:Sam Altman, AI技术, 监管, OpenAI
来源:新智元(ID:AI_era)
Sam Altman也迎来「周受资时刻」了,但在国会山听证会上,他备受议员尊敬。OpenAI和政府一联合,他是要成为rulemaker、登顶硅谷之王了?
上次是周受资,这次,轮到了Sam Altman。
不过这一次,国会议员对他的态度截然不同——友好,耐心,做足了功课,虚心请教。
🌟【OpenAI领头人Sam Altman昨夜发声】💡美国国会之夜,AI巨头掌门人Sam Altman以一席证词震惊全场——他对人工智能(AI)潜在风险的深度剖析,引发关于AI立法的热议。🌍他呼吁立法者对研发尖端AI的企业进行严格的监管许可,确保技术的安全与公正使用。💼这不仅是科技行业的警钟,更是全球未来治理的重要议题。💡#AI监管# #政策讨论
🌟 Sam Altman, the master of startup leadership, effortlessly commands attention with his articulate and confident discourse. His presence exudes the authority that defines a CEO at the forefront of tech innovation, shaping the rules and guiding the future.平均每字蕴含力量,他的每一次发言都是科技界的权威宣言。🌍 SEO optimized: “Unleash the Power of Sam Altman: Tech Giant’s Visionary Leadership & Rule-Shaping”
🌟 Sam Altman, AI expert and wordsmith, asserts with unwavering conviction: “OpenAI stands firm in its commitment – no GPT-5 training within the next six months. 🚀” Emphasizing their integrity in the field, he ensures a clear path forward without any potential distractions. 💪♂️ #OpenAI #GPT5Update
🌟警惕!全球注意!AI潜在威胁,亟待我们共同面对!🔍强化监管与立法,至关重要🔥政府引领,刻不容缓,以确保AI的安全之路畅通无阻,防止潜在风险扩散。🛡️
为啥Altman对政府监管如此积极呢?
显然,只要成为规则制定者,就能在竞争中赢者通吃。
而对于在硅谷靠着「社牛」属性闯出一片天地的Altman,和政府打交道,简直轻松得如同探囊取物。
1
用AI生成的开场演讲
🌟🚀OpenAI,这个科技创新领域的耀眼新星,在成立短短8年的时间里,以其惊人的速度和影响力震撼全球,引领了一场前所未有的技术风暴。今年,它的崛起如同疾风骤雨,瞬间改变了科技行业的格局,让所有巨头都不得不紧急应对,ChatGPT的发布成为了这场内卷竞赛的导火索。🌍💻ChatGPT的横空出世,不仅引发了业界的热议和追捧,也对教育、工作乃至日常生活的方方面面产生了深远影响。它以强大的语言生成能力,打破了传统的人机交互模式,开启了智能服务的新纪元。💡💼OpenAI的成功并非偶然,其背后的科研实力和创新精神是驱动这场变革的关键。他们致力于研发真正有益于人类的科技,而非单纯追求商业利润,这种理念在当今科技高速发展的时代显得尤为珍贵。🤝🌍对于搜索引擎优化而言,关键词如”OpenAI崛起”、”ChatGPT内卷效应”、”科技创新引领者”等将有助于提升文章的相关性和可见度。同时,使用行业术语和未来趋势预测也能吸引目标读者的注意。📝🔍
这场全球AI军备竞赛,让不少专家警铃大作。
在这场备受瞩目的听证会上,参议院的各位议员展现出对OpenAI技术的深刻理解,而非一味指责其带来的复杂性。他们以一种审慎而尊重的姿态,聚焦于ChatGPT潜在规制的问题上,对Sam Atlman的专业洞见给予了高度的认可和赞赏。审议过程中洋溢着理性和专业精神,充分体现了他们的开放态度与对知识探索的敬意。
听证会一开始,参议员Richard Blumenthal使用了声音克隆软件复制自己的音色,让ChatGPT写了一段开场白,使用数小时的演讲训练了一个文本到语音生成器。
此举证明,国会「拥抱AI」的态度旗帜鲜明。
2
AI危险,请监管我们
这一场听证会上,立法者明显非常兴奋,与他们曾经对小扎和周受资步步紧逼的质疑形成了鲜明对比。
参议员们没有喋喋不休地谈论过去的错误,而是对AI可能带来的好处充满渴望。
而Altman开门见山地告诉参议院:AI技术可能会出错。
他表示,自己很担心人工智能行业对世界造成重大伤害(cause significant harm to the world)。
「如果AI技术出错,造成的后果不堪设想。我们需要对此发声:我们希望与政府合作,防止这种情况发生。」
「我们认为,政府的监管干预对于减轻日益强大的AI模型的风险,至关重要。比如,美国政府可以考虑将许可和测试的要求结合起来,以开发和发布超过能力阈值的AI模型。」
Altman表示,自己非常担心选举会受到AI生成内容的影响,因此在这方面需要有足够的监管。
对此,参议员Dick Durbin表示,大公司来到参议院「恳求我们的监管」,是很了不起的行为。
3
Altman提出三点方案
怎么监管?Altman早就替政府想好了。
在听证会上,他提出一个成体系的方案。
1. 成立一个新的政府机构,负责为大型 AI 模型颁发许可,撤销不符合标准的模型的许可。 而对于能力远达不到最先进的大模型的技术,他认为不需要使用这种许可监管制度。国会可以「定义能力阈值」,免除小型公司和研究人员可能遇到的监管负担,鼓励创新。 2. 为 AI 模型创建一套安全标准,包括对其危险能力的评估。 例如,模型必须通过安全测试,比如它们是否可以「自我复制」和「流出到监管之外」。 3. 要求独立专家对模型在各种指标上的表现进行独立审计。 当参议员问他是否愿意担任这个角色时,Altman说:我对目前的工作感到满意,不过他很愿意提供一个名单供国会挑选。
Altman说,因为AI模型可以「说服、操纵、影响一个人的行为、信仰」,甚至「创造新的生物制剂」,因此,非常需要许可。
对所有超过一定计算能力阈值的系统进行许可会更简单,但Altman表示,自己更愿意根据特定能力划定监管线。
那OpenAI自己的模型安不安全呢?
Altman一再表示,大家可以放心。
他说,GPT-4模型比其他任何类似模型做出的回应都会更有意、更真实,并且一定会拒绝有害的请求,因为GPT-4经过了广泛的预发布测试和审计。
「在发布任何新系统之前,OpenAI 会进行广泛的测试,聘请外部专家进行详细审查和独立审计,改进模型的行为,并实施强大的安全和监控系统。」
「在发布GPT-4之前,我们花了六个多月的时间进行广泛的评估、外部红队和危险能力测试。」
并且在上个月,ChatGPT的用户已经可以关闭聊天记录,防止自己的个人数据被用来训练AI模型了。
不过呢,也有眼尖的群众发现了「华点」,Altman的提议中,并没有涉及到公众热议的两点——
1. 要求AI模型为其训练数据公开来源。 2. 禁止AI模型使用受到知识产权保护的作品进行训练。
嗯,就是说,Altman非常巧妙地回避了这两个争议点。
Altman对于AI安全规则的提议,议员们大为赞许,并且偶尔会对他的证词表示感谢。参议员R-LA甚至向Altman抛出了橄榄枝,问他是否有意在国会创建的监管机构工作。
国会决心监管人工智能,早有前兆。本月初,Altman同谷歌、微软和英伟达的CEO一同在白宫会见了副总统Kamala Harris,讨论了负责任AI的发展。
而早在去年,白宫就曾提出「人工智能权利法案」,向业界提出各种要求,比如防止歧视。
类比原子弹,建议成立类似国际原子能机构的国际组织
参议员提出,把AI比作原子弹的说法。
而Altman参考世界各国政府监管核武器的做法,提出了组建一个类似于国际原子能机构的机构,来为该行业制定全球规则的想法。
OpenAI在未来六个月内不会训练GPT-5
在4月份Lex Fridman的第2轮访谈中,Sam Altman言之凿凿地说:「我们现在并没有训练GPT-5,目前只是在GPT-4的基础上进行更多的工作而已。」
这次听证会上,Altman更是直接承认,OpenAI在未来6个月内,没有训练可能成为GPT-5的新模型的计划。
而这应该意味着,谷歌将在今年晚些时候拥有其迄今为止最强大的人工智能系统——Project Gemini。
据说,Gemini专为存储和调度等未来创新而设计,不仅从一开始就是多模态的,而且在集成工具和API方面效率很高。目前正由新成立的Google Deepmind团队研发。
4
马库斯:OpenAI自称为了全人类,可数据不透明
纽约大学心理学和神经科学教授Gary Marcus也出现在了证人席上。
他的攻击性甚至比国会议员们还要强。
他对Sam Altman发出的提问,可谓「招招致命」。
OpenAI成立的宗旨不是造福全人类么,如今为什么跑去和微软结盟?
OpenAI不Open,GPT-4的训练数据不透明,到底是几个意思?
马库斯总结道:我们拥有前所未有的机会,但我们也面临着企业不负责任、广泛部署、缺乏适当监管和不可靠的可怕风险
在马库斯看来,Open和微软的行事都大有问题。
曾经微软的必应AI悉尼,表现出了一系列令人震惊的行为。
「悉尼的问题很大,如果是我,会马上把它从市场上撤下,但微软并没有。」
马库斯表示,这件事给自己敲响了警钟——即使是像OpenAI这样的非盈利组织,也可能被大公司买下,然后想做什么就做什么。
但现在,人们的观点和生活都在潜移默化地被AI塑造和改变,如果有人故意利用AI技术,用于不良的目的呢?
马库斯对此表示非常担心。
「如果让一种技术官僚和寡头政治相结合,那少数公司就可以影响人们的信仰,这是真正的风险所在……让少数玩家使用我们根本不知道的数据来做到这一点,这让我感到害怕」
Altman表示AI界并不存在垄断
针对一些常见的法律监管方面的问题,看得出来Altman早就成竹在胸,给各位参议员们安排得明明白白的。
参议员说,他对人工智能的「最大担忧」之一是「这种大规模的企业垄断」。
他举了 OpenAI 与科技巨头微软的合作为例。
Altman表示,他认为能够制造大模型的企业数量相对较少,反而可能会更加方便监管。
例如,大型的生成式 AI,只有少数公司能够制造,但是竞争一直是存在的。
给大模型建立法律责任
美国国会 1996 年通过的第 230 条促进了社交媒体的兴起,该条款保护网站免于对用户的帖子承担责任。
Altman认为:大模型现在没有办法受到230条的法律保护。应该制定新的法律保护大模型不会因为输出内容而承担法律责任。
巧妙回避最致命的问题
奥特曼最初回避了参议员提出的「AI可能造成最严重的后果」。
但在马库斯友好地提醒 Altman 没有回答问题后,这位参议员重复了他的问题。
Altman最终也没有正面回答这个问题。
他说,OpenAI 曾试图非常清楚人工智能的风险,这可能会以「很多不同的方式」对「世界造成重大伤害」。
他再次阐明。应对这个问题就是OpenAI成立的原因。「如果这项技术出了问题,它可能会大错特错。」
其实,在今年早些时候接受「StrictlyVC」采访时,Altman称人类灭绝是最坏的情况。
最终,就连马库斯似乎也对奥特曼软化了。
在听证会快结束时,坐在Altman旁边的马库斯说,「他在谈论恐惧时的诚意非常明显,这种诚意在透过电视屏幕是没法感受到的。」
5
老练的科技领袖
跟小扎相比,Altman此次听证会的表现十分老练,想来他作为社牛,对与政客们打交道早已游刃有余。毕竟,Altman可是多年前就曾考虑过竞选加州州长的人物。
而且对比去听证会前因为数据隐私和虚拟货币已经「捅了大篓子”的小扎,Altman背后的OpenAI不但几乎没有受到任何公众的指责,还是目前AI领域「万物竟发」局面的最主要开创者。
面对一上来就示好,呼吁对AI进行监管的Altman,这些几乎都是「技术素人」的立法者自然在这位「权威」面前会显得温柔和蔼很多。
所以同样场合之下,Altman身上的压力与小扎相比完全不是一个数量级。
大模型的商业模式
有参议院提出这种担心,如果像互联网社交平台一样,AI产品如果采用广告为主的商业模式,会让操纵性的产品设计和令人上瘾的算法被滥用。
Altman说自己「非常喜欢」订阅模式。
但是OpenAI 确实考虑过在 ChatGPT 免费版中投放广告来从其免费用户那里赚钱的可能性。
参考资料:
https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/
https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai说明:发布并不意味着我们赞同其观点,只为多一个视角看待问题,部分信息和图片无法核准,如涉权益,烦请联系,我们将迅速处理,谢谢!有融资需求请加微信(FA_rzj),为方便备注,申请好友时请发送(姓名·城市·公司·职务)
– The End –
我们已经与阿里巴巴创新投资、达晨创投、高瓴资本、高榕资本、高特佳投资、戈壁创投、国新风投、国中创投、红杉资本、华映资本、火山石投资、IDG、经纬中国、今日资本、纪源资本、君联资本、联想之星、蓝驰创投、梅花天使基金、平安创投、启赋资本、软银中国、赛伯乐投资、赛富基金、深创投、天图资本、腾讯投资、五源资本、毅达资本、英诺天使基金、优势资本、真格基金、浙商创投、中国风投、中国文化产业投资等近千家知名投资机构2000余名专业投资人建立广泛联系和合作。
帮助那个在创业的人,请分享、点赞、在看,3连击
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!