GoogleAI道德团队:逐利还是负责任

AI与法律1yrs ago (2023)update lida
120 0 0

本文来自微信公众号:爱范儿 (ID:ifanr),作者:杜沅傧,题图来自:视觉中国

“Don’t Be Evil(不作恶)这句口号,在 2018 年之前一直是 Google 的座右铭和行为准则。

这指的是 Google 在做事时要遵循道德和法律,不做有害社会和用户的事情。

但到了 2018 年,这个话术被修改为“Do the right thing(做正确的事情)

Google 的这个变化,被许多人认为它已经违背初心。

谷歌在后续商业行为中,没有保持技术的中立性,反而更加偏向商业获利,收集用户隐私,并利用数据来扩张业务。

Google这句经典口号,“改变一切”,在今天的 AIGC(Artificial Intelligence and Cloud Computing)领域同样适用。这个领域的突然爆发,与互联网的爆发节点有些异曲同工。无论是AI还是Cloud Computing,这些技术正在改变我们的世界,并带来前所未有的机遇

谷歌CEO Sundar Pichai 在CBS《60 分钟》节目采访中,针对当前的人工智能(AI)问题,提到了一个经典口号“Dont Be Evil”,引发了广泛讨论。

当下 Google 的 Bard 之所以显得有点笨拙,实则是因为没有公布 Bard 的高级版本。

“希望能够给社会更多的时间适应 AI,和给公司更多的时间开发安全围栏。”

谷歌公司首席执行官皮查伊(Pichai)认为,Google的AI实力并不并不比OpenAI差,而且出于社会责任,暂时将AI技术封印了起来。

但,无论是从彭博、the Verge、金融时报各方面的报道来看,Google 内部却对 Bard,以及 Google 当下对 AI 技术的开发和监管,却有着截然不同的声音。

为了抗衡 ChatGPT,伦理道德可以先放一边

Google Brain 项目于 2011 年创立,标志着 Google 开始涉足 AI 领域,致力于研究深度学习等人工智能技术。

图/Google

从此往后,Google 几乎每年都在 AI 领域取得一些小成果和达成小目标。

近年来,机器学习领域的进展不断,其中最为引人瞩目的是从AlphaGo的胜利到TensorFlow开源框架的发布,再到机器学习芯片TPU的发布,以及近期BERT和LaMDA等语言模型的发布。这些成果不仅为机器学习的发展注入了新的动力,也为各行各业带来了新的应用和解决方案。

Google 在 AI 领域可谓是轻车熟路老手。在研究 AI 的过程中,其内部也有了较为完善的风险团队、技术团队等等,可谓兵强马壮。

当然,也有点不可一世。

今年的 Google开发者大会,除了展示 Google 的搜索引擎和广告技术外,也转向了 AI 领域,向外界展示了 Google 在 AI 领域的深厚实力。

外界也普遍认为,Google 会率先引领 AI 行业变革。

GPT-3 和 GPT-4 的出现,以及 MidJourney V5 的火热,让人们开始对大型语言模型的未来感到兴奋。这些模型能够生成高质量的文本,甚至能够模拟人类的对话,让人们不禁想象它们是否可以替代人类进行各种任务。然而,随着 GPT-3 和 GPT-4 的出现,人们也开始关注这些模型的性能和隐私问题。

微软与 OpenAI 合作,将 ChatGPT 运用到了新 Bing 搜索引擎中,引发了一次“搜索”变革。这一合作使得 Bing 能够更好地理解和回答用户的问题,并为用户提供更加智能和个性化的搜索结果。这一合作的成功,也证明了微软和 OpenAI 在人工智能领域的领先地位。

Google 回过神,连夜推出了 Bard,刚一上线就闹了乌龙,出现了不少事实性错误,并且至今只支持英语。

相对于 ChatGPT、新 Bing 来说,逊色太多。

Bard 的推出引发了信任危机,导致股价大跌。尽管 Google 进行了即时调整,但 Bard 的影响仍然不能与 ChatGPT 相提并论。

Google内部员工表示,Bard 压根就没能通过一些道德基准测试,很容易说谎,和发出负面言论。

在内部测试的过程中,一位员工向 Bard 寻求如何降落飞机,它回答出的步骤,极容易导致坠机。

而另外一位员工问 Bard 潜水问题时,它则会给出容易导致严重伤害或者死亡的答案。

除了这些危险的答案,在一些道德伦理和社会问题上,Google 也放松了要求。

在 Google 内部,有一个 AI 道德研究团队,他们会探索、确立、评估 AI 所带来的风险。

他们有权利直接为一项技术打上红色标签,未能通过测试就暂时不去面向公众。

2021年,Google再次承诺为AI道德研究团队扩充,并投入更多的资源,以钳制技术研究人员的逐利行为。

但有意思的是,该团队的领导人一直在更换,并且也在去年经历过一轮裁员

目前 Google AI 相关技术研究人员要比道德安全团队多出 30 倍。

在 ChatGPT 抢尽 AIGC 行业风头之后,Google 也开始动摇。道德团队的人员被告知不要阻挠或者“杀掉”正在开发的任何生成式 AI 工具。

经历了内部测试并收到了许多“质疑”后,Google最终选择将产品以“实验产品”的名义对外发布。这一决定引发了商业压力,微软和 ChatGPT 等竞争对手也对此表示质疑。然而,Google 表示,尽管产品在测试期间受到了批评,但它仍然是一款具有重要商业价值的实验产品。

因为在一些统计调查里,实验产品即便有着缺陷,也更容易被大众接受。

图/Google

并且一些员工也认为新技术尽快公布于众,可以快速获得反馈,能够更快的更迭改进产品。

实际当中,在 Bard 发布之后的相当长时间内,Google 也只进行了一次更迭,为其增加了数学逻辑的修改。

至于一些敏感围栏、敏感主题是否有改变和优化,并未有提及。

Bard 在每日一变的 AI 浪潮里似乎也正在被边缘化。

马斯克:ta 们必须要监管

有趣的是,几乎与 Pichai 的访谈前后脚,马斯克也在 Fox 新闻上谈到了 Google。

马斯克与 Google 创始人 Larry Page 曾经是密友,两人曾经一起创业,并互相支持。Page 甚至买了 10% 的 SpaceX 股票,并想和马斯克一起去火星玩沙子。

2014 年,Google 收购 DeepMind,二人对 AI 的看法发生了分歧,最终导致不相往来。

同年,Page 在 TED 演讲中表示,他的终极目标是建造一个超级数字人工智能,称之为“数字之神(digital god)”。

而对于这个想法,Pichai 在《60 分钟》的采访中,并没有否认,也没有认同。

Google将于5月10日举行的开发者I/O大会中发布新AI产品,而备受关注的自动驾驶技术,Google也并未提及。

Google拥有世界接近垄断的高性能计算机与人工智能团队,也最有可能达成所谓的“数字之神”。

但公司领导人 Page 却丝毫不关心 AI 所带来的安全问题,这对于世界来说,相当危险。

这段文字需要重新组织,以便更好地表达作者的意图。以下是重新组织后的内容:最近,ChatGPT、新 Bing、Bard 等公司开始胡说,让人们对人工智能的可靠性产生了怀疑。因此,一些人想要入局,并推出一个类似的产品——名为 TruthGPT。

另外,马斯克也在呼吁各国各组织出台相应的政策,来限制当下 AI 的一些出格行为。

生成式 AI 的数据来源广泛,包括互联网论坛、论文、网站等等,这些数据没有脱敏,也没有严格限制,因此容易产生有风险、有害或不准确的言论。

另外,随着当下 AIGC 行业的火热,入局者犹如淘金一般,仿佛人工智能正在进入一个新的发展阶段。

目前大规模模型、高算力的工业生成方式,也让 AI 很容易被大公司垄断

当他们内部难以权衡逐利还是维持安全,就很容易在 AI 取向上犯错,造成不可挽回的后果。

纵使马斯克在 AIGC 上有着一丝私心,但在一些大是大非上,马斯克的确要清醒不少。

能力越大,责任越大

Google Photos 会利用 AI 识图进行标记,帮助用户梳理图片进行分类。

这段文字可以重新组织为:尽管 Google Photos 调整了免费容量,但它仍然是我最常用的 AI 应用。

2015 年,Google Photos 误将黑人软件开发者和他的朋友的图片标记为“大猩猩”,这一事件引发了广泛的争议。

比较正常的反应应该是道歉,并重构算法,逐步修复这个识别错误。

但 Google 却选择了将“大猩猩”“黑猩猩”和“猴子”等搜索结果全部删除。

Google Bard 出现漏洞,Google 仍未承担责任,选择忽视。

为了能够追赶 ChatGPT,Google 内部存在的 AI 道德团队并没有对其进行全方位的评估,仅进行了敏感主题的研究,便最终匆忙推出。

彭博引用一位前 AI 道德团队高管的评价,认为 Google 对于发展尖端 AI 还是发展有道德底线的 AI 一直存在着争议。

AIGC 行业内,不只是 Google,金融时报也曝出,微软、亚马逊等科技巨头都在大规模的裁撤 AI 伦理团队。

仿佛在 AIGC 高速发展,互相竞争的当下,AI 伦理、AI 安全已经影响到了他们互相追逐的枷锁。

如同斯坦福大学研究人员在报告中所述,随着 AI 行业的快速发展,学术和工业之间的转换已经转向了工业化,各种 AI 正在涌现,但背后所蕴含的伦理道德、安全、敏感和有害等信息却被忽视。

图/《我,机器人》

随着公司规模的扩大和业务范围的扩展,一些大公司也开始不愿承担更多的社会责任,只能够在法律法规的边缘上徘徊。这种行为可能会对社会和 AI 行业带来深远的影响。

目前多个国家和地区,甚至是一些公司和组织,也正在积极研究制定一些规则来限制 AI 无节制的发展。

也正如前福布斯中文版副主编尹生所言:“大公司必须做得比用户和法律要求的更多,因为你创建了一个新世界,并从中获益,你必须帮助整个社会学会如何治理它,如果你不主动做,社会就会接管过去。”

本文来自微信公众号:爱范儿 (ID:ifanr),作者:杜沅傧

关键词:Google, AI,道德,伦理,安全,技术,Bard,ChatGPT,IBM

© Copyright notes

Related posts

No comments

No comments...