25 12 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

AI Race,微软和谷歌选择快速谨慎

AI Race,微软和谷歌选择快速谨慎

今年 3 月,两名负责审查公司 AI 产品的谷歌员工试图阻止谷歌推出 AI 聊天机器人。 他们认为他发表了不准确和危险的言论。

十个月前,微软的其他伦理学家和员工也提出了类似的担忧。 他们在几份文件中写道,计划中的聊天机器人背后的人工智能技术可能会在 Facebook 群组中充斥错误信息,破坏批判性思维并削弱现代社会的事实基础。

无论如何,这些公司发布了他们的聊天软件。 微软走在了前面,在 2 月份发布了一个预告片,展示了一个融入其 Bing 搜索引擎的 AI 聊天机器人。 大约六周后,谷歌推出了自己的聊天机器人 Bard。

通常规避风险的公司之所以采取积极行动,是因为一场争夺可能成为科技行业下一件大事的竞争——生成人工智能,为这些聊天机器人提供动力的强大新技术。

去年 11 月,与微软合作的旧金山初创公司 OpenAI 发布了 ChatGPT,这是一款吸引公众想象力的聊天机器人,目前估计每月有 1 亿用户,因此这场竞争变得异常激烈。

根据 15 名现任和前任员工以及公司的内部文件,ChatGPT 的惊人成功促使微软和谷歌愿意承担更大的风险,多年来制定了道德准则,以确保他们的技术不会造成社会问题. .

上个月,微软首席技术官山姆席拉斯 (Sam Schilas) 发送的一封内部电子邮件明确说明了使用新人工智能进行构建的紧迫性。 他在纽约时报看到的电子邮件中写道,“目前的错误太大了,不必担心以后可以解决的问题。”

当科技行业突然转向一种新型技术时,第一个提供产品的公司“从长远来看是赢家,因为它先开始了,”他写道。 “有时差异以周为单位。”

上周,行业焦虑与冒险者之间的紧张关系公之于众,包括埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的 1,000 多名研究人员和行业领袖呼吁暂停 6 个月开发强大的 AI 技术。 他们在一封公开信中表示,这对“社会和人类构成了严重威胁”。

监管机构已经威胁要进行干预。 欧盟提议立法监管人工智能,意大利上周暂时禁止 ChatGPT。 在美国,拜登总统周二成为最新一位质疑人工智能安全性的官员

“科技公司有责任确保他们的产品在上市前是安全的,”他在白宫说。 当被问及人工智能是否危险时,他说,“还有待观察。它可能是。”

现在提出的问题曾经是导致一些公司依赖新技术的担忧。 他们了解到,过早地触发人工智能可能会很尴尬。 例如,七年前,在用户付费后,微软迅速撤下了一个名为 Tay 的聊天机器人,以产生种族主义反应。

研究人员表示,微软和谷歌冒着发布连他们的开发人员都不完全理解的技术的风险。 但这些公司表示,他们限制了新聊天机器人最初发布的范围,并构建了复杂的过滤系统,以清除仇恨言论和可能明显造成伤害的内容。

微软 AI 负责总监娜塔莎·克兰普顿 (Natasha Crampton) 在接受采访时表示,微软围绕 AI 和道德规范开展了六年的工作,这让公司能够“聪明而深思熟虑地行动”。 “我们对负责任的人工智能的承诺仍然坚定不移,”她补充道。

谷歌在内部对 AI 的生成收益是否超过风险存在多年异议后,发布了 Bard。 它在 2020 年发布了类似的聊天机器人 Meena。但熟悉该过程的三位人士认为它风险太大。 这些担忧早前已被报道过 华尔街日报.

2020 年晚些时候,谷歌禁止顶级 AI 伦理研究人员 Timnit Gebru 和 Margaret Mitchell 发表论文警告说,新 AI 系统中使用的所谓大型语言模型经过训练可以从大量 Tremendous 语句中识别模式,它们可能会辱骂或歧视性语言。 在 Gebru 博士批评公司的多元化努力并指责 Mitchell 博士将一些工作电子邮件保存到个人 Google Drive 帐户后违反了公司的行为准则后,研究人员被解雇了。

米切尔博士说,她试图帮助谷歌负责任地推出产品并避开监管,但他们“真的开枪自杀了”。

谷歌发言人布赖恩加布里埃尔在一份声明中表示:“我们继续将负责任的人工智能作为谷歌的首要任务。” 人工智能原理 和内部治理结构,以负责任地与我们的用户分享人工智能的发展。”

对更大型号的担忧依然存在。 2022 年 1 月,谷歌拒绝让另一位研究员 Al-Mahdi Al-Mohammadi 发行钞票。

Elmohamady 博士是一名兼职员工和大学教授,他使用数学理论警告说,最大的 AI 模型更容易受到网络安全攻击,并带来极大的隐私风险,因为它们可能访问了存储在世界各地的私人数据。 互联网。

尽管后来有一份高管报告警告说人工智能会出现类似的隐私侵犯行为,但谷歌的评论员还是要求 Elmohamady 博士做出实质性的改变。 他拒绝了,并通过巴黎综合理工学院创办了这份报纸。

他今年退出谷歌,部分原因是“研究审查”。 他表示,现代人工智能的风险“大大超过”了收益。 “这是一个过早的出版,”他补充说。

ChatGPT 发布后,谷歌首席律师肯特沃克会见了该公司强大的高级技术审查委员会的搜索和安全主管。 他告诉他们,谷歌 CEO 桑达尔·皮查伊 (Sundar Pichai) 一直在大力推动发布谷歌的 AI

谷歌责任创新集团总监金继耐出席了会议。 她记得沃克先生对她的员工说过的话。

在《泰晤士报》看到的一段录音中,杰奈女士说这次会议是“肯特对 ATRC 高管讲话,告诉他们,‘这是公司的首要任务。’”“你们有什么顾虑?让我们排队吧。”

Jenai 女士说,Walker 先生说要进入 AI 项目的快车道,尽管一些高管表示他们会保持安全标准。

她的团队已经记录了对聊天机器人的担忧:它们可能会提供虚假信息,伤害与它们有感情的用户,并通过大规模在线骚扰实现“技术促进的暴力”。

3 月,Jenai 女士团队的两名审稿人提交了他们对 Bard 风险的评估。 两名熟悉该过程的人士表示,他们建议阻止他即将获释。 尽管有保证,但他们认为聊天机器人还没有准备好。

多发性硬化症。 Jenay 更改了该文档。 人们说她接受了建议并降低了感冒的风险。

Jenai 女士在给泰晤士报的一封电子邮件中说,由于 Bard 是一项实验,审稿人不应该考虑他们是否应该继续进行。 它说它“纠正了不准确的假设,实际上增加了更多需要研究的风险和危害”。

谷歌表示,由于这些讨论,它发布了 Bard 作为有限试用版,Jenai 女士说,持续的培训、障碍和免责声明使聊天机器人更安全。

谷歌于 3 月 21 日向部分用户发布了 Bard。 该公司表示很快会将生成式人工智能整合到其搜索引擎中。

2019 年微软向 OpenAI 投资 10 亿美元时,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 就押注了生成式人工智能。 确定该技术已在夏季准备就绪,Nadella 先生推动每个 Microsoft 产品团队采用 AI

五名现任和前任员工表示,微软有其负责的 AI 办公室制定的政策,该办公室由 Crampton 女士领导,但这些指导方针并没有得到始终如一的执行或遵守。

虽然有文件 “透明”原则据参与这项工作的三名人士称,从事聊天机器人工作的伦理专家尚未得到有关 OpenAI 用于开发其系统的数据的答案。 一位直接了解对话情况的人士表示,一些人认为将聊天机器人集成到搜索引擎中是一个特别糟糕的主意,因为它有时会提供不正确的细节。

Crampton 女士说,微软的专家都在 Bing 上工作,关键人物可以访问培训数据。 她补充说,该公司通过将聊天机器人链接到 Bing 搜索结果来努力使聊天机器人更加准确。

去年秋天,微软开始解散其最大的技术道德团队之一。 道德与社会小组对公司的产品负责人进行了培训和咨询,以负责任地进行设计和建造。 据四名熟悉该团队的人士透露,10 月份,该团队的大部分成员被分成了其他小组。

剩下的少数人参加了与 Bing 团队的日常会议,并争先恐后地启动了聊天机器人。 人工智能执行董事约翰·蒙哥马利 (John Montgomery) 在去年 12 月的一封电子邮件中告诉他们,他们的工作仍然至关重要,更多团队“也将需要我们的帮助”。

在引入人工智能必应后,道德团队记录了挥之不去的担忧。 用户会变得非常依赖该工具。 不准确的答案可能会误导用户。 人们可能认为使用字母“i”和表情符号的聊天机器人是人类。

3 月中旬,该团队被解雇,这是 Tech 最先报道的一个行动 新闻 课程。 但克兰普顿女士说,数百名员工仍在从事道德方面的工作。

微软每周都会以疯狂的速度发布新产品,以实现纳德拉先生在夏季预览最新 OpenAI 模型时开始的计划。

他要求聊天机器人将波斯诗人 Jalal al-Din Rumi 翻译成乌尔都语,然后用英文字母输入。 “它就像一种魅力,”他在 2 月份的一次采访中说。 然后我说:上帝就是这个东西。

迈克艾萨克 协助编写报告。 苏珊·比奇 为研究做出贡献。