6 11 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

人工智能是对语言的掌握。 我们应该相信他说的话吗?

人工智能是对语言的掌握。 我们应该相信他说的话吗?

“我认为它让我们对安全问题更加深思熟虑,”奥特曼说。 “我们的部分战略是:世界的渐进式变化比突然的变化要好。” 或者,正如 OpenAI 副总裁 Mira Moratti 所说,当我向她询问安全团队限制对软件开放访问的工作时,“如果我们要学习如何部署这些强大的技术,让我们从风险非常低的时候开始。”

而 GPT-3 本身 OpenAI 在爱荷华州的一个超级计算机集群中运行在 285,000 个 CPU 内核上,它在旧金山任务区外的一家翻新行李工厂中运行。 去年 11 月,我在那里遇到了 Ilya Sotskefer,试图引出外行人对 GPT-3 的真正工作原理的解释。

“这就是 GPT-3 的基本理念,”Sotskever 在椅子上身体前倾,专注地说。 他有一种有趣的回答问题的方式:一些错误的开始——“我可以给你一个大致符合你要求的描述的描述”——被长时间的冥想停顿打断,就好像他正在绘制整个反应过程中的图表。

他最后说:“GPT-3 的基本思想是一种将直观的理解概念与可以机械测量和理解的事物联系起来的方式,这就是预测文本中下一个单词的任务。 其他形式的人工智能试图对有关世界的信息进行编码:大师的国际象棋策略,气候学原理。 但是 GPT-3 智能,如果智能是它的词,它是自下而上的:通过基本动词来预测下一个词。 对于 GPT-3 训练,模型会得到一个“提示”——例如,报纸文章、小说或科学论文中的几句话或几段文字——然后要求模型给出一个可能的单词列表可能完成按概率排序的序列。 在训练的早期阶段,提出的词是胡说八道。 用“作者已经从第一个单词中删除最后一个单词……”之类的句子询问算法,猜测会是一堆废话:列表 – 出现正确的缺失单词:“段落”。然后程序加强和削弱任何产生特定建议的随机神经连接 所有产生错误猜测的连接。然后它移动到下一个路由器。随着时间的推移,通过足够的迭代,程序会学习。

早在一月份,OpenAI 添加了一项功能,允许用户直接给出 GPT-3 指令作为提示,而不仅仅是要求他们扩展一段文本示例。 例如,使用帮助模式,GPT-3 曾经得到提示:“写一篇文章讨论元小说在伊塔洛·卡尔维诺的作品中的作用。” 一段简短的开头如下:

意大利作家伊塔洛·卡尔维诺(Italo Calvino)被认为是元小说方面的专家,元小说是一种作者打破第四面墙讨论写作行为的写作类型。 对于卡尔维诺来说,元小说是一种探索现实本质的方式,以及故事如何塑造我们对世界的看法。 他的小说经常涉及操纵现实与幻想之间界限的俏皮结构和迷宫。 例如,如果旅行者在一个冬天的夜晚,读者会经常被阅读行为的元层次和讲故事的本质的讨论打断。 . . .

您可以一遍又一遍地给 GPT-3 提供完全相同的提示,每次它都会产生一个独特的响应,其中一些比其他的更有说服力,但几乎都非常简单。 指示性提示可以采取各种形式:“给我一份肉酱中所有成分的清单”、“以约翰·阿什伯里的风格写一首关于法国海滨村庄的诗”、“用 8 年的语言解释大爆炸——老明白。”有时,我最初喂食这种 GPT-3 刺激的几次,我感到脊背上冒起了鸡皮疙瘩。一台机器似乎几乎不可能完全基于初始训练来生成如此清晰和响应迅速的文本来预测下一个词。

但人工智能在没有实际交付商品的情况下创造智能或理解错觉的历史悠久。 在 讨论很多的论文 去年发表的华盛顿大学语言学教授 Emily Bender、前谷歌研究员 Timnit Gebru 和一组合著者宣称,大型语言模型只是“随机鹦鹉”:也就是说,该程序使用随机化只是为了重新混合由人类…… Bender 最近通过电子邮件告诉我:“改变的并不是超过了‘人工智能’的某个门槛。相反,她说,改变的是‘硬件、软件和经济创新,这些创新允许积累和处理大量数据。数据集”——以及文化 “制造和销售此类东西的人可以拥有的技术”远非建立在不准确数据的基础上。

READ  动视暴雪回应工人因疫苗授权下降而罢工