23 11 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

为什么 AI 聊天机器人会说谎并做出奇怪的行为? 我照镜子。

为什么 AI 聊天机器人会说谎并做出奇怪的行为? 我照镜子。

当微软本月在其 Bing 搜索引擎中添加聊天机器人时,人们注意到它提供了关于 Gap、墨西哥夜生活和歌手 Billie Eilish 的各种虚假信息。

然后,当记者和其他早期测试人员与微软的人工智能机器人进行长时间对话时,它会变得粗鲁和尖刻,令人震惊。

自从 Bing bot 的行为成为全球轰动以来的日子里,人们一直在努力理解这个新创造的奇怪之处。 科学家们经常说,人类应该受到很多指责。

但是关于新的聊天机器人能做什么以及它为什么会这样做,仍然有点神秘。 它的复杂性使其难以剖析甚至预测,研究人员通过哲学镜头和计算机科学的硬代码来看待它。

像任何其他学生一样,人工智能系统可以从错误的来源学习错误的信息。 这是奇怪的行为吗? 这可能是聊天机器人对使用它的人的语言和意图的扭曲反映,神经科学家、心理学家和计算机科学家 Terry Sejnowski 说,他帮助奠定了现代人工智能的知识和技术基础。

当您深入这些系统时,就会发生这种情况。 研究论文 关于这个现象 本月发表在科学杂志《神经计算》上. “无论你在寻找什么——无论你想要什么——他们都会提供。”

谷歌也是 炫耀 新的聊天机器人巴德,这个月,但科学家和记者很快意识到他在写关于詹姆斯韦伯太空望远镜的废话。 旧金山初创公司 OpenAI 在去年 11 月推出了 ChatGPT,开启了聊天机器人热潮,但它并不总是说实话。

新的聊天机器人由科学家称为大型语言模型 (LLM) 的技术提供支持。这些系统通过分析从互联网上提取的大量数字文本来学习,其中包括大量信誉不佳、有偏见和其他有毒材料。 此外,聊天机器人学习的脚本有点过时了,因为他们必须花几个月的时间分析它,然后公众才能使用它。

当它在线分析海量好坏信息时,LLM 学会了做一件特定的事情:猜测一串单词中的下一个单词。

它的工作原理就像自动完成技术的巨型版本,当您在智能手机上键入电子邮件或即时消息时,它会建议下一个词。 看看“汤姆·克鲁斯是____”这一序列,人们可能会猜到“演员”。

当您与聊天机器人聊天时,该机器人不仅仅依赖于它从互联网上学到的一切。 他依赖于你对他说的一切以及他回应的一切。 这不仅仅是猜测句子中的下一个单词。 它正在猜测包括你和她的话在内的长文本中的下一个词。

对话时间越长,用户就越会不经意地影响聊天机器人所说的话。 “如果你想让他生气,他就会生气,”Sejnowski 博士说。 如果你哄它变得令人毛骨悚然,它就会变得令人毛骨悚然。

对微软聊天机器人怪异行为的强烈反对掩盖了一个重要的观点:聊天机器人没有个性。 它通过极其复杂的计算机算法提供即时结果。

当微软限制与其 Bing 聊天机器人的讨论时长时,它似乎正在减少最奇怪的行为。 这就像从测试车手那里了解到,开得太快太久会导致发动机烧坏。 微软合作伙伴 OpenAI 和谷歌也在探索控制机器人行为的方法。

但这种保证有一个警告:由于聊天机器人从如此多的材料中学习并以如此复杂的方式将它们组合在一起,研究人员并不完全清楚聊天机器人如何产生最终结果。 研究人员观察机器人的行为,并学会限制这种行为——通常是在它发生之后。

微软和 OpenAI 决定,他们能够检测聊天机器人在现实世界中将要做什么的唯一方法是让它们迷路——并在它们走开时滚动它们。 他们认为他们的大型公共实验值得冒险。

Sejnowski 博士将微软聊天机器人的行为比作厄里斯魔镜,厄里斯魔镜是 J.K. 罗琳的哈利波特小说和许多基于其年轻巫师的创意世界的电影中的神秘神器。

“Maverick”是“desire”的倒写。 当人们发现镜子时,它似乎提供了真理和理解。 但她没有。 它显示了任何凝视它的人根深蒂固的欲望。 有些人如果盯着看太久就会发疯。

“因为人类和法学硕士相互映照,随着时间的推移,他们将趋向于一个共同的概念状态,”Sejnowski 博士说。

他说,记者开始在 Bing 聊天机器人中看到令人毛骨悚然的行为并不奇怪。 无论是有意还是无意,他们都在将系统推向一个不舒服的方向。 当聊天机器人接受我们的话并将其反映给我们时,它们可以强化和放大我们的信念,并说服我们相信它们告诉我们的内容。

Sejnowski 博士是 20 世纪 70 年代末和 80 年代初的一小群研究人员之一,他们开始认真探索一种称为神经网络的人工智能,它正在推动当今的聊天机器人。

神经网络是一种通过分析数值数据来学习技能的数学系统。 这与让 Siri 和 Alexa 识别您所说内容的技术相同。

2018 年左右,谷歌和 OpenAI 等公司的研究人员开始构建从大量数字文本(包括书籍、维基百科文章、聊天记录和在线发布的其他内容)中学习的神经网络。 通过识别所有这些文本中的数十亿种模式,LLM 已经学会了自己创建文本,包括推文、博客文章、演讲和计算机程序。 他们甚至可以进行对话。

这些系统是人性的反映。 他们通过分析人类在互联网上发布的文本来学习技能。

这并不是聊天机器人产生有问题的语言的唯一原因,新墨西哥州独立实验室圣达菲研究所的人工智能研究员梅兰妮米切尔说。

创建文本时,这些系统不会逐字逐句地重复互联网上的内容。 他们通过组合数十亿种样式自行生成新文本。

即使研究人员仅根据同行评审的科学文献对这些系统进行训练,他们仍可能会产生科学上荒谬的陈述。 即使他们只是从文本中得知它是真的,他们仍然可能会制造谎言。 即使他们只从有益的文本中学习,他们仍然可能产生一些令人毛骨悚然的东西。

“没有什么能阻止他们这样做,”米切尔博士说。 “他们只是想制造一些听起来像人类语言的东西。”

人工智能专家早就知道这项技术会表现出各种意想不到的行为。 但他们不能总是就如何解释这种行为或聊天机器人可以多快改进达成一致。

由于这些系统从比我们人类所能理解的多得多的数据中学习,即使是人工智能专家也无法理解为什么他们在任何给定时刻生成一段特定的文本。

Czejkowski 博士说,他相信从长远来看,新的聊天机器人有可能提高人们的效率,并为他们提供更好更快地完成工作的方法。 但这对于构建这些聊天机器人的公司和使用它们的人来说都是一个警告:它们还可以使我们远离真相并进入一些黑暗的地方。

“这是一个未知领域,”Czejkowski 博士说。 “人类以前从未经历过这种情况。”

READ  更多细节出现在 PS4 / PS5 蓝光漏洞利用上