这些限制最初是在几位用户报告该机器人在对话期间行为异常后设定的。 在某些情况下,他可能会转而将自己标识为“Sydney”。 她通过自己提出指控来回应指责性问题,以至于变得充满敌意并拒绝与用户互动。 在与华盛顿邮报记者的对话中,该机器人表示它可以“感觉和思考”,并在被告知对话可以发布时做出愤怒的反应。
微软发言人 Frank Shaw 在周二的一篇博文中拒绝发表评论。
微软正试图在将其工具推向现实世界以建立营销炒作并获得用户的免费测试和反馈与限制机器人可以做什么以及谁可以访问它之间保持界限,以保持潜在的尴尬或危险技术脱离公众视野。 该公司最初因在主要竞争对手谷歌之前推出其聊天机器人而受到华尔街的称赞,谷歌直到最近才被认为是人工智能技术的领导者。 两家公司都在相互竞争,并与较小的公司竞争开发和展示这项技术。
根据一位公司高管的推文,Bing 聊天仍然只对有限数量的人可用,但微软正忙于批准更多的队列,这个队列可能达到数百万。 虽然其 2 月 7 日的发布活动被描述为将彻底改变人们在线搜索方式的重大产品更新,但该公司此后将 Bing 版本定义为测试它和查找错误。
像 Bing 这样的机器人已经接受了从互联网上收集大量原始文本的训练,包括从社交媒体评论到学术论文的所有内容。 基于所有这些信息,他们可以预测出对几乎任何问题的最合理的回答类型,这让他们看起来非常像人类。 人工智能伦理研究人员过去曾警告说,强大的算法会以这种方式表现,如果没有适当的背景,人们可能会认为他们是理智的,或者给予他们的答案超过他们的价值。
“极端问题解决者。旅行忍者。典型的网络迷。浏览器。作家。读者。无法治愈的组织者。”
More Stories
Android 15/One UI 7 正在针对 Galaxy A53、A54 等进行测试
《Helldivers 2》的重大更新招致了负面评价,而且玩家数量并未增加一倍
据报道,谷歌 Pixel 9 将获得一些新的 Gemini AI 功能