周六. 5 月 18th, 2024

IT之家 3 月 22 日消息,谷歌昨天刚刚向英国和美国用户开放了旗下聊天机器人 Bard,基于谷歌 LaMDA 通用语言预训练大模型的轻量级优化版本,但是这款机器人在公开测试的第一天就出现了一个尴尬的错误,有用户问它多久会被谷歌关闭,它错误地回答称自己已经被谷歌关闭了。

聊天机器人的回答出现事实错误并不新鲜,这也是目前此类大语言模型的主要问题之一,而且谷歌昨天也直截了当地说 Bard 的回答将包含事实错误,那为什么还报道这个消息呢?并不是要故意挑 Bard 的毛病,而是这个错误比较有意思。

原来,Bard 的这个错误回答的消息来源是一个网友在 Hacker News 上开玩笑的帖子,他调侃称谷歌会在一年内关闭 Bard,过去谷歌确实关闭了很多自家的服务。Bard 没有理解这个帖子的语境和幽默感,把它当作事实分享给了用户。

!!!…!!

谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的,微软的新必应也有类似的问题。这个问题是基于大语言模型(LLMs)的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程,但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。

不过IT之家认为,如何让这些聊天机器人更好地辨别虚假消息,是这些科技巨头需要严肃考虑的问题。

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

码通天下
服务平台
跨境人联网
优品出海
选品平台