财联社 4 月 20 日讯(编辑 卞纯)今年 3 月份,谷歌面向公众推出了人工智能聊天机器人巴德(Bard),以对抗微软支持的 OpenAI 更早推出的 ChatGPT。
然而,据媒体周三报道,在 Bard 推出前不久,对 Bard 进行内测的谷歌员工对这款聊天机器人的表现并不满意。他们对 Bard 给出了一系列负面评价。
据媒体获得的内部讨论截图,在测试完 Bard 后,一名员工称其” 令人尴尬 “,另一名员工称其为” 病态的骗子 “。
其他人则认为 Bard 可能存在潜在危险。一名员工表示,他们向 Bard 询问了降落飞机的技巧,Bard 给出的建议可能会导致碰撞。另一位员工表示,巴德给出的水肺潜水建议” 可能会导致严重伤害或死亡 “。
据报道,一名员工甚至恳求谷歌在推出 Bard 之前三思而后行。该名员工在今年 2 月的一条内部消息中写道 :“Bard 比无用更糟糕:请不要发布。” 近 7000 人看到了这条消息。
为追赶对手 降低 AI 伦理优先级
今年 2 月,谷歌就向公众展示了 Bard,在那次灾难性的演示中,Bard 犯了一个事实性错误,令谷歌颜面大失。谷歌员工将谷歌此次行动称之为 ” 仓促 “、” 拙劣 “、且 ” 毫无谷歌风范 “。
在一片批评声中,一个月后,Bard 正式开放公测,可惜,并没能给早期体验的用户留下深刻印象。多数用户对 Bard 的评价是平淡无奇,沉闷乏味,一些用户甚至声称 Bard 传播错误信息,抄袭文章,并搞错了基本的算术,和对手 ChatGPT” 出道即巅峰 ” 形成了鲜明的对比。
负责评估谷歌新产品安全性和道德规范的员工告诉媒体,谷歌不希望他们做出任何延缓人工智能技术开发的尝试,这降低了他们的士气。
他们还表示,谷歌正在降低 AI 伦理的优先级,以便尽快发布能够击败 ChatGPT 的一款聊天机器人。
谷歌前经理梅雷迪思 · 惠特克 ( Meredith Whittaker ) 告诉媒体,随着像微软这样的科技巨头继续发布他们自己的 AI 聊天机器人,这些公司将如何解决其 AI 工具伦理的问题仍然存在。
“AI 伦理已经退居次要地位。” 他表示,” 如果伦理不能优先于利润和增长,它们(AI 技术)最终就不会起作用。”