4 月 21 日周五,谷歌正式宣布其生成式人工智能聊天机器人 Bard 可以用来参与软件开发,新功能包括帮忙编写代码、去除代码错误(debug)、解释代码片段,并为在线电子表格 Google Sheets 编写函数,并将代码从一种语言翻译称另一种语言等。
谷歌研究(Google Research)的产品负责人介绍称,自从 3 月向公众开放 Bard 以来,” 协助编程 ” 一直是用户最热门的要求之一。编程新功能可用于 20 多种编程语言,包括 C++、Go、Java、Javascript、Python 和 Typescript。还可以将 Python 代码直接导出到 Google Colab 云端工作平台。
谷歌称,生成代码功能对第一次学习编程的人士,或者需要额外支持来理解一段代码可能输出内容的人特别有用。 Bard 不仅可以调试错误代码或未按预期运行的代码,还可以根据提示语 ” 更快或更高效地帮忙优化现有代码 “,有助于加速软件开发、解决复杂问题和激发创新。
谷歌特别提示称:
“Bard 仍处于早期实验阶段,有时可能会自信地呈现不准确、误导或虚假的信息。在编码方面,Bard 可能会提供无法产生预期输出效果但可以运行的代码,或者提供不是最佳或不完整的代码。
建议用户始终仔细检查 Bard 的回复,仔细测试和审查代码中的错误、漏洞和弱点。如果 Bard 从现有的开源项目中详细引用来给出答案,它会给出源代码的出处所在。”
有分析称,鉴于 ChatGPT 和 Bing AI 等生成式 AI 领域竞争对手都已经支持代码生成功能,选择参与竞争的谷歌推出类似功能不难预料。不过,3 月才推出的 Bard 流行程度还比不上去年推出的 ChatGPT。其他使用生成式 AI 编程的工具还有 GitHub 旗下的 Copilot 以及 OpenAI Codex。值得注意的是,全球最大的代码托管平台 GitHub 已于 2018 年被微软收购,而 ChatGPT 背后的母公司 OpenAI 也由微软大力投资支持。微软目前俨然是 AI 争霸赛的最大赢家。
此前有消息称,三星新款手机要将微软必应当做默认搜索引擎,替换掉谷歌,谷歌 ” 恐慌后 ” 称将全力推进新 AI 搜索引擎。谷歌本周还将 DeepMinsd 与谷歌大脑合并,市场认为,谷歌的这两个专注于 AI 的团队合并后,将有助于该公司在 AI 的竞争中取得优势。
律所 Womble Bond Dickinson 发文提示称,能生成代码的 AI 工具拥有令人兴奋的潜力,但希望利用这些技术的用户应该采取预防措施,” 以免撞到藏在机器学习算法表面下的石头 “。
文章称,近期三星经历了三起涉及 ChatGPT 的企业机密泄露事件。半导体工程师曾两次将机密源代码信息输入 ChatGPT 以修复和优化代码。另有一位注重效率的员工要求 ChatGPT 总结会议记录。 由于 ChatGPT 保留用户输入数据以进行自我训练,该员工无意中向 OpenAI 泄露了三星机密信息:
” 但无意中泄露机密信息并不是使用 ChatGPT 的唯一潜在陷阱,最近针对 GitHub、其母公司微软及其业务合作伙伴 OpenAI 提起的集体诉讼就证明了这一点。
原告称,GitHub 的人工智能编码助手 Copilot 盗用了可以追溯到开源存储库或开源被许可方的软件。GitHub 承认使用来自 GitHub 上大量可公开访问的代码存储库数据来训练 Copilot,据称其中大部分原本需要注明原作者的出处。但 Copilot 在没有提到原作者的情况下复制了很长一段代码。
对生成代码特别感兴趣的 AI用户请仔细检查源代码。如果一家公司利用人工智能生成代码,应通过开源许可工具运行生成的代码,以确定代码的来源并检查代码是否已获得授权许可。
虽然由 AI 自身编写的代码可能不受版权保护(版权局最近重申,要获得版权保护,任何作品都必须有足够的人类创造性参与),但由人类编写、构思或概述的源代码,就算背后有人工智能的辅助,可能也是受版权保护的。
在使用人工智能工具时,公司还应考虑向人工智能导入的内容是否被视为商业秘密,是否采取了足够的步骤来确认和保护内容的机密性,以及人工智能的任何输出是否同样属于商业秘密。”
本周还有批评性质的报道揭露,谷歌似乎为了急于应战 ChatGPT 而不管伦理道德。公司内测员工称 Bard 是 ” 病态的骗子 “、答复可能让人丧命。例如,Bard 给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard 给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。
但谷歌已提高警惕。上周日,谷歌 CEO Sundar Pichai 警告,如果对 AI 部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai 仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为 AI 的快速发展做好准备,因此需要更强有力的监管。