4月11日,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面升级改造。
同一日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。意见指出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
而在前一日的4月10日,中国支付清算协会发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》。
随着ChatGPT等类似应用越来越火热,未来因生成式人工智能引发的社会问题也将快速增长,由此也将带来诸多法律问题。
来源:21世纪经济报道、e公司、网信中国
01
阿里重磅官宣:淘宝、天猫等全部接入
根据e公司报道,2023阿里云峰会今日举行。阿里集团董事会主席兼CEO张勇表示,阿里云已形成模型即服务(MaaS)、平台即服务(PaaS)、基础设施即服务(IaaS)三层架构,其中模型即服务包括基础大模型/通义大模型、企业专属大模型、魔搭社区、API服务等。张勇表示,阿里所有产品未来将接入大模型全面升级,包括天猫、钉钉、高德地图、淘宝、优酷、盒马等。
根据券中社报道,张勇表示,面向AI时代,所有产品都值得用大模型重做一次,基于这一信念,阿里云希望帮助更多企业用上大模型,让每家企业都能基于“通义千问”,拥有具备自己行业能力的专属大模型。
他同时指出,大模型是一场“AI+云计算”的全方位竞争,超万亿参数的大模型研发,并不仅仅是算法问题,而是囊括了底层庞大算力、网络、大数据、机器学习等诸多领域的复杂系统性工程,需要有超大规模AI基础设施的支撑。
张勇提到,面对全新的AI时代,阿里云已经做好了准备。十多年来,阿里云已经累积了从飞天云操作系统、芯片到智算平台的“AI+云计算”的全栈技术实力,今天,阿里云将把这些AI基础设施和大模型能力向所有企业开放,共同推动AI产业的发展。
“一家企业的想象力终归是有限的,释放AI潜力要靠无数人探索。”张勇说。
受此影响,数据安全方向午后走强,截至收盘,美亚柏科涨超18%;三未信安涨超8%,盘中一度涨超11%;任子行涨超6%。
02
国家出手:AI监管规定来了
国家互联网信息办公室网站4月11日消息,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公开征求意见。
生成式人工智能服务管理办法
(征求意见稿)
第一条 为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。
第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。
本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
第三条 国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:
(一)符合《中华人民共和国网络安全法》等法律法规的要求;
(二)不含有侵犯知识产权的内容;
(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;
(四)能够保证数据的真实性、准确性、客观性、多样性;
(五)国家网信部门关于生成式人工智能服务的其他监管要求。
第八条 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。
第九条 提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。
第十条 提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。
第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。
第十二条 提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。
第十三条 提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。
第十四条 提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。
第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
第十六条 提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。
第十八条 提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。
用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。
第十九条 提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
第二十条 提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。
法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
第二十一条 本办法自2023年 月 日起实施。
03
“已暴露风险,慎用!”中国支付清算协会紧急发声
ChatGPT热度不减,但人们逐渐开始关注到了安全性的问题。
据21世纪经济报道,4月10日,中国支付清算协会发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称《倡议》)。
《倡议》表示,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,中国支付清算协会向行业发出三条倡议。
具体而言,中国支付清算协会向支付行业发出了三点倡议。
首先是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。
其次,不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
最后,会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。
《倡议》表示,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
04
加拿大、意大利调查ChatGPT开发公司
据21世纪经济报道,当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对聊天机器人ChatGPT开发公司OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。
目前OPC没有透露更多的调查细节。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。”
这是继意大利之后又一个对ChatGPT“出手”的国家监管机构。
此前,3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。
3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
3月25日,OpenAI发布声明承认,由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。
同时,OpenAI表示,在特定的9小时窗口期内,1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。
意大利个人数据保护局认为,ChatGPT泄露了用户对话数据和付款服务支付信息,没有告知用户将收集处理其信息,缺乏大量收集和存储个人信息的法律依据,同时缺乏年龄验证系统,因此未成年人可能接触到非法信息。OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
–END–
本文仅代表作者个人观点,不代表本公众号立场。本公众号转载此图文仅出于传播更多资讯之目的。如有侵权或违规请及时联系我们,我们将立刻予以删除。
新财富2023年3月号·电子版
《大象转身 剑指重估
央企管资本大考》
(点击海报可直接购买,下单请备注邮箱)
点个在看天天涨不停