中国正在对国内人工智能(AI)服务的应用实施更严格的限制。
这些措施是当局努力在利用该技术的好处和降低相关风险之间寻求平衡的一部分。
中国加强管制
中国最近公布了针对提供生成式人工智能 (AI) 服务的公司的安全法规草案,其中包括对用于训练 AI 模型的数据源的重大限制。
这些拟议法规由全国信息安全标准化委员会发布,代表了中国网络空间管理局(CAC)、工业和信息化部以及执法机构等主要实体。
生成式人工智能
生成式人工智能(OpenAI'ChatGPT 的功能就体现了这一领域)是指人工智能模型通过分析历史数据并根据训练生成文本和图像等新内容,从而获得执行任务的能力。
条例草案的重点是控制用于训练可公开访问的人工智能生成模型的内容。
超过"5%的非法和有害信息"将被列入黑名单,包括宣扬恐怖主义、暴力、颠覆社会主义制度、损害国家'声誉以及破坏民族团结和社会稳定的内容。
禁止删减数据
此外,这些规定还强调禁止使用中国互联网上受审查的数据作为这些模型的培训材料。
在此之前,包括著名搜索引擎百度在内的多家中国科技公司已获准向公众推出由人工智能驱动的生成式聊天机器人。
安全评估和保护个人数据
中国网络空间管理局一直强调要求企业自 4 月起,在向公众推出人工智能驱动的生成式服务之前,先向监管机构提供安全评估。
7 月,网络空间监管机构发布了一套管理这些服务的指导方针,业内分析人士指出,与 4 月份的最初草案相比,这些指导方针的严格程度明显降低。
新提出的安全法规规定,参与培训这些人工智能模型的组织必须征得个人的明确同意,其个人数据(包括生物识别信息)必须用于培训目的。
此外,指导方针还包括防止侵犯知识产权的全面说明。
中国 2030 年的人工智能目标
中国已制定了一个全面的三步走计划,以在人工智能(AI)领域取得领先地位。
第一阶段计划于 2020 年完成,包括确保中国在人工智能尖端技术及其广泛应用方面保持与世界同步。
第二阶段定于 2025 年,旨在实现人工智能发展的重大突破。
这一进展有望在该计划的第三阶段也就是最后阶段达到高潮,使中国到 2030 年成为全球人工智能领域的领导者。
随着技术的不断进步,世界各国都面临着制定人工智能(AI)技术治理综合监管框架的挑战。