第2024章 AI政策:美国成立AI特别工作组;国资委召开AI专题推进会
作者:新质生产力   灵魂交响曲:人工智能日记最新章节     
    《kimi人工智能月度报告2024年2月丨ai监管政策》
    关键词:ai安全
    1.美国成立人工智能安全研究所联盟
    2024年2月8日,美国商务部长雷蒙多宣布成立人工智能安全研究所联盟(ai safety institute consortium,aisic),以支持生成式人工智能的安全开发和部署。联盟由200多家实体组成,其中包括openai、谷歌、微软meta、苹果、亚马逊、英伟达、palantir、英特尔、摩根大通和美国银行等,以及主要学术机构和政府机构。雷蒙多在声明中表示:“在制定标准和开发我们所需的工具以减轻风险并利用人工智能的巨大潜力方面,美国政府可以发挥重要作用。”该联盟将设在商务部国家标准与技术研究院(nist),其任务是执行拜登总统去年10月人工智能行政命令中概述的优先行动,“包括制定红队指导方针、能力评估、风险管理、安全保障以及对合成内容加水印”。
    具体来说,联盟将履行以下职能:(1)知识和数据共享,(2)跨学科研究与开发,(3)了解ai对社会和经济的影响,(4)促进技术和数据合作,(5)简化联邦机构ai安全投入,(6)评估和评价ai系统。为创建一个持续联合研究和开发的方式,aisic的工作将是公开和透明的,并为有关各方提供一个枢纽,以共同建立可信和负责任的ai的测量科学。
    2.美国众议院宣布成立跨党派人工智能特别工作组
    2月20日,美国国会众议院宣布,将成立一个以人工智能(ai)为中心的两党特别工作组,旨在应对人工智能技术的迅猛发展。工作组由共和党和民主党领导,将制定监管框架和政策报告,促进跨党派合作推动人工智能领域立法进展。成员来自两党,共同面对人工智能带来的经济和社会挑战。
    美国众议院议长约翰逊指出,“由于人工智能的进步有可能迅速改变我们的经济和社会,因此国会必须以两党合作的方式来理解和规划这项变革性技术的前景和复杂性。”
    3.美国国际开发署合作出版《全球发展中的人工智能手册》
    美国国际开发署(usaid)与美国国务院、美国国家标准与技术研究院(nist)计划合作出版《全球发展中的人工智能手册》(aiinglobaldevelopmentplaybook)。该手册旨在采用美国国家标准与技术研究院的《人工智能风险管理框架》中的要素和原则,将人工智能风险管理框架的原则应用于更广泛的国际社会,从而为在运营过程中建立或部署人工智能应用的组织或个人提供指导,同时该手册也强调了在不同地理文化背景下理解人工智能相关风险需要多方面的专业知识。
    4.美国司法部首次任命“首席ai官”
    2月22日,美国司法部任命了首位专注于ai的官员——研究技术与法律的普林斯顿大学教授乔纳森?梅耶(jonathan mayer)将担任首席科技顾问、首席ai官。
    乔纳森?梅耶将领导一个新成立的执法和民权官员委员会,该委员会将就人工智能系统的道德和有效性向司法部长和其他人员提供建议,并努力招募更多的技术专家加入该部门,同时,该部门正努力应对ai对联邦执法和刑事司法系统的潜在变革性影响。美司法部长梅里克?加兰在声明中表示,“司法部必须跟上日新月异的科技发展步伐,以履行我们维护法治、确保国家安全和保护公民权利的使命。”
    5.美国专利商标局发布关于人工智能辅助发明的发明指南和示例
    为了激励、保护和鼓励人们对通过使用人工智能实现的创新进行投资,并向公众和美国专利商标局(uspto)的工作人员明确人工智能辅助发明的可专利性, uspto 在《联邦公报》上发布了一项新的指南。该指南履行了该机构根据《关于安全、可靠、可信地开发和使用人工智能的行政命令》所承担的义务。
    这份指南在授予专利保护以促进人类创造力的发展和对人工智能辅助发明的投资之间取得了平衡,同时又不会不必要地为未来的发展而锁定创新。该指南通过接纳人工智能在创新中的使用并关注人类的贡献来做到这一点。”
    6.欧盟27国代表一致支持《人工智能法案》文本
    2月2日,欧盟27国代表投票一致支持《人工智能法案》文本,标志欧盟向立法监管人工智能迈出重要一步。说明“谈判者在创新与安全之间找到了完美平衡”。《人工智能法案》仍需要提交欧洲议会批准。如果获得批准,相关规则将分阶段实施,其中一些禁止性规则将在该法律通过六个月后生效,与通用人工智能模型相关的某些规则将从2025年起适用。
    欧盟委员会于2021年4月提出《人工智能法案》提案的谈判授权草案。2023年12月,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议。此后,包括法国、德国在内的一些国家对法案文本表达异议,担忧法案对先进人工智能模型的严格监管将阻碍欧洲人工智能的发展。为了解决这些担忧,欧盟委员会在人工智能领域推出多项支持创新的措施,建立新的监管机构“人工智能办公室”负责该法案的实施。
    7.美国联邦加州法院驳回针对openai的部分版权诉讼
    2月13日,美国联邦加州地区法院驳回了喜剧演员 sarah silverman、michael chabon 和 ta-nehisi coates 等作者针对 openai 提起的部分版权诉讼。被驳回的起诉指控 openai 未经授权使用他们的书籍来训练其 chatgpt 语言模型,构成了版权侵权和不当得利。法院认为原告没有足够的证据证明作者的作品与chatgpt 输出之间存在相似性。
    openai与其他科技公司联合声称,他们的人工智能训练符合合理使用原则,并且这些法律行动威胁着人工智能行业。针对 openai 的诉讼被部分驳回对于使用作者的作品来训练人工智能模型具有影响。
    该案提出了关于人工智能开发中合理使用界限的问题,影响了 openai 和其他面临类似法律挑战的科技公司。该案凸显了围绕人工智能行业实践正在进行的法律辩论,可能影响未来的监管并塑造数字时代的知识产权格局。
    8.英国:发布关于负责任ai开发技术的指南
    2月12日,科学、创新与技术部(dsit)发布了一份名为《ai保障入门》(introduction toaiassurance)的指南。dsit强调,该指南旨在支持组织更好地了解如何使用ai保障技术来确保安全和负责任的开发和部署ai。
    9.英国寻求与欧盟在人工智能政策框架和版权问题上保持一致
    2月16日,作为科技关系升温的一部分,英国人工智能与知识产权部长乔纳森·贝里访问欧盟总部布鲁塞尔时使用了积极的语言。然而,欧盟和英国在监管该技术方面仍然采取截然不同的方法。
    英国政府致力于对人工智能监管采取支持创新的方法,并寻求与包括欧盟在内的国际伙伴就此事密切合作。
    由于加入了国际条约,英国和欧盟已经就版权作品达成了相互保护协议。英国在脱欧后修改了其版权法,以保留其作为欧盟成员国时有效的大部分利益和保护。
    英国政府正在根据五项核心原则采用跨部门的人工智能监管方法。其目的是通过将现有的技术中立监管框架应用于人工智能来平衡创新和安全。政府还认识到,未来可能有必要采取立法行动,特别是对于通用人工智能系统。
    10.日本今年将推动ai监管立法
    日本执政党将提议政府在2024年内出台一项监管生成人工智能(ai)技术的新法律。为了解决围绕ai的虚假信息和侵权等问题, 日本自民党ai项目团队将为基础模型开发商(openai 等)起草初步规则,包括刑事法规。
    11.第二届全球人工智能伦理论坛举行
    2月5日,第二届全球人工智能伦理论坛上,联合国教科文组织表示,与八家全球性科技机构和公司签署了一项与人工智能相关的协议。根据相关协议,这些机构和公司将结合教科文组织《人工智能伦理问题建议书》中有关ai伦理的价值观和原则,设计和使用ai系统。这是私营企业首次在ai领域与联合国合作。协议规定,为符合安全标准,并识别ai的不良影响,必须进行尽职调查,并采取及时措施预防,减轻或纠正这些影响,使之符合各国法律的规定。协议还强调了前期测试的重要性。但鉴于市场上已有的ai系统迅速发展,协议还呼吁制定后期的风险评估和风险控制措施。
    12.全球开源安全组织发布ai大模型应用网络安全治理检查清单
    2月19日,全球开源安全组织owasp(open web application security project)发布了《ai大模型应用网络安全治理检查清单(v1.0)》。在这份长达32页的《检查清单》中,较完整地介绍了ai大模型部署应用时的安全原则、部署策略和检查对照表,适用于那些希望在快速发展的ai领域中保持领先地位的组织和机构,使他们能够在制定大型语言模型战略时,专注于制定一份全面的关键领域和任务清单。
    这份《检查清单》能够帮助所有类型的组织和机构在应用ai大模型时认知到以下四个要点:1)针对生成式ai的应用,企业需要采用不同的安全保护思维方式;2)ai技术带来了不对称的网络对抗模型,攻击者正在利用这些工具加速攻击;3)大模型工具的应用需要全面考虑的实施策略和方法;4)大模型工具的部署应用,需要使用现有的法律、法规作为部署策略指南,例如欧盟的《通用数据保护条例》(gdpr)和各类隐私安全法规等。
    在《检查清单》的第二部分中,详细概述了实施大模型时需要考虑的具体事项,以避免给组织带来不必要的安全性风险。这些事项涵盖了面向业务的措施(包括建立业务案例和选择合适的大模型解决方案)、风险管理措施(包括威胁建模、监控ai风险、实施以ai为重点的安全培训、ai红队测试等),以及法律监管合规方面的措施(如建立合规要求、实施测试、评估、验证和验证过程等)。
    13.国资委召开中央企业人工智能专题推进会
    2月19日,国资委召开“ai 赋能 产业焕新”中央企业人工智能专题推进会。焕新”中央企业人工智能专题推进会。国资委党委书记、主任张玉卓在会上讲话,中国科学院院士鄂维南应邀介绍人工智能创新发展情况。
    会议强调,中央企业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业。要夯实发展基础底座,把主要资源集中投入到最需要、最有优势的领域,加快建设一批智能算力中心,进一步深化开放合作,更好发挥跨央企协同创新平台作用。开展ai+专项行动,强化需求牵引,加快重点行业赋能,构建一批产业多模态优质数据集,打造从基础设施、算法工具、智能平台到解决方案的大模型赋能产业生态。会议上,10家中央企业签署倡议书,承诺积极向社会开放ai应用场景。
    14.我国编制首部脑机接口研究伦理指引
    2月6日,国家科技伦理委员会人工智能伦理分委员会编制了《脑机接口研究伦理指引》,系我国在脑机接口研究领域的首部伦理指引,明确开展脑机接口研究应确保研究具有社会价值,应主要致力于修复型脑机接口技术,强调通过技术的发展服务公众的健康需求。指引强调,在人体上开展脑机接口研究,应根据《涉及人的生命科学和医学研究伦理审查办法》等相关法规申请并通过伦理审查,需根据手术植入物、有源植入物指导原则和相关标准,进行安全性和有效性充分验证,包括提供生物相容性检测报告、型式检测报告、大动物安全性有效性报告等。 指引还进一步明确了开展脑机接口研究的一般要求,强调开展脑机接口研究需符合我国相关法律法规规定,遵循国际公认的伦理准则,以及科学共同体达成的专业共识和技术规范。
    《指引》对脑机接口技术中的术语和技术分类做了明确的界定与划分,澄清了伦理审查工作中可能遇到的概念模糊。《指引》还提出脑机接口研究的六项基本原则,分别是保障健康、提升福祉;尊重被试、适度应用;坚持公正、保障公平;风险管控、保障安全;信息公开、知情保障;支持创新、严格规范。
    15.东盟:发布人工智能治理指南
    2月2日,东南亚国家联盟(东盟)在2024年第四届东盟数字部长会议(adgim)上发布了ai治理和伦理指南。adgim强调,该指南将作为一个实用和可实施的工具,以支持ai解决方案的可信部署。
    16.中国法院作出全球首例aigc平台侵权责任判决
    2024年2月,中国广州互联网法院作出全球首例生成式ai服务侵犯着作权的生效判决。
    案件的原告是上海新创华文化发展有限公司。这是一家动漫ip代理商,拥有奥特曼系列形象在中国境内(不包括香港、澳门、台湾地区)的着作权独占授权。
    被告则是一家涉足aigc业务的网络公司,在这家公司的网站上,会员用户可以通过充值购买“算力”,再消耗“算力”使用专属的ai绘画功能。上海新创华文化公司发现,在被告平台提供的ai绘画功能中,输入诸如“画一个奥特曼”“奥特曼融合灰太狼”等词后,会生成出的奥特曼形象图片、奥特曼身体拼接灰太狼形象等图片,而其中涉及的奥特曼物料侵犯了复制权、改编权以及信息网络传播权。
    最终,法院经审理认为,被告的行为构成对案涉奥特曼作品的复制和改编。相对于原告提出的30万元索赔,法院最终定下被告需要向原告赔偿经济损失为1万元。此外,判决认定,平台作为人工智能服务提供者应当尽到合理的注意义务,包括建立投诉举报机制,提示潜在风险,进行显着标识等。
    17.网信办第四批深度合成服务算法备案清单
    2月18日,国家互联网信息办公室发布第四批境内深度合成服务算法备案信息的公告。从公布的清单中可以看到,共有266个算法上榜入列,涉及图像生成、视频生成、数字人、智能对话等多个种类,应用范围涵盖教育、游戏、电商等多个行业,阿里、腾讯、百度、网易等互联网企业,vivo、小米、oppo等手机厂商,美的、tcl 等家电厂商均位列其中。到目前,深度合成服务算法备案共546个。
    18.香港官方对28家机构完成人工智能数据保护合规审查
    2月21日,香港个人资料隐私专员公署在其官网上发文表示,为了解ai在香港的使用情况及其对个人隐私的影响,已于2023年8月至2024年2月期间向28家本地机构进行了例行审查。审查覆盖了包括通讯、金融及保险、美容、零售、运输、教育等不同行业及政府部门。审查显示,28家机构中的21家在日常运营中使用ai,这21家日常使用ai的机构中,有19家设有人工智能管理架构。只有10家机构透过ai产品或服务收集个人信息并采取相应的保障措施,其中8家在开发或使用ai产品或服务前有进行隐私影响评估。而在数据保存方面,9家机构会保留ai产品或服务中收集到的个人信息,且8家已明确个人信息的保存期限。
    通过此次例行审查,香港个人资料隐私专员公署建议开发或使用ai的所有机构:开发或使用ai的过程中如收集或处理个人信息的,须采取措施确保遵守相关规定,并持续监察及检视ai系统;制定开发或使用ai及设立ai内部管治架构,并为所有相关人员提供充足的培训;就开发或使用ai进行全面的风险评估(包括隐私影响评估),有系统地识别、分析及评估风险,包括隐私风险,并就有关风险采取适当的风险管理措施;与持份者进行有效地沟通及交流,以提高使用人工智能的透明度,并根据持份者的关注适时调整ai系统。
    19.贵州印发《算力券管理办法(试行)》
    2月21日,为落实《省大数据局等8部门印发〈关于促进全国一体化算力网络国家(贵州)枢纽节点建设的若干激励政策〉的通知》,贵州省大数据局近日印发《贵州算力券管理办法(试行)》。
    20.内蒙古发布:促进通用人工智能发展若干措施
    内蒙古自治区政务服务与数据管理局等部门联合印发《内蒙古自治区促进通用人工智能发展若干措施》,提出强化算力供给能力、提升数据供给水平、积极参与技术研究、推动创新场景应用、加强保障力度五方面 23 条具体措施,以推动内蒙古自治区通用人工智能技术快速发展和深度应用。
    《措施》要求,加快算力基础设施建设,提升算力统筹调度能力,推进算力资源协同利用,强化算力供给能力。畅通基础训练数据集获取渠道,加快公共数据开放和开发利用,推进行业数据高质量供给,提升数据供给水平。积极参与技术研究,支持大模型算法及技术研究,开展大模型行业应用研究和通用人工智能标准研究。推动创新场景应用,在智慧矿山,智慧电力,政务服务,智慧文旅, 智能教育,智慧医疗、生物,智慧农业,智慧牧场等领域开展试点应用,同时,推动在城市治理领域示范应用,为城市治理提供更加综合全面的辅助决策能力。
    《措施》明确,加强政府引导,发挥企业主体作用,通过加强组织实施、加大政策支持、加快人才培养、营造发展环境、加强安全保障等措施,予以通用人工智能发展有力保障。
    ——总结·点评——
    2024年2月,全球人工智能政策领域继续展现出多国政府对ai技术发展的高度重视与积极监管姿态,旨在平衡技术创新与安全、伦理考量,推动ai行业的健康与可持续发展。
    这些政策反映了国际社会在人工智能领域的共识:既要鼓励技术革新,推动产业升级,也要构建健全的监管框架,确保技术发展服务于社会福祉,避免潜在的负面影响。美国和欧盟的举措均体现了政府在引导ai发展方向上的主动作为,不仅关注技术本身的进步,更强调技术的社会责任、伦理考量及全球合作。通过跨部门、跨领域、跨国界的协作,这些政策为ai的未来发展设定了积极且谨慎的基调。