知识亮点 2 April 2026

越南新《人工智能法》(“《法案》”)于2026年3月1日正式生效。该法案于2025年12月10日经国会通过,是越南首部全面、专门规制人工智能(“AI”)的独立法律框架。《法案》通过设立专门的AI系统风险监管框架,对第71/2025/QH15号《数字技术产业法》形成补充,而《数字技术产业法》中与AI相关的条款仍继续并行适用。有关《数字技术产业法》的更多内容,详见下方本所文章《越南 | 设立数字技术框架并启动加密资产市场试点项目》。

《法案》确立了越南关于AI活动的政策,其中明确提出将发展AI作为经济增长、创新与可持续发展的核心驱动力。

本文概述《法案》核心条款。

适用范围

《法案》适用于越南国家机关、组织、个人,以及在越南境内参与AI系统研究、开发、供应、部署及使用(“AI活动”)的境外组织与个人。仅用于国防、安全及密码领域的AI活动,不适用本《法案》。

《法案》规制越南境内的AI活动、相关组织与个人的权利义务,以及国家对AI活动的管理。

AI系统使用责任

《法案》对“AI系统”定义为:基于机器构建、具备不同程度自主性的AI能力、部署后可自适应调整的系统;该系统依据明确设定或隐含形成的目标,从输入数据中推理生成预测、内容、建议或决策等输出,可对物理或数字环境产生影响。

若AI系统发生严重故障,相关责任如下:

  • 开发者,即对AI模型、算法或系统的全部或部分进行设计、构建、训练、测试或微调,并对技术方法、训练数据或模型参数实施直接控制的组织或个人,须立即采取技术措施整改、暂停或召回该AI系统,并同步通知主管机关。
  • 供应方,即以自身名称、品牌或商标将AI系统推向市场或投入使用的组织或个人(无论该系统由其自行开发或委托第三方开发,“供应方”),须立即采取适当技术措施整改、暂停或召回该AI系统,并通知主管机关。
  • 实施方及使用者须立即通过集中式一站式AI电子政务门户(“政务门户”)记录并上报事件,并配合相关方开展事件处置工作。实施方指在专业、商业或服务活动中使用其管控下的AI系统的组织或个人(个人及非商业用途除外);使用者指《法案》定义的直接与AI系统交互或使用该系统输出结果的组织或个人。

国家主管机关负责接收、核实并指导事件处置,必要时可要求暂停、下架或重新评估AI系统。事件上报与处置均通过政务门户开展。

透明度要求

《法案》要求AI系统供应方:

  • 保证与人类直接交互的AI系统在设计与运行上使用户可感知其与系统交互,法律另有规定的除外;且
  • 保证AI系统生成的音频、图像及视频内容按政府规定以机器可读格式加注标识。

实施方须:

  • 若提供由AI系统生成或编辑的文本、音频、图像、视频内容可能导致公众对事件或人物真实性产生混淆的,除法律另有规定外,应向公众明确告知;且
  • 对使用AI系统生成或编辑、用于模拟或模仿真人容貌与声音或重现真实事件的音频、图像、视频,清晰标注以区别于真实内容。

风险分级监管框架

《法案》对AI系统设立三级风险分类监管框架,使越南监管模式与欧盟AI法案等全球主流规则接轨。

AI系统须在部署前按潜在影响与风险等级分类,并承担相应监管义务。供应方作出的风险分类结果由采购方承继,采购方负责确保系统在使用期间的安全与完整性。

若AI系统发生修改,采购方/所有权人应与供应方协商评估原风险分类是否仍然适用。供应方须在AI系统投入使用前,通过政务门户向科学与技术部报送分类结果。

被归类为高风险的AI系统,须在部署前及运行期间发生重大变更时开展合格评定,即确认系统符合适用要求的程序。

不同风险等级AI系统的责任如下表所示:

类别

责任

高风险:可能对生命健康、组织与个人合法权益、国家利益、公共利益及国家安全造成重大损害的AI系统。

AI系统供应方须持续履行风险管理、技术文档与运行日志留存义务,并向主管机关提供检查、审计所需信息。

部署高风险AI系统的主体须在分类范围与风险等级内运行、监测系统,保障数据安全与保密,防范未经授权干预,持续符合适用技术标准与AI监管要求。

在越南提供高风险AI系统的境外供应方须在越南设立法定联络点。若该系统使用前还需强制合格认证,供应方还应在越南设立商业实体或指定授权代表。

中风险:因用户无法识别交互对象为AI系统或AI生成内容,而可能产生误导、影响或操纵用户的AI系统。

供应方应主管机关要求,就系统预期用途、功能运行、核心输入数据、风险管理及安全措施作出说明(不得泄露源代码或商业秘密)。

实施方对系统运行、风险管控、事件处置及在检查、审计或事件调查中保护合法权益承担责任。

使用者须遵守告知与标识要求。

低风险:不属于高、中风险类别,因此仅受最低限度监管干预的AI系统。

供应方须在有证据表明存在违法行为或对组织、个人合法权益造成不利影响时,向主管机关作出说明。

实施方在上述情形下亦须作出说明。

使用者可合法使用系统,并对自身使用行为独立承担责任。

AI 基础设施与监管体系

为实施《法案》,越南将设立政务门户与国家AI系统数据库,并设立AI沙盒机制。

AI沙盒

《法案》设立AI系统受控测试机制,该机制依据科技领域相关法规实施。受控测试结果可作为合格评定认定依据,在特定情形下可豁免、减轻或调整合规义务。若出现安全、保密或权利相关风险,主管机关可暂停或终止测试。

AI政务门户

政务门户作为监管对接核心平台,功能包括受控测试登记、AI系统分类报送、严重事件上报、定期更新,以及合格评定结果与执法行动公开公示。该门户同时作为衔接扶持政策、资金机制、基础设施与共享数据资源的平台。

国家数据库与基础设施

同步建设的集中管理国家AI系统数据库,将为监管、监测与公众透明度提供支撑。政府将另行发布关于上述两大系统运行、管理与访问机制的细则。

《法案》进一步规定发展国家AI基础设施,包括算力、共享数据资源、测试与模型平台。由国家、企业及社会组织建设的AI基础设施须互联互通,并按照安全、保密与数据保护要求运行。值得注意的是,关键领域被认定为“重要”的AI应用须部署在国家AI基础设施上,以保障安全、保密与国家有效监管。总理将发布并定期更新国家人工智能战略,各部委与地方政府须将其纳入发展规划。

禁止行为

《法案》明确禁止滥用AI系统,包括利用或劫持AI系统实施违法行为、侵害组织与个人合法权益。同时禁止开发、部署或使用AI系统实施欺诈性操纵、利用弱势群体、传播严重危害国家安全或公共秩序的虚假内容、非法使用数据、阻碍法定人工监督机制,以及隐瞒或伪造强制披露信息或标识。

上述禁止规定不受AI系统风险分类限制。

检查与执法

《法案》规定AI活动检查依据2025年《检查法》(第84/2025/QH15号)实施,指定国家主管机关对从事AI活动的组织与个人开展合规监管。

在检查或审计期间,相关组织与个人须提供技术文档、运行日志、训练数据及其他必要信息,以便开展违法行为或事件调查与责任认定,但应遵守国家秘密、数据保护、个人信息与知识产权相关法律规定。

违法行为处理与民事责任

《法案》对违法行为设定从行政处罚到刑事责任的多层次处罚措施。

若高风险AI系统已按相关法规管理、运行与使用但仍造成损害,由实施方向受害方承担赔偿责任。实施方赔偿后可向责任方追偿。若损害完全因受害方故意过错导致,或因不可抗力、紧急避险造成,除法律另有规定外,不产生赔偿责任。

若AI系统被第三方非法侵入、控制或干预,由该第三方对由此造成的损害承担责任。若实施方或供应方对非法侵入或干预存在过错,应承担连带责任。

政府将另行发布AI系统违法行为行政处罚细则。

伦理与影响评估

《法案》规定将发布国家人工智能伦理框架,指导安全、透明、负责任地开发与部署AI系统。

此外,在国家管理或公共服务领域运营高风险AI系统的组织,须编制影响评估报告,内容包括风险识别、缓释措施及人工监督机制。该报告在保密保护前提下应予公开。

实施安排

在《法案》生效日即2026年3月1日前已投入运行的AI系统,可在下列过渡期内继续运营:

  • 医疗、教育、金融领域:自生效日起18个月
  • 其他所有领域:自生效日起12个月

但若主管机关认定某AI系统存在重大损害风险,可责令暂停或终止运行,不受上述过渡期限制。

相关链接:

越南 | 设立数字技术框架并启动加密资产市场试点项目

查看更多观点

知识亮点 31 March 2026

新加坡海事及港务管理局规划新加坡海事生态系统长期发展方向

查看更多