人工智能(AI)的快速发展为企业带来了新的机遇,但也给它们带来了监管和道德挑战。我们的人工智能治理检查支持公司满足人工智能法规(EU KI-VO)和其他规则、标准和法规的复杂要求,最大限度地降低风险并增强利益相关者的信任。
EU KI-VO – 现在到底发生了什么变化(目标和优先事项)?
《人工智能法规》(AI法案)是欧盟(EU)的一项法规,在此基础上欧盟创建了第一个人工智能共同监管和法律框架。该法规于 2024 年 8 月 1 日生效,但该法规的规定并不立即适用。相反,提供了 6 至 36 个月的过渡期。
人工智能法规涵盖某些类别的人工智能系统,包括生物识别、关键基础设施、教育、就业、司法和执法、移民和边境管制等领域使用的人工智能系统。专门用于军事目的、维护国家安全、研究目的或非专业应用 护理院电子邮件列表 的人工智能系统不包括在内。目的是促进人工智能在欧盟的开发和使用,同时最大限度地降低相关风险。人工智能法规根据其危害风险对非豁免人工智能应用进行分类。有四个级别——不可接受、高、有限、最低——以及通用人工智能的附加类别。
禁止具有不可接受风险的应用程序。这包括使用潜意识技术来操纵、利用人的弱点或做出可能导致歧视的社会评估的人工智能系统。
高风险应用程序必须满足严格的安全性、透明度、稳健性和准确性要求,并接受合规性评估。这包括但不限于关键基础设施、教育、人力资源、执法、移民、边境管理和司法系统中使用的人工智能系统。
低风险应用程序须遵守某些透明度义务。其中包括充当聊天机器人或执行情绪识别的人工智能系统,用户必须了解与人工智能的交互。
风险最小或没有风险的应用程序不受任何监管要求的约束,但欧盟委员会仍建议考虑可信赖人工智能的自愿标准。大多数人工智能应用程序都属于这一类。此类系统的提供商可以自愿遵守行为准则。
对于用途非常通用或性能特别高的人工智能系统,应该设定额外的、更高的评估标准。
AI 法规还威胁对违规行为处以高额罚款——最高可达上一年全球营业额的 7% 或 3500 万欧元——因此远高于 GDPR 违规行为的罚款。因此,公司必须确保其人工智能系统符合法规要求,以避免高额罚款。
根据潜在风险对人工智能系统进行分类,来源
其他相关法规、规章、制度
人工智能在企业中的实施不仅需要技术专长,还需要遵守各种监管和道德标准。人工智能治理可以定义为一套规范人工智能在各个领域使用的框架和指南。目的是确保人工智能系统的负责任开发和应用符合道德、法律和社会标准。