信任建立在三大支柱之上:透明度、可解释性和公平性。
Enza 详细说明,透明度意味着公开 AI 系统的训练方式,并让用户能够理解决策过程。这是为了揭开 AI 常常成为用户的黑匣子的面纱。
另一方面,可解释性意味着为人工智能系统根据其认知过程做出的决策提供清晰的解释。必须以一种让用户充满信心的方式理清机器逻辑。
最后,公平性确保人工智能系统不会歧视或偏袒任何群体。人工智能必须促进包容性和平等,而不是阻碍它。
如果在人工智能治理中优先考虑这三个要素,则可以增强人们对人工智能的信任,从而促进其广泛应用。
人工智能监管:驾驭新兴格局
人工智能的采用与人工智能监管的不断加强相吻合。Enza 的讨论涵盖了人工智能监管的出现,主要是在美国和欧洲,包括州级人工智能法案和新的欧盟人工智能法案,这些法案可能成为高风险人工智能用例风险缓解的全球标准。一个关键点是关注基于风险的人工智能监管方法,而不是监管技术本身。
→ 获取欧盟人工智能法案清单
各组织应使用NIST和ISO等公认的框架,对其 AI 的使用进行风险评估,并为从 2 月份开始对不可接受的 AI 应用的潜在执法做好准备。
利用 Dataiku Govern 实现 AI 治理
随后,Dataiku 的 AI 治理专家 Ben Montgomery 开始阐述组织如何使用 Dataiku Govern 轻松驾驭 AI 治理。