一份最新的调查报告指出,为提高人工智能问责制,企业应该正面应对第三方风险。
调研机构Forrester公司最近发布一份名为《人工智能渴望者:告诫Emptor》的调查报告,报告强调了对人工智能工具中第三方问责制的日益增长的需求。
该报告发现,对人工智能缺乏问责制可能导致监管处罚、品牌声誉损害和客户流失,这可以通过执行第三方尽职调查,并遵循负责任的人工智能开发和部署的新兴最佳实践来避免。
报告指出,人工智能风险是真实存在的,不幸的是,它们并不总是直接在企业控制范围之内。报告指出:“在人工智能环境中,其风险评估由于零部件供应链的庞大而复杂化,对人工智能系统的输出具有潜在的非线性和不可追溯的影响。”
Forrester公司负责客户分析和人工智能的首席分析师报告作者Brandon Purcell指出,大多数企业与第三方合作创建和部署人工智能系统,因为它们内部没有必要的技术和技能来自行执行这些任务。
他说,“当企业无法完全理解组成人工智能供应链的许多部件时,可能会出现问题。错误标记的数据或不完整的数据可能导致有害的偏见、合规性问题,甚至在自动驾驶汽车和机器人方面也会出现安全问题。”
前方面临的风险
风险最高的人工智能用例是系统错误导致负面后果的情况。Purcell说:“例如,使用人工智能进行医学诊断、刑事判决和信用认定都是在人工智能错误中可能造成严重后果的所有领域。这并不是说我们不应该在这些用例中使用人工智能,只是在应用中需要非常小心,并了解其系统是如何构建的,以及它们最容易出错的地方。”
他指出,企业绝不能盲目接受第三方对客观性的承诺,因为实际上是由计算机来制定决策。他解释说:“人工智能就像人类一样容易受到偏见,因为它在向我们学习。”
面临第三方风险并不是什么新鲜事物,但是,由于其概率性和不确定性,人工智能与传统软件开发有所不同。Purcell警告说:“经过验证的软件测试流程不再适用。采用人工智能的公司就像病毒一样感染人工智能,而数据不足的形式最大程度地遭受第三方风险。”他建议,过度的供应商索赔和组件故障会导致系统崩溃,这是需要认真对待的其他风险。
预防步骤
Purcell敦促尽早并经常对人工智能供应商进行尽职调查。他说:“就像制造商一样,他们也需要记录供应链中的每个步骤。”他建议企业将利益相关者的不同群体召集在一起,以评估人工智能产生偏移的潜在影响。有些公司甚至可能考虑提供“偏见奖励”,以奖励发现并提醒您偏见的独立实体。”
该报告建议,开始实施人工智能计划的企业选择具有共同愿景的合作伙伴,以实现负责任的使用。报告指出,大多数大型人工智能技术提供商已经发布了道德人工智能框架和原则。报告称:“研究它们以确保它们传达了企业努力做到的内容,同时还评估了人工智能技术要求”。
该报告指出,有效的尽职调查需要整个人工智能供应链的严格文档。它指出,一些行业开始采用软件物料清单(SBOM)概念,即在资产运行期间维护资产所需的所有可维修零件的列表。该报告建议:“直到软件物料清单(SBOM)成为必需品,优先考虑提供有关数据沿袭,标签做法或模型开发的可靠详细信息的提供商。”
企业还应该在内部进行了解和评估,以了解如何获取、部署和使用人工智能工具。Purcell说:“一些组织正在招聘首席道德官,这些人最终负责人工智能问责制。”在没有这个职位的情况下,应将人工智能问责制视为一项团队运动。他建议数据科学家和开发人员与内部治理、风险和合规性同事合作,以帮助确保人工智能问责制。他说:“实际上正在使用这些模型来完成工作的人们,因为他们最终将为任何不幸承担责任。”
Purcell说,“不优先考虑人工智能责任的组织将容易犯错误,从而导致监管处罚和消费者强烈反对。在当前的取消文化氛围中,组织需要做的最后一件事就是避免人工智能导致可预防的错误,从而导致大规模的客户外流。”
Purcell警告说,限制人工智能问责制从来都不是一个好主意。他说:“确保人工智能问责制需要初期投入,但最终,性能更高的模型所带来的回报将显著增加。”