英国议会小组指出,人工智能监管缺口可能会使金融系统面临风险

CN
Decrypt
关注
3小时前

英国议会委员会警告称,人工智能在金融服务中的快速采用超出了监管机构管理消费者和金融系统风险的能力,令人担忧的是责任、监督以及对主要技术提供商的依赖。

根据本月早些时候由下议院下令印刷的调查结果,财政委员会表示,英国监管机构,包括金融行为监管局、英格兰银行和财政部,在人工智能在银行、保险公司和支付公司中普及的情况下,过于依赖现有规则。

“通过对金融服务中的人工智能采取观望态度,这三大机构正在使消费者和金融系统面临潜在的严重危害,”委员会写道。

委员会表示,人工智能已经嵌入核心金融功能,而监督并未跟上这些系统的规模或不透明性。

这些调查结果正值英国政府推动在经济中扩大人工智能采用之际,首相基尔·斯塔默承诺大约一年前通过这项技术“加速”英国的未来。

虽然指出“人工智能和更广泛的技术发展可能为消费者带来可观的好处”,委员会表示监管机构未能为公司提供关于现有规则在实践中如何适用的明确期望。

委员会敦促金融行为监管局在2026年底之前发布全面指导,说明消费者保护规则如何适用于人工智能的使用,以及在人工智能系统造成伤害时,如何根据现有责任规则将责任分配给高级管理人员。

正式会议记录预计将在本周晚些时候发布。

“值得称赞的是,英国在金融科技方面走在了前面——金融行为监管局在2015年推出的沙盒是首个此类项目,自那以来已有57个国家效仿。尽管脱欧,伦敦仍然是金融科技的强国,”总部位于上海的战略与增长工作室ZenGen Labs的联合创始人德莫特·麦克格拉斯告诉Decrypt

然而,麦克格拉斯表示,尽管这种方法“有效,因为监管机构可以看到公司在做什么,并在需要时介入”,但人工智能“完全打破了这一模式”。

该技术在英国金融领域已经得到广泛应用。尽管如此,许多公司对其依赖的系统缺乏清晰的理解,麦克格拉斯解释道。这使得监管机构和公司不得不推断长期以来的公平规则如何适用于不透明的、基于模型的决策。

麦克格拉斯认为,更大的担忧在于不明确的规则可能会阻碍公司尝试部署人工智能,导致“监管模糊性扼杀了那些谨慎行事的公司”。

当模型由技术公司构建、由第三方调整并由银行使用时,人工智能的责任变得更加复杂,麦克格拉斯解释道,这使得管理者对他们可能难以解释的决策负责。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接