谨防人工智能“风控”成风险

发布时间:2024-04-25 20:15:58 来源: sp20240425

原标题:谨防人工智能“风控”成风险

近年来,人工智能技术快速渗透各行各业,金融业也不例外。不少金融机构开始尝试将人工智能技术应用于风险防控领域,用科技创新来防范金融风险。

当前,我国在“人工智能+风控”领域进行了积极的尝试与探索,与国际金融业同行相比,具有一定的先发优势。在2023年7月的世界人工智能大会上,腾讯对外发布了金融风控大模型。同年11月,腾讯与中国信息通信研究院、中国科学技术大学、新加坡南洋理工大学、中原消费金融、微众银行等科研院校及金融机构联合制定了全球范围内首个金融风控领域的大模型国际标准。

人工智能技术会为金融风控带来什么?理论上,人工智能赋能风控,减少了人为失误和干扰,可以提升风险识别的效率和准确性。然而,考虑到人工智能技术是尚在发展的新事物,仍不成熟,在金融风控领域贸然推广可能带来新的风险。

最令人担忧的是数据泄露的风险。目前,许多金融机构会选择与具有人工智能技术的科技公司在风控领域展开合作,这些合作往往会涉及数据共享。人工智能大模型依靠大量的样本数据进行训练,数据的规模和质量对风控的准确性有着至关重要的影响。理论上,数据越丰富,大模型精准用户画像的能力越强,在信贷审批等方面识别风险的准确度就越高。然而,随着越来越多的数据被共享,隐私能否被有效保护就成了新的风险挑战。值得强调的是,金融数据不仅具备数据的一般特性,更包含了国民账户信息、企业资金流转等重要内容,这意味着金融数据一旦泄露,可能会带来比一般数据泄露更大的风险。

除了数据泄露外,法律风险同样不容忽视。从历史上看,法律法规的修订往往滞后于新技术的应用。目前,人工智能技术还存在因数据和算法失误生成虚假内容的可能,并在一定程度上造成用户歧视。一旦大模型生成不准确的金融风控报告,将很难分清是科技公司提供的技术不可靠,还是金融机构提供的数据不可信,这使得法律层面的责任难以被界定,容易出现金融机构和科技公司相互推诿扯皮的现象。在扯皮过程中,客户贷款审批等合理诉求就可能受到拖延,风险最终由客户买单。

中央金融工作会议提出,要全面加强金融监管,有效防范化解金融风险。针对人工智能技术在金融业应用可能带来的新风险,一方面,要完善法律法规,保障人对人工智能技术生成结果合理质疑的权利,确保人工智能技术受到责任追究机制和透明、公平、安全等原则的制约;另一方面,要有效管理金融数据信息,稳健、谨慎地推动人工智能技术应用,不断提高风控技术,对风险管理和预测模型改进优化,让技术向好向善,预防人工智能技术在金融领域应用带来的潜在风险。

(责编:方经纶、陈键)