AI算法控制财务未来风险不容忽视

2025.3.29 8:18 上午

AI算法控制财务未来风险不容忽视

AI算法控制财务未来风险不容忽视…

公司越来越多地使用算法和人工智能(AI)来分析他们挖出的有关我们的大量数据,以确定我们资格获得的金融产品以及我们将为它们付出多少。这些复杂的工具在做出贷款决策时,雇主筛选工作申请以及在大多数州,在设定保费时通过汽车和家庭保险公司使用。

如果经过培训以确保公平和准确性,AI可以扩大获得信贷的机会并减少人类偏见引起的歧视。如果没有,它可能会造成巨大的财务伤害。

例如,如果AI拒绝您的贷款申请,则无法知道为什么做出该决定或使用了哪些数据。

“借助许多AI和机器学习模型,他们正在从社交媒体,手机上使用数字应用程序来吸收数据,而且您不知道他们拥有的数据库中有什么。”“甚至可能是其他名字相似的人,而不是您。”

大多数申请人不知道何时由AI做出决定。即使他们这样做了,那个决策过程也是不透明的,因此他们永远不会知道考虑哪些因素。AI工具可能会从Internet上删除有关不准确或完全错误的申请人的信息。

非营利性消费者联合会首席执行官苏珊·温斯托克(Susan Weinstock)说:“这是黑框问题。”Weinstock在最近一集Ofcheckbook的Consumerpledia Podcast上说:“如果数据糟糕,您将收到垃圾数据。”“然后,消费者完全受到了不良数据的摆布。监管机构甚至可能不知道该算法是有偏见的。”

去年,消费者报告和美洲消费者联合会给消费者金融保护局的一封信,即“算法歧视可能来自许多来源,例如“无代表性,不正确或不完整的培训数据,以及反映历史偏见的数据。”他们写道,这可以防止有色人种和低收入消费者获得负担得起的信贷。

在设计过程中,可以将偏差嵌入AI模型中,例如当“受保护的特征”(例如种族)直接使用或通过代理使用时。

例如,为贷款工具创建的数据库可能包括邮政编码,这似乎是开发人员的中立因素,但可以作为种族,收入,性别或宗教的代理。

贝尔解释说:“当您有代理歧视时,您正在歧视应有公平待遇的受保护类别的人,甚至没有真正关注他们受到模型受到伤害的事实。从本质上讲,这就是我们的情况。”

西雅图新闻 SeattleCH

AI算法控制财务未来风险不容忽视

支票簿要求行业贸易集团AI协会对此发表评论,但没有回应我们的要求。

消费者担心

消费者报告发现的2024年调查说,大多数美国人对AI对生活做出高风险的决定“有些不舒服”或“非常不舒服”,例如分析视频工作面试(72%),筛查潜在的租户(69%)(69%),并做出贷款决定(66%)。

当CR被问及在使用AI做出招聘决定的公司申请工作时,有83%的人表示,他们想知道该计划用于做出决定的个人信息,而93%的人表示,他们希望有机会纠正任何不正确的AI招聘工具。

允许机器做出重要财务决策的压倒性不适可能是有利的。研究表明,AI可以产生错误的结果并扩大有害偏见。

马萨诸塞州技术学院的生成性AI工具“具有其他误导性产出的潜力”。还发现它们为用户提供了“看起来真实的数据”。报告指出,这些不准确的“很普遍”,“他们赢得了自己的绰号;我们将它们称为“幻觉”。

需要护栏

消费者拥护者说,他们认为需要新的法律和法规,以保护消费者免受AI决策的不断扩展。

CR的Bell告诉Checkbook:“我们需要谈论AI如何公平和负责,并以帮助消费者而不是阻止他们退缩的方式使用。”“ [应该]清楚地披露何时使用算法工具,以便消费者知道正在使用AI。我们希望看到人们能够吸引人类”,如果算法拒绝其应用程序。

西雅图新闻 SeattleCH

AI算法控制财务未来风险不容忽视

消费者报告需要州和联邦规则,这些规则将在AI被用来做出有关消费者的“相应决定”时必须做的事情,例如,他们是否有资格获得贷款,被选为公寓租金,获得晋升,或者看到其保险R …

分享到Twitter: AI算法控制财务未来风险不容忽视

西雅图CH

西雅图新闻

西雅图特色链接

Instagram
Twitter
Facebook