跳过导航
跳过mega-menu

通过验证保护AI模型 & 验证


AI安全顾问为您服务

目前的人工智能软件市场估计为126万亿美元[1], 从提供客户推荐的聊天机器人, 到人工智能驱动的索赔处理和基于图像的汽车保险估计. 然而,企业和政府机构都发现,人工智能模型的好坏取决于数据和用于训练它们的过程, 因为所产生的预测不仅是不正确的,而且还包含歧视性的偏见.


设置场景, 工作和养老金部(DWP)的人工智能福利欺诈检测系统错误地标记了200多个,因福利欺诈导致约4万英镑的损失.浪费了400万在不必要的调查上[2]. 出于同样的原因,加拿大航空公司被一名客户起诉,因为后者从聊天机器人那里收到了有关丧亲费索赔的错误建议[3]. 最终到达VET, 这是一个旨在防止退伍军人自杀的人工智能系统, 是否发现男性退伍军人比女性退伍军人更优先提供急需的支持[4].

 

[1] http://www.statista.com/statistics/607716/worldwide-artificial-intelligence-market-revenues/

[2] http://www.theguardian.com/society/article/2024/jun/23/dwp-algorithm-wrongly-flags-200000-people-possible-fraud-error

[3] http://www.theregister.com/2024/02/15/air_canada_chatbot_fine/

[4] http://www.military.com/daily-news/2024/05/23/vas-veteran-suicide-prevention-algorithm-favors-men.html


各种政府组织,如欧盟,已经制定了欧盟人工智能法案, 鼓励合乎道德和负责任的人工智能应用. 预计将于今年晚些时候生效, 该法案的一部分要求人工智能模型通过对抗性测试进行定期评估,并要求人工智能工程师提供结果文档. 大部分人工智能应用都是内部开发的, 公司如何测试其人工智能模型的潜在漏洞和偏见,以确保合规性? 这就是我们的SAIVV平台发挥作用的地方.


SAIVV是一个突破性的基于网络的平台,允许组织在向外界发布之前彻底评估和加强他们的人工智能应用程序. 由UKRI CyberASAP创业加速器计划资助, 它使用可解释的人工智能(XAI)以及人工智能模型验证技术,使组织能够:

  • 评估其人工智能应用的安全性和隐私性;
  • 检测他们的人工智能应用是否存在漏洞和预测偏差;
  • 监视所使用的训练数据是否存在任何有毒数据.


我们希望与您交谈并了解您的组织人工智能安全需求, 了解我们如何根据您的需求定制SAIVV. 更具体地说,我们希望在接下来的几周里有15分钟的时间来谈谈你的想法:

  • 如何在你的业务运营中使用人工智能;
  • 你对人工智能安全和伦理有何看法?
  • 您认为SAIVV如何支持您的业务运营.


对于您的参与,我们将提供3个月的免费组织网络和人工智能咨询. 我们将与您合作,改进您的组织网络和人工智能采用策略. 这将在咨询开始时根据严格的保密协议进行.


如果您有兴趣与我们交谈,请联系博士. 托马斯·温(托马斯。.thu_yein@桑德兰.ac.uk)开始.


让我们朝着一个值得信赖和负责任的人工智能成为生活方式而不是例外的未来努力!


写的:

Dr. 托马斯赢得

计算机科学学院副院长

理工学院

桑德兰大学

十大正规博彩网站评级

在这里注册