监管AI,欧盟想给全球定标准

本报驻德国特约记者 青 木

欧盟21日公布一套管理人工智能(AI)应用的法律草案,旨在为全球人工智能应用制定规则。欧盟竞争事务执委维斯塔格当天在新闻发布会上介绍称,按照法律草案,欧盟委员会将AI的应用场景按照风险程度,分为“最低、有限、高、不可接受”四个风险等级,等级越高的应用场景受到的限制越严格。

据德国电视一台22日报道,风险等级“最低”的场景包括基于AI的电子游戏、垃圾邮件识别软件等,此类应用场景不会受到约束;风险“有限”的场景包括聊天机器人等,由用户自行决定。“高”风险应用场景指可能对人的生命、生活造成严重影响的场景,如交通设备、教育培训、医疗辅助、信用评级等。对于此类场景,欧盟建议在启用前应履行严格义务,如足够的风险评估、高质量的数据交换、确保可追踪的活动记录以及必要的人工监督等。根据草案,企业若违反AI应用规定将遭重罚,首先是受到公开警告,之后产品可能会被下架,如屡犯不改则可遭到3000万欧元的罚款或罚没其年收入的6%。

不过,这一法律草案在欧洲引发争议。一些政党称赞欧盟此举是通过为全球指定标准,超越了中美两国在AI技术上的全球领先地位。经济界则大多持批评态度,德国机械与设备工程协认为, AI应用风险被欧盟“完全夸大了”,该草案会减慢欧洲的创新速度。《明镜》周刊也称,美国和中国在AI竞赛中处于领先地位,欧盟不但在竞争中“睡过了头”,现在还想为发展“拖后腿”,过于严格的法规会吓跑AI投资者。▲

相关新闻

    推荐阅读