我国视障人群有1700万人,弥合数字鸿沟、让弱势群体享受到数字时代的发展红利,是互联网公司的平台责任所在。记者近日获悉,蚂蚁集团已完成了“空中手势”验证码识别方案的研发。该方案利用“行为识别”技术帮助视障群体通过“验证码”关卡,此外蚂蚁计划把该方案免费开放给更多企业。
4月28日,在出席科学公益组织 “未来论坛” 的活动中,蚂蚁集团首席AI科学家漆远透露了上述消息。他表示,技术研究者和开发者对于AI公平性理念的认同和对公平性问题的了解,是用户公平权益保护意识的重要体现。
数据显示,中国共有超过1700万视障人士,这意味着平均不到100个人中就有一位视障人士。目前主流的智能手机系统会自带读屏功能,视障用户的手触摸到屏幕上,就会听到相应的文字,进而顺利地使用智能手机。
然而,这样的“无障碍体验”并非总是顺畅的。目前,移动应用端上“图形滑块验证码”被广泛使用,以防范黑产利用机器批量刷单抢票等恶意行为。但由于该方案对于视觉能力的要求,视障人群无法顺利通过验证码关卡,这已经成为视障群体数字生活中最大的困扰之一。
有行业人士认为,AI模型在决策中,将视障人群与黑产一起阻挡在了数字化服务的大门之外,客观上造成了弱势群体的公平性权益受损。
蚂蚁集团首席AI科学家漆远透露,经过一段时间的努力,蚂蚁安全实验室已经完成一套“空中手势”验证码识别方案的研发,可以利用“行为识别”技术帮助视障群体通过“验证码”关卡。目前,这套方案已进入最后的开发测试阶段,即将在支付宝上线。
他介绍,蚂蚁集团将把方案免费开放给更多企业,以鼓励越来越多的企业能够参与到AI公平性思考、解决方案探索的工作中来。
保障用户权益,让技术的发展真正服务于人,是每一位科技从业者和每一家科技企业的责任。
在漆远看来,在AI系统被越来越广泛使用的今天, AI的可信与公平性发展面临着三大挑战:第一,如何确保AI系统的可靠性、抗打击性、可解释性;第二,如何发展可落地的隐私计算技术;第三,如何从法律、社会及技术的多视角理解和定义AI公平性,减少数据和算法偏差,推进AI公平性的落地。
他提出,借助AI公平性技术的探索和研究,研究者有机会从法律和社会层面理解和定义“公平性”,驱动技术,有效防范“非人为”不公平性问题产生。
“AI公平性技术的发展将是未来十年AI领域的重要课题,这绝不是任何一家公司能够实现的,需要唤起全行业的重视和协作”, 漆远表示,如果说,可信性决定了人工智能技术能走多远,而公平性则决定了人工智能技术能走多快。可信与公平,已经成为制约数字化时代人工智能技术发展的核心因素,也成为了全行业当前及未来,共同面临的话题。