0
雷锋网按:上世纪50年代就已经提出的人工智能,之所以能够近年再次“掀起”波澜,最为关键的就是机器学习技术。比如最为大众所知的围棋人工智能AlphaGo,就活用了机器学习技术中的蒙特卡洛搜索树、神经网络等一系列关键具体算法。就在这篇文章发布的同时,雷锋网承办的CCF-GAIR大会实际也在如火如荼地举行,在第三天的会议中就包括了机器学习专场。届时数位来自微软、Facebook的专家和学者将汇聚一堂,从应用、学术、行业分析等各个角度为你展示机器学习可能的未来。
在此次CCF-GAIR机器学习专场正式召开之前,雷锋网也专门采访了此次专场中的圆桌嘉宾、国内人工智能创业公司小视科技的副总裁周守业,以其业内视角回到了雷锋网的数个问题,以下是采访实录:
雷锋网:可以简单介绍一下小视科技目前业务中机器学习技术的应用范畴么?为了实现机器学习技术,小视科技背后构建了怎样的技术架构?
周守业:我们现在主要有两个方向,第一个是给互联网金融服务提供人脸识别技术。静默活体强调的是用户的非配合性,主动判定操作者是真人(活体)还是攻击源。具体的过程如下:
第一,当活体经过时,小视科技的人脸识别系统直接通过通过取景框直接捕捉,使用有别于传统微表情活体识别模式,在无需用户进行微表情等动作配合的情况下,直接通过取景框对人脸图像进行实时分析,主动判定操作者是否为活人;第二步,闸机或者安全闸口会把捕捉到活体的人脸特征在庞大证件照构建成的人脸检索图集中进行比对,找出最相似的一张或N张,判断是否为同一人脸;最后,根据不同的场景需求,闸机或者安全闸口返回用户信息和匹配度。整个识别过程都通过摄像头直接获取,以非接触、非配合的方式完成,方便快捷。
在应用场景方面,很多小视科技的客户都是互联网金融企业。这些企业对于服务质量的要求都非常高,同时他们对于用户身份验证的这一类操作基本上都是在线上完成,因此形成了非常强烈的需求。
雷锋网:结合目前小视的业务,您觉得机器学习应该如何转化为实际服务?并且为用户服务?机器学习如何才能够解决一些相对复杂的问题?
周守业:机器学习其实是一个非常大的范畴,绝大部分人工智能实际上都包含在内,小视科技本身主要专注在图像上,所以我们也是针对图像去选择自己的应用方向。当然,我们最终选择金融,跟我们创始人本身在金融这一块有一些基因积累有直接关系。
第二个是互联网金融发展所带来的机遇,很多传统和线下的资金都转到线上来了,这个转换过程中不可避免的有人工成本。就以互联网平台常见的借贷申请为例,每天申请的人数都是以“万”来计算的。假如只使用人工来处理这些用户提交的资料,比如身份证照片、人脸近照等等,明显是行不通的。
另外一个层面上,人工处理这一类的问题也存在隐患——道德风险。黑白不分、指鹿为马的情况也是有可能的。另外一方面,防范羊毛党同样是互联网金融平台提出的一个需求。通过人脸识别技术,就能够挑出一些恶意重复注册的用户。
从实际情况来看,上面这些问题都得到了不同程度的解决,首先是申请审核这一块,我们能够给他们节约大概80%到85%的人力成本。第二个是机器本身极度公平,自然也就降低了道德风险。最后一个我们通过进行比对就可以直接得出结果。
雷锋网:实际效果往往是最有说服力的,能否以小视科技为银行、消费金融等领域推出的服务说一下机器学习所带来的改变?究竟这个改变的服务有多大?对于原有的行业冲击有多大?
周守业:那我再补充一个案例吧,大学生入学的时候运营商往往会搞一些合同,甚至是直接将电话卡夹在录取通知材料里面。但这些电话卡必须拿本人的身份证才能真正开通,相对复杂的手续也直接导致了用户的流失,所以他们现在已经在测试用过APP的方式,在线上完成整个身份证识别开卡的动作。
雷锋网:从您的视角来看,机器学习技术接下来的发展关键点在哪里?是否会在短期内看到更多应用的出现?
周守业:人工智能依旧火热,但就我看来,其中机器学习的发展离不开几个关键点。第一点是人工智能技术应用需要技术本身不断突破和提高,第二点是针对不同的新场景对新技术进行选择,因为技术运用到产品里肯定是要解决一些痛点的。比如你可以提供这个产品的可用性或者体验度。
比如现在已经进入3.0时代的金融科技, 它里面就包括了很多技术,包括人工智能,包括大数据,包括云计算,包括区块链等等。
所以反过来看,技术的发展方向还是根据场景的来需求来发展,当然目前来看底层的算法和数据也相当重要。
雷锋网:您对于机器学习技术的终极期待是什么?希望小视科技能够在里面扮演怎样一个角色?
周守业:我之前看到有文章说,2045年人工智能就会最终取代人类大脑,人类行为将被机器掌控。但我真的不希望这种情况出现,因为我希望终极版的机器学习首先不会改变人传统的、正常的发展轨迹,同时还能给人类生活带来极致的体验。
当然,目前来看这件事还是有点远,我们目前还是要继续把人工智能这一块的能力做到极致,然后去给人类生活中的产品去各种赋能。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。