0
一年一度的打假晚会如期举行,“隐私数据”成为核心关键词。
不论是免费Wi-Fi盗取位置信息,还是儿童智能手表成为窃听工具,都在揭露一个事实:
技术的进一步扩张,正在压缩人们的隐私边界。
晚会又举了一个例子:用户只需要浏览网页,技术公司便可抓取MAC地址,然后匹配到手机号,方便营销公司精准营销。
受利益驱动,技术成了灰色产业链的掘金铲,用户所浏览的商品信息、浏览时长、兴趣爱好等非生物特征信息都是该技术的“原料”,成为另一个隐私泄露重灾区。
这实际上是去年「人脸识别」话题的延续,只不过隐私数据从人脸这类生物特征信息,变成了非生物特征信息,但本质上是对技术侵犯隐私的又一次曝光。
长久以来,围绕技术和隐私的讨论不胜枚举,人们对二者何为第一性并未达成共识,但基本上都承认,两者之间并非零和博弈,关键在于如何划分技术、隐私数据和商业行为的「边界」。
2021年的3·15晚会上,央视披露了多家企业非法抓取人脸数据,宝马、科勒卫浴等品牌被点名批评。
半年之后,便利蜂铺设摄像头采集数据事件再将数据隐私推上舆论高地。
两起事件不过是诸多企业收集数据的缩影,而在人们的生产生活中,这样的例子比比皆是:
上下班要刷脸打卡,进入小区要刷脸解锁,商场购物则少不了摄像头的“监控”。
这些只是线下场景收集的数据。在线上,用户的个人资料、兴趣爱好等数据同样会被抓取,用以推荐更为合适的商品、文章、图片、视频等内容。
在由大数据和互联网技术构成的数字化时代,人们已经无法避免被收集个人数据的情况,只不过线下收集的数据以个人生物特征信息(人脸、指纹等)居多,更容易引起人们的关注,而线上收集的个人数据,则尚未引起足够的重视。
但殊途同归,收集数据不是目的,让数据产生价值才是企业的追求。不论线上线下,围绕数据所产生的利益链条,已经深入到诸多企业的血管之中。
在这利益链条中,有的被称之为灰色交易,比如直接倒卖隐私数据,有的却又在法律监管之外,比如收集数据优化推荐算法,通过推送个性化商品和广告来达成交易。
“有效数据越多,价值量越大。”一位数据公司数据中心VP告诉掘金志,现在很多算法都需要大量数据来训练、优化,从而实现更加智能化的推送。
这也是诸多公司冒着风险去收集包括人脸在内的数据的原因:利用数据来调整营销策略,去触及更多有效用户,达成交易、产生收益。
简单举个例子:商户开业初期,数据分析发现女性消费者偏多,那么在随后的供货清单里,其产品也会倾向于女性。
另一个比较有趣的现象是,此前有很多APP,不给个人信息就无法用。
在众多APP的解释中,收取个人信息数据是为了更好地推荐内容,但“不给就无法用”实际上暴露了其真实目的:嘴里都是诚意,实际上干的都是生意。
“一方面,更好地推荐内容利于增强用户黏性;另一方面,APP要通过收集用户数据来构建用户画像,方便与广告主进行协商谈判,来谈合作。”
一名负责广告投放业务的员工表示,在结算方式一样的情况下,合适的投放平台,可以带来三方共赢的局面:
“广告主能降低有效用户的获客成本,APP所有方获得广告投放收益,而用户则得到了更多优质好看的内容。”
但这种“赢”实际建立在用户数据的基础上,换言之,这场数据交易,实则获益者只有两个:广告主获得精准曝光,获客成本进一步降低,并能从其他商品上进行转化;APP方则获得广告收益。至于用户,除了要被贩卖数据之外,还可能通过广告进行商品消费。虽然用户也可能不会花钱买产品,也不会产生任何直接经济损失,但通过其数据交易,其他两方获益,己方也会承担「交易成本」,即便这种成本不可见。
这正如纪录片《监视资本主义:智能陷阱》所言:“如果你没有花钱买产品,那么你就是待价而沽的商品。”
某行业人士告诉掘金志,由于相关方以提供服务为借口采集数据,消费者实际上处于弱势地位,即便消费者具备一定的警惕性和保护意识,在拒绝采集数据就无法享受基本服务的情况下,也不得不捏着鼻子签下这类“不平等条约”。
在这种不对等的关系中,生产者的强势与消费者的弱势,使得数据交易越来越泛滥,加上缺乏有效的监管措施,收集个人隐私数据的行为也愈发猖獗,逐渐走向失控。
对于许多人而言,生物特征信息比非生物特征信息的隐私保护层级更高。
通常情况下,生物特征信息(人脸、指纹等)与资金账户、社交关系等密切相关,一旦发生泄漏,所产生的风险损失在某种程度上是「可预知」的,损失也是相对「可控」的。
以人脸数据为例,发生数据泄露之后,用户首当其冲可预知到账户安全,然后通过各种手段冻结账户。
而非生物特征信息(兴趣、爱好等)由于风险损失的「不可预估」,普通用户很难有一个直观的认识。
例如,在注册APP时,用户被要求填写基础资料、个人爱好等信息。这个过程中,用户只需要支付时间成本,而不会产生直接利益损失,就能够获得更精准的信息推送服务。
但命运赠送的礼物,早已暗中标好了价格。
这些数据虽然不会直接带来损失,但危害或许更大。在这些数据的加持下,各种推荐算法横空出世,构建了一张张封闭的「信息茧房」,茧房里的用户们,成为一茬茬被收割的对象。
大数据杀熟可以说是比较明显的一类收割方式。
系统通过抓取用户在线时长、消费记录等特征值,将用户按标签分组,然后推送不同的折扣,给新用户优惠,老用户高贵。
人们常说的消费主义也与之相关,许多用户在购物平台上购买商品,系统会根据用户的浏览记录、时长、输入标签、好友等等,推送其可能喜欢的商品,并且一发不可收拾。最后用户可能买了一大堆并不实用的商品。
这两种都比较常见,但商家只是为了赚取更多利润,虽然面黑,却也至少在法律监管之内。
但从另一个角度看,基于数据产生的推荐算法,如果没有得到有效引导,那么将会带来「社会性灾难」。
品牌传播有一种常用技巧,叫培养用户心智。最典型的莫过于“钻石恒久远,一颗永流传”这句广告,把钻石和爱情画上等号,成为结婚不可或缺之物。实际上,钻石本身价值不如黄金,但仍有无数男女为之倾倒。
罗马的建成并非一朝一夕,培养用户心智,也不可能一蹴而就,而是潜移默化、春风化雨。
以最近被讨论得较多的豆瓣为例:
豆瓣曾于2012年上线了“豆瓣猜”功能,根据官方定义,该功能如下:
“你的个人推荐是根据你的收藏和评价自动得出的,每个人的推荐清单都不同。你的收藏和评价越多,豆瓣给你的推荐会越准确和丰富。每天推荐的内容可能会有变化。随着豆瓣的长大,给你推荐的内容也会越来越准。”
毫无疑问,该功能的初心是为了给用户提供更优质内容,包括现在许多短视频APP,在使用推荐算法的时候,直接目的是增强用户黏性,然后通过广告投放变现。
但这类推荐实际上会形成一个「信息茧房」,即用户在某一类别的内容下熏陶太久,很难再接收到其他跨行业的内容,从而造成信息阻塞。在这个「茧房」里面的用户,每天都受到同质化内容的冲击,思维也会受到影响,趋于单一甚至极端。
一份对豆瓣的研究表明,豆瓣由于是小组机制,以组为单位的信息交流较为封闭,受推荐算法影响,组内成员接收到的内容更为单一(精准)。整个小组就是一间房屋,只接受来自推荐算法的投喂,而拒绝跨行业交流,所以不难理解豆瓣出现的一些极端言论。
如果这种推荐算法被用于舆论战,比如在俄乌事件中,Facebook允许用户发表任何关于俄乌领导人的仇恨言论,那么许多人可能都会接收到更多类似言论,从而带来严重的社会问题。
所以,看起来没那么重要的数据,在推荐算法的放大下,影响也会被放大无数倍。即便一开始,推荐算法是出于好意,但若缺少有效监督,最终会酿成恶果。
“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人,人将置于什么条件下。”
德国存在主义哲学家雅斯贝尔斯如是说。
互联网、大数据、AI等新技术确实带来了生产生活的改变,同时重铸了商业模式,但技术与人之间的关系却产生了「滞后效应」。
所谓滞后效应是指,法律监管、民众意识的觉醒,落后于新技术的演变,这种时间差所导致的认知差异很容易引起争议,而这种争议又因利益主体而有着截然不同的态度。
以人脸识别为例,该技术已经广泛应用到视频监控、消费电子等场景,但不同的采集主体,人们却表达了不同意见。
比如,疫情防控需要采集人脸信息,几乎没有人表示反对,但对于商店收集人脸,却有百般不愿。
“对公权力的信服,使人们相信公权力收集人脸信息是为了大众安全与福祉。”
一位法律行业人士表示,这种信任在商业层面却恰好相反:当人脸识别技术被用于发展商业时,人们对生物特征信息相当敏感,甚至可以说抵触。
因为前者属于利益共享,并且有政府背书,人们相信前者有能力来保护个人数据安全。但后者是纯商业行为,消费者从中无法获得利益,并且存在很大的信任危机。
在这段时间差里,由于缺乏针对性的法律加以监管,隐私、技术、商业、监管四者之间存在一片模糊地带,成为灰色产业链的沃土。
《个人信息保护法》和《数据安全法》的出台,一定程度上规范了行业,但从监管层面来看,隐私与技术、商业行为之间的界限仍然不够明晰。
以生物特征信息为例,哪些信息可以采集、哪些信息不可以采集,什么时候能用,什么时候不能用,尚未有国家层面的正式法律依据做支撑。
举个例子,现在很多技术公司在做「智能商业」,也就是通过采集数据来给商户营销服务。人脸信息在《个人信息保护法》有明确规定,企业私自采集人脸并商用属于违法行为。
技术公司已经可以通过技术手段,比如数据脱敏,来规避掉人脸信息,而采集性别、年龄、穿着、用户行为等其他信息,这部分数据实际上处于上述提及的灰色地带之中。
这些数据能不能采?是一个问题。
另一个问题是,针对线上用户的推荐算法,其采集的数据范围、类型等要不要加以限制?
一位数据公司VP告诉掘金志,现在的大数据实际上处于线上线下融合发展的阶段,任何一端的监管缺失,都会带来很严重的问题。
虽然2022年1月出台了《互联网信息服务算法推荐管理规定》,对推荐算法进行规制,但在数据采集方面仍然缺少约束。
比如,今年315之后,淘宝、抖音、微博等APP上线了算法关闭键,用户可关闭“个性化推荐”,不过实际影响可能有限。
某行业人士表示,关闭“个性化推荐”存在弹性:其一,只是降低了内容的相关度;其二,仍然可以通过别的算法(如近邻算法)来感知消费者的喜好;其三,APP仍然可以采集隐私数据。
当然,这并不意味着该功能无用。在他看来,数据已经成为现代商业不可缺少的一部分,是发展数字经济的基础“资源”,几乎不太可能割裂数据与商业之间的联系。
“如果要划分隐私数据、技术与商业行为之间的边界,需要企业、消费者、监管方、媒体等多方参与。”
而这又将是一场持久的「利益博弈」。雷峰网(公众号:雷峰网)雷峰网
雷峰网原创文章,未经授权禁止转载。详情见转载须知。