论大数据“杀熟”的法律规制

发表于 2022-12-2 18:45:13 | [复制链接] | 打印 |上一主题| 下一主题

论大数据“杀熟”的法律规制

在互联网迅猛发展的时代,大数据平台在给大家带来方便的时候,还衍生出“大数据杀熟”的现象。我国现行有关法律法规中虽然对“大数据杀熟”进行了规制,但是由于种种问题,其实际规制效力仍然很难得到充分发挥,对于算法歧视这样的问题,也依然缺少规范。本文从国内大数据杀熟中所涉及到的算法歧视问题、算法黑箱及其他法律问题研究,以期能够为我国大数据杀熟相关立法与实践提供完善建议。关键词:大数据杀熟;算法歧视;算法黑箱;个人信息保护随着近几年云计算的发展,大数据等新兴互联网技术的广泛应用,使平台的操作越来越自动化。在为人们提供方便的同时,还衍生出“大数据杀熟”的现象。所谓大数据“杀熟”,就是互联网消费领域的经营者以采集的方式,对消费者的个人消费偏好、习惯和其他数据为用户提供精准画像,对同种类、同品质的货物实行差别定价,将消费者置于价格不平等状态,继而实现利益最大化之举。“大数据杀熟”现象,是大数据在精准营销过程中不断发展和成熟,为互联网企业所运用的产物。实际情况是,我国一些网络平台公司频频出现互联网杀熟情况,也就是对于老用户的定价要高于新用户、对于iOS系统的顾客而言,其售价要高于Android系统的新顾客。“大数据杀熟”由于本身的特性,很难被《消费者权益保护》所采纳、《电子商务法》和其他现有法律规制。《网络安全法》由于适用范围和对用户所设权利的局限性,不可能把算法全部纳入自己的规制范围。2020年10月1日生效的《在线旅游经营服务管理暂行规定》第十五条规定了数据的使用,虽为大数据杀熟算法规制提供了法律依据,但是它是部门规章,法律位阶不高。《个人信息保护法》于2021年8月20日经国家批准,对于个人信息采集合法,正当性、进一步澄清了必要的原则,由此,规范了大数据杀熟过程中,平台侵犯用户个人信息的问题,但是对于算法歧视这样的问题还缺少规范[1]。鉴于此,对于深入研究我国大数杀熟所涉及的算法歧视、算法黑箱等立法问题,有着重大的理论价值与现实意义。1大数据“杀熟”基本理论1.1大数据“杀熟”的特征大数据杀熟的主要特征表现为:①涉及领域广:各软件平台上都会出现大数据杀成熟,比如旅游类软件、打车类软件,购物类软件、视频音乐类软件、票务类软件,生活服务等,杀熟的内容还包括价格,品质、服务等等诸多方面;②涉及群众广:手机和其他电子产品已成为今天人们社会生活中的一个重要部分,手机中各类服务软件平台拥有广大使用人群,从,每一个用过电子产品的用户,都有可能是杀熟了的目标。以此为基础,筛选出杀熟对象,面向老用户。网络消费平台中老用户留下的数据信息较为丰富,且对于常见平台信任度高,消费黏度大。运营商正是利用这一点对老用户进行“杀熟”,并实行多种优惠补贴,以吸引新增用户,如此周而复始,可以占据较大市场份额。但经营者并非把老用户全部“杀熟”了,而是在准确地进行数据分析,对于价格并不敏感的老用户,或对于高价接受度较高的老用户,才能进行直接或间接调高价格。直接要求高价格,就是平台对价格的直接改变,使得老用户比其他普通用户付出了更多的代价;间接要高的价格,这就是平台创造的种种约束,让用户主动加价,其实没有必要,比如,刻意营造高峰时期打车难假象,找老用户要高价钱;③准确性高:大数据杀熟与传统杀熟相比较,其重要特征是利用大数据进行杀熟,经过剖析,能够非常准确的针对不同消费者不同消费行为特征进行分析,达到准确,高效杀熟目的。1.2大数据“杀熟”涉及的法律问题也许许多人都曾经历过,在电话里或者社交平台上提及某物品时,再次利用一些购物平台,可以“恰好”见到这类物品的介绍。如今,手机终端与互联网平台早已经摆脱简单工具属性,而且更像个人数据采集器,“蓄水池”。虽然《民法典》第1035条规定“处理个人信息的,应当遵循合法、正当、必要原则,不得过度处理”,但是海量网络平台客观上均有非必要甚至非法收集用户数据的现象。所以,数据安全这道“堤坝”若不及时筑起,然后,数据滥用这个“洪水”就会滔滔不绝了。因此,大数据杀熟的根源表现为算法与数据滥用,规制不清,规制大数据的“杀熟”行为,也需要在根源上加以解决[2]。2大数据“杀熟”的法律规制2.1算法歧视问题算法的歧视问题,不仅使得算法不能完全发挥自身的正向效用,也成了阻碍大数据科学和人工智能技术普及的一个不容忽视的问题。对用户来说,算法歧视问题对用户个人权益造成了侵犯。对于企业而言,算法歧视可能造成信息的错误、营销对象偏差等、职工择业范围窄等方面的亏损;算法歧视会通过对客户满意度的影响而间接地对客户的收入与声誉产生影响。算法歧视包括显性歧视和隐性歧视两大表现。显性歧视意味着算法被清晰地运用、对受保护群体进行种族分析、民族及其他有关属性,并且把它当作算法决策中的一个要素来考虑,继而造成了不公正待遇。与显性歧视直接倚重受保护群体的有关要素不同,隐性歧视是软件指令嵌入偏见造成的、偏差较大的数据集以及工具的应用,和有针对性地选择训练数据,设置标签、选择特征和其他掩蔽行为导致不平等待遇[3]。2.2相关完善建议①完善算法立法:关于算法歧视立法,首先,要对算法使用范围,使用方式,使用底线进行规范。关于算法歧视,既要对滥用算法的公司进行严惩,还应考虑针对因“算法歧视”而产生的侵权现象,制定赔偿规则。此外,还需要明确算法的应用底线,对于高敏感问题,算法介入应被取缔。另外,还应该给予用户较大的拒绝权,例如,用户可选择与客户端约定采集自己的个人信息,若用户识别算法中的歧视,则用户有拒绝接受处理的权利。此外对算法进行规制,应采用法律强制,算法设计之初,人文伦理,算法是透明的、算法的说明嵌入了,若算法中存在歧视现象,还必须启动问责机制。这一举措可以在法律层面上对算法设计者进行制约,使之谨守法律底线,遵守伦理规制,规避“算法歧视”现象。2022年3月1日,我国也实施了《互联网信息服务算法推荐管理规定》,《规定》的颁布,无疑为算法推荐服务提供者安了一道“紧箍咒”,但是,如何将具体条款落地实施,还是一个重大的课题。因此对算法立法也需要给予更多的关注,作进一步改进。②推进算法优化:算法歧视可通过促进算法设计优化和技术进步等途径来克服。持续优化算法,使算法日趋理性化。首先,应增强算法设计合理性。鉴于算法自身所暴露出的不足,技术研发人员应该重视已有因果推理技术在优化算法中的意义。数据采样是建立在尽可能多的综合数据之上,研究人员应该慎用所收集的数据样本,增强数据代表性。其次数据自身会存在偏差分布,因而对执行人工智能训练的数据进行审核是降低算法不公正的重要方式,不管是通过人工介入,还是通过发展相关技术等方式来审查算法,均可以有效地对抗算法中的歧视问题。2.3算法黑箱问题算法黑箱隐蔽性强,算法治理难就难在其决策过程不透明、不公开流程,易构成“算法黑箱”。算法不透明是常见问题,由于企业可就算法提出商业秘密或私人财产的诉求。在互联网平台上,每天都会有很多人力投入其中、财力研发和优化算法的工具,而且这些算法技术因商业秘密而著称,没有向外界披露,使用户对算法的目的与意图认识不清,亦无从得知算法设计者的身份、实际控制者和机器产生内容的职责归属和其他资料。在此背景下,回顾算法可能会有一定难度。另外,在成本--效益分析方面,解密算法因此透明化,可能会耗费很大成本,也许大大超过了可得到的好处。这时人们就只能试图检查不透明算法,但是,这样做不一定会取得公正的效果。这导致出现了一些情况,比如老用户并不知道为什么新用户优惠补贴超过了他们。2.4相关完善建议①提高算法透明度:算法设计者、操作者练习算法的透明度,应着眼于用户体验,提供了合适,高效、可以理解算法透明度高。用户对系统的卷入度决定其算法透明度要求,企业管理者应该了解他们的使用者,并且对算法的透明度进行了灵活调整;针对算法中需要用户数据,要有节制的征收。通过对算法透明度进行练习,“黑箱”就不会再密不透风了,今后算法治理的走向会更清晰。②以算法规制算法:算法一开始就设计好了,应将数据保护步骤添加到编码,即欧盟《通用数据保护条例》中提及的“经设计的数据保护”。通过政府监管机构给出了算法的设计标准,算法设计开发者应利用算法透明度增强的工具进行设计。例如,抓取数据的部分设置了标准的过滤数据,为了实现数据脱敏;在算法运行环节,偏向结果进行报警,甚至自我纠正;例如由政府牵头,发展政府大数据资源的聚合型网络系统,利用社会公共服务中政府监管机构为主的资料,用公权力来控制资料,反对私权利对资料的滥用[4]。3小结大数据的“杀熟”,个人信息的侵权,早已为社会公众所诟病。尽管信息技术给我们提供了方便,但由此派生出来的负面行为,也在不断蚕食着公众对互联网技术的信任感,而这种负面现象,实质是算法被误用。算虽然是中立的,但一旦掌握了算法技术,主体误用就失去了中立性。由于掌握了海量的用户数据及相关算法技术,因此,电子商务平台的经营者更容易滥用算法权力。在这样的现实困境下,在这一阶段,我国应当对相关立法进行进一步的完善,积极开展算法监管体制改革,对于大数据“杀熟”行为,从法律,制度等方面加以规范;互联网企业经营者还要加强行业自律,把经济效益与社会效益相统一。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|网络问答

GMT+8, 2024-12-23 07:12 , Processed in 0.068132 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表