大数据时代,甲骨文和谷歌竟然互相“操控”陪审团?

2016-05-24 09:05 来源:经济周刊
浏览量: 收藏:0 分享

大数据时代;甲骨文;谷歌

  随着基于大数据的自动化决策科技在个人对健康、教育、工作、信用、商品和服务的取得上,扮演着逐渐重要的角色,甚至是“生杀予夺”的权重时,我们就应该对大数据、自动化决策过程的影响高度重视起来。

大数据时代,甲骨文和谷歌如何操控陪审团

  2016年5月9日,甲骨文诉谷歌侵犯专利案的主审法官Alsup对陪审团成员说,“你们需要调整社交账号中的隐私设置”。

  其实,法官是希望陪审团成员能将账号设为“仅朋友可见”,这样诉讼双方的律师团队就没法在脸谱、领英、推特等社交平台上找到他们,研究他们,进而用各种办法影响甚至操控他们。

  在美国,甲骨文诉谷歌案备受关注,涉及的赔偿金额可能高达93亿美元。在此对案情做简单介绍:甲骨文公司于2010年控告谷歌开发的Android系统侵犯了Java专利,陪审团发现谷歌的确使用了至少37个Java的接口程序(API),但地方法院的法官认为接口程序并不受版权保护。2014年,上诉法院推翻了该判决,随后最高法院拒绝受理谷歌的上诉,使得该案又重新回到地方法院的手上。现在,地方法院需要审理的焦点是,谷歌使用Java接口程序的做法是否属于“合理使用”(fair use)。如果是,谷歌就可免于支付高额的赔偿。

  其实早在今年3月份的审前听证会上,法官Alsup就建议甲骨文和谷歌的律师团队同时承诺不对陪审团成员开展社交网络研究。在Alsup看来,“如果通过搜索发现一名陪审员最喜欢的书是《杀死一只知更鸟》,律师很容易就能根据这本书的内容或风格,甚至利用这本书作者刚刚去世这个事实,类比地构造出一些论据或者提问的角度,来迎合这名陪审员……同样的手法可以运用于陪审员对贸易、创新、政治的态度……用如此算计好的方式来讨好陪审员无疑是一种出格的行为。更重要的是,法官不掌握陪审员个人偏好等信息,因此无法辨识出律师的伎俩。”

  谷歌响应法官的提议,决定不用自己的技术研究陪审团,但由于甲骨文拒绝了法官的建议,自然谷歌也不用做出任何承诺。最后,Alsup法官只能要求两家公司律师团队对陪审员做的任何研究,都必须向他本人如实披露。同时,为了尽可能地避免陪审团被影响、操控,才有了文章开头发生的那一幕。

大数据时代,你可能面临的歧视

  随着移动互联网的普及,社交生活网络化的泛滥,我们每个人在享受信息技术带来的便利时,每分每秒也在留下自己的数字足迹(digital footprint),包括现在或过去任何一个时点所在的位置、移动轨迹等等,平台、应用等商品和服务提供者有能力搜集并分析利用,以了解我们的活动范围、生活习惯、各种偏好,并最终描绘出我们每个人的“数字画像”(digital profiling)。正如法官Alsup所担心的,互联网公司把基于大数据的精准定位和营销,“创造性”地用到庭审诉讼双方的辩论中,很可能会左右陪审团的判断,控制庭审的结果。

  事实上,描绘出个人的数字画像进而“投其所好”,还是大数据一种“相对保守”的利用方式。毕竟在微信朋友圈中,是看到豪车还是饮料的广告,顶多成为我们吹牛或自嘲的谈资。但随着基于大数据的自动化决策科技 (automated decision-making) 在个人对健康、教育、工作、信用、商品和服务的取得上,扮演着逐渐重要的角色,甚至是“生杀予夺”的权重时,我们就应该对大数据、自动化决策过程的影响高度重视起来。

  例如,当大数据和算法判断求职者为男性时,为其推送高薪主管职位消息的概率远大于同等条件的女性求职者;利用大数据计算参与恐怖主义活动的概率,并采取各种不同程度限制出行或监控的措施;在缺乏直接信用记录和数据的情况下,基于其他信息(如电话账单、教育背景、社交网络等)预估信用评分,最终导致特定群体的人无法申请小额贷款;信用卡发卡银行降低某人信用额度的原因并非基于该持卡人的消费与还款记录,而是基于该持卡人被归为“同一类型”之消费者所共同拥有的记录与特征等等。

  2016年1月6日,美国联邦交易委员会公布报告《大数据:吸纳或排他的工具?》(Big Data: A Tool for Inclusion or Exclusion? Understanding the Issues)中还举了这样一个例子:

  2012年,当桑迪飓风肆虐美国时,短短时间,推特上产生了超过2000万条相关的消息,其中包含了大量关于飓风和受灾人群的信息。为了做到救灾资源的有效配置,美国当局决定对推特上的消息进行实时分析,以此判断哪些地区、哪些人群最需要帮助。可是事后分析回顾发现,因为电力供应受到严重影响,导致重灾区人群无法发出大量的网络消息,所以恰恰是受灾最重地区的推特消息最少。对推特消息的分析形成了不准确的数据视图,无法正确指向受灾最重的地区以及最需要帮助的人群。

被大数据歧视了怎么办?

  为避免大数据可能带来的歧视或偏差,美国政府从2014年开始发布了多份报告,希望引起社会各界对此问题的重视。2014年5月1日,美国白宫发表报告《大数据:抓住机会、保存价值》(Big Data: Seizing Opportunities, Preserving Values)。报告建议:“联邦政府主要的公民权利和消费者保护机构,包括司法部、联邦贸易委员会、消费者金融保护局和公平就业机会委员会,应当主动研究有可能对特定阶级带来歧视性影响的大数据分析的做法和结果,并制定计划调查和解决违反法律的此类事件。”

  上文提到的美国联邦交易委员会的报告建议,在进行分析之前,首先要确保数据具有代表性;企业必须谨防数据模型中隐藏的偏差,厘清统计关联性和因果性之间的区别;企业需要详尽审视相关模型所依赖的因子,把握好预测分析与公平性之间的平衡关系;在流程建设上,允许消费者能访问自身数据并就错误或遗漏提出异议。

  2016年5月4日,美国白宫发布报告《大数据:关于算法系统、机会、公民权利的报告》(Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights)。报告提出通过算法和系统的设计来实现平等权利(a principle of “equal opportunity by design”),并建议研究机构和行业一起,开展算法审计和对大数据系统的外部测试以保证人们被公平对待。

  欧洲在这方面走在了其他国家的前面。将于2018年5月25日正式生效的欧盟《一般数据保护条例》,在第22条明确规定了对于仅仅以自动化方式(包括数字画像)做出的、对个人能够产生法律效果的或其他类似的显著影响的决定,个人有权免受这样决定的制约。

  在我国,大数据和自动化算法高歌猛进,与此同时,我们是不是也应该放慢下脚步,仔细想想如何将其可能的负面影响降到最低?

标签:

责任编辑:admin
在线客服