法学专家热议算法导致部分领域不公平现象亟待重视 这场研讨会关注“算法的社会责任”
记者 王闲乐 在数字经济时代,算法已影响到我们生活的方方面面。近些年,大数据杀熟、算法歧视等一系列问题相继引发讨论,呼吁规制算法的声音不断。可直到今天,我...
记者 王闲乐
在数字经济时代,算法已影响到我们生活的方方面面。近些年,大数据杀熟、算法歧视等一系列问题相继引发讨论,呼吁规制算法的声音不断。可直到今天,我们似乎仍没有找到一个合适的解决办法。2月15日,来自法院、高校、企业界的多位嘉宾齐聚上海长宁,参加长宁法院主办的“算法的社会责任”研讨会,分享交流各自的观点。
无处不在的算法歧视
爱奇艺上海法务合规负责人奚海生说,包括视频网站在内,很多互联网平台会通过给新人优惠、回馈补贴等差异化定价手段,吸引更多用户。初衷是企业通过算法,进行精准营销,但稍有不慎,就会变成消费者眼中的“大数据杀熟”。“对平台来说,在出现差异化定价的时候,要把差异产生的原因更清晰明确地告诉用户,保障用户的知情权,才能解决这一类的投诉或是纠纷。”
“现在一提到算法歧视,大多数人脑海中浮现的可能是‘大数据杀熟’,是我们在网上消费时遇到的不公平对待。”上海政法学院教授张继红说,实际上出现算法歧视的场景远不止消费领域,在劳动场景中同样存在算法歧视,且更加隐蔽,更应该引起有关部门重视。
她举例说,一家大型企业需要进行招聘时,可能会收到海量的简历。为减轻工作负担,就会使用算法进行初步筛选,这种筛选不是从收到简历开始,而是从招聘广告发布时就开始了。“最简单的算法歧视就是,让某一个岗位的招聘广告被更多的男性用户看到。”张继红说,年龄、学历等条件同样可以在算法中预设,这就让很多人直接失去获知存在这个岗位的机会。
张继红指出,算法歧视在劳动场景中的另一种体现就是用工管理,在大大提升效率的同时,也产生了歧视性后果,典型案例就是“困在系统里的外卖骑手”。“在意大利,也有这样一群配送员,他们的公司使用一种激励算法。如果不按照约定配送,将失去分数。得分高的配送员,则可以提前选择对自己来说合适的送货时间和区域。”张继红说,这家公司之后被告上法院,法院判决其败诉。原因就在于法院认为,算法在计算分数时,没有考虑到配送员可能突发疾病、发生交通事故等意外情况造成的影响,是不公平的。
法律规制难点在哪儿
既然已经知道了算法歧视存在于哪些领域,也知道了产生的原因,能不能使用法律或行政手段进行规制呢?在与会嘉宾看来,当前对算法进行规制,仍然存在绕不过去的障碍。
最直接的就是算法的“黑箱”问题。多位嘉宾指出,算法其实就是计算机代码,它的呈现方式是普通人难以理解的。另外,算法往往是一家企业的核心机密,同样也是受法律保护的商业秘密。因此,在法律上会遇到这样一个问题,算法到底“坏”到什么程度,政府或法院可以要求企业公开?在国外,有消费者起诉互联网公司要求其公开一段算法,最终被法院以保护商业秘密为由驳回了。
其次,在与会嘉宾看来,至少在当下,算法仍然是由人来编写、审核的,这也意味着算法出问题时,应当承担侵权责任的还是人。然而,有时候算法在使用过程中产生歧视并非编写者的本意,这时候是否还要追究编写者的责任?在中国政法大学数据法治研究院教授张凌寒看来,对此类案件,法院审理时要更加谨慎。
“我们应当容忍算法在使用中出现一些偶发性错误。”张凌寒说,司法不应成为一个行业正常发展的阻碍,在责任认定时,要考虑算法是不是属于合理使用,是不是中立目的编写研发。如果是,则不应过分苛责研发人员。
还有嘉宾提出,考虑到算法歧视可能的受害者众多,将来立法时,可以将差别性影响作为重要的认定标准。所谓差别性影响,指的是模拟在没有算法的情况下,消费者付出的成本有没有变化。若有,则说明该算法对消费者造成了差别待遇。“相对于去查代码,这个方法以结果为导向,判断成本低,更加高效。”
在数字经济时代,算法已影响到我们生活的方方面面。近些年,大数据杀熟、算法歧视等一系列问题相继引发讨论,呼吁规制算法的声音不断。可直到今天,我们似乎仍没有找到一个合适的解决办法。2月15日,来自法院、高校、企业界的多位嘉宾齐聚上海长宁,参加长宁法院主办的“算法的社会责任”研讨会,分享交流各自的观点。
无处不在的算法歧视
爱奇艺上海法务合规负责人奚海生说,包括视频网站在内,很多互联网平台会通过给新人优惠、回馈补贴等差异化定价手段,吸引更多用户。初衷是企业通过算法,进行精准营销,但稍有不慎,就会变成消费者眼中的“大数据杀熟”。“对平台来说,在出现差异化定价的时候,要把差异产生的原因更清晰明确地告诉用户,保障用户的知情权,才能解决这一类的投诉或是纠纷。”
“现在一提到算法歧视,大多数人脑海中浮现的可能是‘大数据杀熟’,是我们在网上消费时遇到的不公平对待。”上海政法学院教授张继红说,实际上出现算法歧视的场景远不止消费领域,在劳动场景中同样存在算法歧视,且更加隐蔽,更应该引起有关部门重视。
她举例说,一家大型企业需要进行招聘时,可能会收到海量的简历。为减轻工作负担,就会使用算法进行初步筛选,这种筛选不是从收到简历开始,而是从招聘广告发布时就开始了。“最简单的算法歧视就是,让某一个岗位的招聘广告被更多的男性用户看到。”张继红说,年龄、学历等条件同样可以在算法中预设,这就让很多人直接失去获知存在这个岗位的机会。
张继红指出,算法歧视在劳动场景中的另一种体现就是用工管理,在大大提升效率的同时,也产生了歧视性后果,典型案例就是“困在系统里的外卖骑手”。“在意大利,也有这样一群配送员,他们的公司使用一种激励算法。如果不按照约定配送,将失去分数。得分高的配送员,则可以提前选择对自己来说合适的送货时间和区域。”张继红说,这家公司之后被告上法院,法院判决其败诉。原因就在于法院认为,算法在计算分数时,没有考虑到配送员可能突发疾病、发生交通事故等意外情况造成的影响,是不公平的。
法律规制难点在哪儿
既然已经知道了算法歧视存在于哪些领域,也知道了产生的原因,能不能使用法律或行政手段进行规制呢?在与会嘉宾看来,当前对算法进行规制,仍然存在绕不过去的障碍。
最直接的就是算法的“黑箱”问题。多位嘉宾指出,算法其实就是计算机代码,它的呈现方式是普通人难以理解的。另外,算法往往是一家企业的核心机密,同样也是受法律保护的商业秘密。因此,在法律上会遇到这样一个问题,算法到底“坏”到什么程度,政府或法院可以要求企业公开?在国外,有消费者起诉互联网公司要求其公开一段算法,最终被法院以保护商业秘密为由驳回了。
其次,在与会嘉宾看来,至少在当下,算法仍然是由人来编写、审核的,这也意味着算法出问题时,应当承担侵权责任的还是人。然而,有时候算法在使用过程中产生歧视并非编写者的本意,这时候是否还要追究编写者的责任?在中国政法大学数据法治研究院教授张凌寒看来,对此类案件,法院审理时要更加谨慎。
“我们应当容忍算法在使用中出现一些偶发性错误。”张凌寒说,司法不应成为一个行业正常发展的阻碍,在责任认定时,要考虑算法是不是属于合理使用,是不是中立目的编写研发。如果是,则不应过分苛责研发人员。
还有嘉宾提出,考虑到算法歧视可能的受害者众多,将来立法时,可以将差别性影响作为重要的认定标准。所谓差别性影响,指的是模拟在没有算法的情况下,消费者付出的成本有没有变化。若有,则说明该算法对消费者造成了差别待遇。“相对于去查代码,这个方法以结果为导向,判断成本低,更加高效。”