2024年07月22日 星期一 国内统一刊号:CN51—0098     中国•企业家日报

算法歧视视野下企业法律责任与伦理考量

来源:企业家日报 作者:

周敏

随着互联网信息技术的迅猛发展,企业依托数据、算法与算力的深度融合,实现了对用户个人偏好及消费轨迹的高效捕捉,进而精准把握市场动态。这一变革虽极大促进了企业效益的提升,却也悄然滋生了一系列关乎企业社会责任的缺失与价值观偏离的现象。算法歧视的根源复杂多变,它不仅仅是技术层面的问题,更是涉及法律、伦理与社会责任的综合性议题。企业作为算法技术的开发者与应用者,在享受技术带来的市场优势与经济效益的同时,也必须正视并承担起由此产生的法律责任与伦理考量。

一、算法歧视中企业的法律责任

企业在算法歧视视野下应承担的法律责任主要基于平等权、隐私权、知情权等基本权利的保护。企业作为算法技术的开发者、运营者,应当对其算法可能产生的歧视后果承担法律责任。

(一)企业应当承担反歧视法律义务,保护消费者的平等权

在算法的设计与开发流程中,开发者个人的社会视角、文化背景及主观价值判断,往往会在不经意间通过设定具体目标与量化指标,渗透并融入代码之中。这种情况下,算法设计从一开始就带有偏见。针对亚马逊平台的调查显示,有40%的商家在产品销售期内利用算法技术形成的个性化用户画像,至少更改了20次产品价格,形成千人千价的局面。企业通过算法进行个性化、动态化定价的杀熟行为明显侵犯了消费者的平等权。企业应确保其算法技术在应用过程中不产生任何形式的歧视性后果。这就要求企业在设计、开发和部署算法时充分考虑公平性和合理性原则避免将任何形式的偏见或歧视性因素融入算法之中,企业在算法设计开发过程中始终坚持向上向善、公开透明、公平公正,避免算法歧视、算法黑箱、算法共谋等负面问题的出现。

(二)企业应充分尊重消费者的知情权和选择权

在互联网交易场景中,大数据杀熟行为利用交易双方的信息不对称和网络搜索及个性化推荐形成的信息茧房,故意隐瞒商品和服务采取了差别定价的事实,很显然是对消费者知情权的剥夺。《消费者权益保护法》第八条规定,消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利。故企业应以显著方式告知用户其提供算法推荐服务的情况,给予用户算法知情权,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等,最大程度平衡算法透明度和企业运用算法的商业机密性,尽可能避免算法黑箱问题的出现。保护消费者公平交易的权利,不得根据消费者的偏好、交易习惯等特征利用算法在交易价格等交易条件上实施大数据杀熟等违法行为,消除算法歧视。建立健全投诉处理机制,及时响应消费者的投诉和质疑并采取有效措施加以解决以维护消费者的合法权益和企业的良好形象。

(三)企业应积极采取措施保护消费者的隐私权

在算法应用过程中,大数据杀熟不可避免地会涉及消费者个人信息的收集和利用。数据到手后企业不会主动删除数据,而是多次利用以挖掘出更多的商用价值,帮助其不断加强对交易的主动控制权。《中华人民共和国民法典》第一千零三十四条规定,自然人的个人信息受法律保护。企业应自觉遵守隐私保护原则,确保个人数据的合法、合规使用,并公开披露数据收集和处理的方式,增强对消费者的透明度。在保护消费者知情权的过程中,需要寻找信息透明和隐私保护的平衡点,既满足消费者对信息的了解和选择需求,又不损害企业的商业利益和数据安全。这需要企业在制定政策和实施措施时权衡各方利益,并与监管机构和消费者组织进行积极对话与合作。

二、算法歧视中企业的伦理考量

从宏观视角来看,算法在伦理层面存在的问题主要分为两类:一是人类对算法技术进行过度开发利用,且缺乏符合伦理准则的边界意识,致使技术滥用现象普遍,陷入伦理误区;二是由于人工智能天然缺乏伦理判断能力,导致决策结果的合理性与人文性无法达到预期。针对上述问题,企业在算法的设计和开发过程中应考量以下几个方面:

(一)强化以人为本的伦理考量

算法带来的伦理问题源于技术本身自带的缺陷。机器算法不能完全取代人类进行道德伦理判断、人文关怀和独立的价值判断等,也无法对非量化内容作出准确判断,在算法推荐中,人的主体性在很大程度上被忽视。因此,企业不应将用户仅仅看做数据商品的提供者,而应重视以人为本,尊重人的价值,突出人在技术环境中的主体性地位,确保算法推荐过程中充分考虑用户的个性化需求与情感体验,让技术服务于人,而非成为剥夺人性与尊严的工具。

(二)建立健全伦理审查机制

追求利益、规避责任是经营者的天性。在数据资源、数据财富的分配、算法分配以及算法承认的过程中,经营者较多地关心怎样获得利益。算法不能只是服务于平台经济发展的简单需要,还必须兼顾社会责任。因此,建立健全的伦理审查机制是保障算法技术健康发展的关键环节之一。对专业人员而言,了解算法运行及决策并不存在技术障碍,企业应设立专门的伦理审查机构或委员会对算法技术的开发和应用进行严格的伦理审查。审查内容应包括但不限于算法设计的公正性、数据处理的合法性以及推荐结果的合理性等方面。

(三)提升算法透明度

因算法黑箱效应的存在,消费者一般无从知晓算法运行及决策的过程,难以判断自身的数据权利是否遭到侵害,故提高算法的透明度是减少算法歧视的重要途径之一。企业必须如实记录算法运行的各项数据、决策规则及技术模型并向社会公众进行披露与解释。算法透明度与解释性的提升,并非旨在强制企业完全开放其源代码或算法运作的详尽机制,而是建立在尊重企业技术创新成果的基础上,倡导一种适度的算法开放策略。通过合理的算法公开,使公众或内部专家可以对算法本身与算法决策结果进行监督,防止算法黑箱中隐藏的歧视与机器自我学习带来的歧视。

(四)加强沟通与交流

企业还应加强与政府、行业协会等监管机构的合作与沟通共同推动算法技术的规范化发展以确保其符合社会伦理和道德要求。通过与监管机构、消费者组织、行业协会等各方的合作与对话,企业可以及时了解社会对算法技术的关注点和期望,从而更好地调整自身的伦理策略和行为规范,共同推动算法技术的透明化发展。

三、结语

在深入探讨算法歧视这一复杂而紧迫的社会技术议题后,我们不难发现算法已经在潜移默化地影响我们的生活,然而,算法并非中立无偏的工具,因此我们不免要警惕算法的运用。展望未来,随着算法技术的不断发展和应用范围的持续扩大,企业将面临更加复杂多变的挑战与机遇。我们期待企业能够继续秉持以人为本的理念,将法律责任与伦理考量贯穿于算法技术的全生命周期之中,以推动企业的可持续发展和社会的公平正义。同时,我们也呼吁政府、行业协会、监管机构以及社会各界共同关注算法歧视问题,加强合作与对话,共同构建一个健康、和谐、可持续的技术生态系统。

(作者单位:中共四川省委党校法学部)