人物声音

当前位置: 首页 > 人物声音 > 正文

邓弘林:四部门出手!治理算法乱象,如何在创新与监管中找到平衡?

来源:上观新闻   时间:2024-12-16  浏览:

只有在确保算法技术创新的同时,妥善应对潜在的社会风险,才能实现技术与社会的和谐共进。

在数智化浪潮席卷全球的今天,算法技术已成为推动社会进步和经济发展的重要引擎。无论是在金融、医疗、交通还是社交媒体等领域,算法的广泛应用正在深刻改变人们的生活方式和工作模式。然而,随着算法技术的迅猛发展,其带来的治理挑战也日益凸显,例如快递小哥、外卖骑手、网约车司机等成为“困在算法”里的行业群体,引起了舆论关注。

近期,中央网络安全和信息化委员会办公室秘书局等四部门启动“清朗·网络平台算法典型问题治理”专项行动,旨在通过加强监管、完善法律法规等多方面措施,推动算法治理的常态化进程。该举措不仅是对当前算法治理现状的回应,更是对未来算法健康发展的积极探索。如何在促进技术创新与有效监管之间找到平衡,成为各国政府和行业共同面临的重要课题。

算法治理的主要挑战

1、技术发展与监管进度的滞后

技术发展速度过快与监管滞后是当前算法治理面临的主要挑战之一。人工智能算法技术本身具有高度的复杂性和快速发展特性,大多数互联网平台使用的算法往往是闭源的,其决策过程呈现“黑箱化”,这使得外界难以理解其内部运作机制。这种不透明性也使得监管部门难以及时识别和应对算法带来的潜在风险。例如,在医疗领域,算法在疾病诊断和治疗方案推荐中的应用日益普遍,然而,医生和患者往往难以理解算法的决策过程,如果该算法在没有充分监管和验证的情况下被广泛应用,可能会导致误诊或漏诊,影响患者的治疗效果和安全。

同时,算法的迅速迭代和自主学习能力,使得其创新速度远远超出现有监管手段和法律法规的更新速度。现行法律框架未能跟上技术发展的步伐,许多新兴技术形态和风险尚未纳入监管范围,导致监管措施无法有效覆盖算法应用中的新问题。因此,如何建立一个与时俱进的监管体系,成为亟待解决的任务。

2、平台责任与商业利益的失衡

许多平台在设计算法时,往往主要关注提高流量和用户黏性,这种以商业利益为导向的优化方式,有时会导致社会责任和伦理规范的疏忽。商业驱动可能导致算法在优化过程中产生一些社会风险,如歧视、偏见或误导消费者等问题,而这些问题并未得到足够的重视。例如,社交媒体平台的推荐算法可能会加剧信息的极化,形成“回音室效应”,使得用户主要接触到与自己观点相符的信息,从而影响社会舆论的多样性。这种现象不仅削弱了公众对多元观点的接触,也可能进一步加深不同群体之间的误解与对立。

3、公众信任与社会共识的缺乏

公众对算法决策的透明度、合理性和公正性有着极高的期望。然而,算法的复杂性和不透明性使得公众难以信任其决策过程。尤其是在涉及个人隐私和数据安全的情况下,公众对算法的担忧和质疑更为明显。如果公众对算法及其治理机制缺乏信任,可能会导致相关政策和措施的执行困难,甚至产生抵触情绪,进而影响治理的有效性。因此,增强公众对算法治理的认同和信任,成为推动算法治理常态化的重要前提。

算法治理的推动路径

1、健全法律体系与法规规范

针对上述挑战,首先需要强化法律法规的建设。应针对算法领域制定专门的法律法规,明确算法透明度、用户数据保护和平台责任等方面的要求,为治理提供坚实的法律依据。这些法律法规应涵盖算法的设计、开发、应用和评估等各个环节,确保算法在合法合规的环境中运行。同时,法律法规应具备灵活性,能够根据技术发展和社会需求的变化进行及时调整,以确保监管的有效性。通过建立完善的法律框架,可以有效约束算法的应用,确保其在合法合规的环境中运作。

2、促进平台自律与行业规范

政府可鼓励行业内企业共同制定技术标准和伦理守则,推动形成自我约束机制,确保平台在商业化运营的同时,遵循道德和社会责任。此外,通过建立行业协会和技术联盟,促进行业内的合作与交流,共同应对算法治理中的挑战。这种行业自律不仅能够弥补政府监管可能存在的滞后性和局限性,还能提升整个行业的社会形象和公信力。行业内企业应意识到,只有在遵循伦理和社会责任的前提下,才能实现可持续发展。

3、增强公众教育与全民参与

政府与教育机构协同,通过宣传和教育,提高公众对算法的理解,使其认识到算法如何影响决策,尤其是在数据隐私和安全方面的影响。同时,政府和平台可建立与公众的沟通机制,倾听公众意见,增强公众对算法治理的认同与信任。提高公众参与度可以有效促进算法治理的透明度和公正性,从而增强社会对算法技术的接受度。此外,开展公众咨询、听证会等互动活动,可以让公众更深入地了解算法的应用场景和潜在风险,进而形成共识,推动算法治理的有效落实。

算法治理的政策建议

1、提高算法透明度与可解释性

推动算法治理常态化,首先需要提高算法透明度与可解释性。相关法规应要求算法开发者明确算法设计原理、数据来源和训练过程,增强算法的透明度。此外,可通过技术手段,提高算法的可解释性,使用户能够理解算法推荐的依据和决策逻辑,降低算法带来的隐私泄露和误导风险。透明的算法不仅有助于提升公众的信任,也能为监管提供必要的信息支持。尤其是在涉及公共利益的领域,如医疗、金融和公共安全等,算法的透明度和可解释性显得尤为重要。

2、设立算法价值观与数据伦理框架

在制定算法治理相关的法规和政策时,应设立涵盖公平、公正、透明、无歧视等基本原则的伦理框架,促使开发者在算法设计中兼顾社会责任与人类福祉。同时,确保个人数据的安全和隐私不被侵犯,防止数据滥用与泄露,为算法的健康发展提供保障。通过建立明确的伦理标准,可以有效引导算法的设计与应用朝着有益的方向发展,该价值观与伦理框架不仅能保护用户的基本权利,还能促进算法的社会接受度。

3、实施渐进式监管与多场景评估

过度干预或过早设立过于严格的限制,可能会束缚创新,甚至导致技术发展停滞。为了在推动技术创新的同时避免过度监管对发展的抑制,可以采用渐进式的分阶段监管模式。根据技术的发展进度逐步施加适度的监管,而不是一刀切的限制。对已经广泛应用、影响深远的技术,加大监管力度;对于初创阶段的技术,允许一定的实验和创新空间,但设定基本的底线要求。

不同领域和应用场景下,算法所面临的风险和挑战不同,因此监管框架应具有灵活性和差异化设计。比如,在金融、医疗等高度敏感的行业,算法应用的监管应更加严格,重点关注算法的透明性、可解释性、数据隐私保护以及避免歧视和偏见等问题。而对于娱乐或社交平台的推荐算法,监管的重点则可以放在防止信息误导以及防范过度依赖算法等方面。通过灵活设计监管框架,不仅能确保创新在不同行业中的适用性,还能在关键领域有效管控潜在的社会风险。

算法治理现已成为全球性挑战,在算法治理的过程中,面对技术发展、平台责任和公众信任等多重挑战,政府、企业、学术界及公众应共同参与,采取综合性的应对策略。通过加强法律法规建设、推动行业自律、增强公众参与等多方面的努力,为算法的健康发展提供坚实的基础。只有在确保算法技术创新的同时,妥善应对潜在的社会风险,才能实现技术与社会的和谐共进。

(作者为同济大学经济与管理学院副教授)

链接:https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=829205&v=1.4&sid=67


联系我们

同济大学 版权所有    上海市四平路1239号 021-65982200

同济大学新闻中心主办    E-mail:newscenter@tongji.edu.cn

沪ICP备10014176号    沪公网安备:31009102000038号    沪举报中心