这是描述信息
搜索

公益视界

通用分类
这是描述信息

《公益研究》|| 周俊等:人工智能嵌入慈善的伦理风险与防范路径

2025-02-27 16:08:14

概要:

摘要:人工智能在为慈善事业发展带来新机遇的同时也引发了诸多伦理问题,如何防范已知和未知的伦理风险成为急需讨论的问题。基于人工智能嵌入慈善的实践发展可以发现,在个体层面,慈善捐赠人面临自由被消解和隐私安全风险,而部分受益人则面临情感机械化问题;在社会层面,人工智能应用放大了慈善资源分配不公和责任缺位问题。防范人工智能嵌入慈善的伦理风险,迫切需要建立一个多方主体参与的治理体系,并且同时发挥伦理、技术和制度的作用。

 

关键词:人工智能  慈善  伦理风险    防范路径

 

来源:周俊,朱靖飞,杨鑫源.人工智能嵌入慈善的伦理风险与防范路径[J].公益研究,2025(1):46-57.

 

 (责任编辑:普普)

 

 

 

 

作者简介

 

周俊,哲学博士、教授,浙江工商大学英贤慈善学院副院长。主要研究领域为公益慈善、社会组织、社会治理、国家与社会关系等。

 

一、问题的提出

 

作为新一轮科技革命和产业变革的重要驱动力量,人工智能已经被广泛运用于金融、医疗、教育等多个领域,全面嵌入经济社会发展和人类生活的方方面面,尤其是生成式人工智能ChatGPT的问世,实现了人工智能技术应用的普及化和日常化。凭借智能算法与超强算力,人工智能显著提高了问题解决能力和生产效率,深刻地改变了生产生活方式。但人工智能的应用也带来包括隐私泄露、算法歧视、权责模糊等伦理问题,如何有效地防范人工智能可能引发的伦理风险是当前广受关注的议题。

慈善领域对人工智能的拥抱持续增强,相关应用日益增多。美国红十字会在“缺失地图”项目(Missing Maps project)中与英特尔公司合作,应用人工智能绘制发展中国家易受灾地区的地图,以帮助防灾备灾。在中国,“宝贝回家”志愿者协会从2015年起与国际互联网公司合作,打造了一套名为“回家”的人工智能搜索系统和应用程序,提高了走失儿童比对效率和准确率;不少慈善组织利用人工智能为老年人、特殊患者提供智能护理服务,实时跟踪和分析被看护人身体指征变化。人工智能发展为慈善领域探索全新的问题解决方案提供了无限可能。然而,技术总是具有双面性。人工智能在对慈善事业发展产生积极影响的同时,也带来了诸多引人思索的伦理风险。2024年初,四川省成都市爱益行公益服务中心在某平台的捐赠项目中使用合成的老人图片,遭到网友质疑,被指涉嫌诈捐,引发了对人工智能嵌入慈善会导致慈善“失真”的质疑。其后,围绕人工智能对慈善伦理影响的讨论日渐增多。

在学术界,既有研究已经关注到人工智能嵌入慈善这一新趋势,主要从四个方面讨论了人工智能对慈善事业的影响。在慈善募捐方面,慈善组织可以通过人工智能对海量数据进行分析和挖掘,并基于此构建个性化推荐模型,为潜在捐赠者推荐符合其兴趣的慈善项目。在慈善传播方面,人工智能可以通过精准的广告投放提高募捐活动的曝光率和参与度;通过对用户评论和反馈的分析了解其态度和情感倾向并据此调整推广策略。在慈善资源管理方面,人工智能不仅能够提高捐赠处理效率和志愿服务质量,而且能够通过对受助者信息的监测与分析发现真实需求,为资源供需匹配提供支持。在对人工智能影响慈善的讨论中有个别研究关注到其中可能存在的伦理风险,提出插入人工智能生成的慈善募捐广告、利用人工智能撰写劝捐文案等做法会弱化捐助者的共情反应,进而造成情绪感知的减少和负面效应,最终导致捐赠意愿的降低。

显然,学术研究与人工智能嵌入慈善的实践发展相比较具有明显的滞后性,不足以为建立人工智能时代慈善事业的伦理风险防范预案提供理论指导,难以满足现实发展需要。鉴于此,本文拟基于我国人工智能嵌入慈善的具体做法及其中存在的问题,分析人工智能嵌入慈善可能面临的伦理风险,并提出相应的防范建议,以期促进慈善事业高质量发展。

 

二、文献综述与分析框架

 

人工智能在慈善领域还是一种新事物,其中存在的已知和未知的伦理风险还没有受到足够关注,相关研究很少。但是,过去几年中关于人工智能伦理的研究比较丰富,为理解慈善领域的人工智能伦理问题提供了参照。下面主要综述人工智能伦理研究,总结提炼人工智能伦理风险的类型与具体表现,在此基础上,结合人工智能在慈善领域中的应用情况,构建人工智能嵌入慈善的伦理风险分析框架。

人工智能伦理(AI ethics)是新兴的跨学科领域,关注解释与解决人工智能技术所引发的伦理问题,主要探讨与人工智能相关的理论、方针政策、原则等规范性要素,期望在此基础上规范人工智能技术的使用,以使其符合伦理要求。现有研究从不同视角探讨了人工智能伦理,相关内容可以概括为技术开发过程中的伦理和应用过程中的伦理两大方面。

在技术开发方面,技术虽然是中立的,但具备易感性,极易因数据的偏差或程序编写者的价值偏好而产生偏误,并进一步导致算法偏见或算法歧视。此外,算法“黑箱”的存在使技术的使用者或服务对象并不拥有相应的知情权,因此,如何构建社会公众对人工智能技术开发过程的信任关系是当下面临的重要问题。

技术应用过程引发的伦理风险受到了更多关注,其中技术应用的限度是被讨论得最多的问题。一方面,如果技术过度嵌入社会,则容易陷入技术依赖或技术滥用的困境,不仅会削弱人类探索未知的能力与可能性,还有可能引发人与技术之间的冲突,如已经出现的工作替代问题;另一方面,人工智能已经具备一定的思考与自主决策能力,但人工智能的自主性是否应该继续拓展、究竟谁应该为人工智能的行为负责等问题尚不明确。除此之外,基于大数据、大模型的人工智能需要海量的数据支撑其决策,这一过程不可避免地会牵涉数据安全与隐私保护问题。同样值得关注的是,人工智能技术的运用有一定的技术与资源门槛,难以保证所有人均能从中获利;人工智能的开发与运用需要大量的资源投入,会导致大量的能源消耗。

嵌入慈善是人工智能应用的一个具体方面,应遵循一般人工智能伦理原则,所需要讨论的伦理问题同样是作为中介的技术对个体、社会和环境的影响。但是,与工业生产领域不同的是,人工智能应用于慈善领域对环境的影响甚微并且不具备特殊性,因此不需要专门讨论。此外,由于人工智能应用于慈善领域的时间不长,一些伦理问题并未充分显露,所以需要在实践发展的基础上基于逻辑推断来对未来可能的伦理风险进行分析。基于这两方面的原因,下文从个体和社会两个层面进一步分析人工智能嵌入慈善的伦理风险,以为后文分析提供一个基本框架。

在个体层面,人工智能应用对人的自由、安全与情感的影响应成为伦理探讨的重要范畴。自由主要体现为不受他人影响、独立思考和行动的权利。在慈善领域,个体应当拥有表达“爱”的自由,即能够独立、自主、不受影响地选择参与慈善的领域、方式和程度等。在慈善领域应用人工智能进行信息推送和捐赠动员,尽管有助于提高效率,但却构建起“信息茧房”,导致慈善参与者特别是捐赠人更多地受算法引导而不是出于自我判断和选择,对个体的自由选择形成了限制。

安全是人工智能应用应遵循的基本原则之一,具体体现为技术应当以保护人类不受伤害为第一前提,包括规避人身伤害、数据与隐私泄露和维护人的尊严等。借助人工智能,慈善组织可以通过收集和分析用户数据制定更有效的筹款或倡导方案、更精准地进行供需资源匹配,然而,由于慈善组织的整体技术水平偏低,它们在妥善保管数据、有效保护用户隐私等方面面临专业不足的困境,容易出现信息安全问题。

情感是在慈善领域讨论人工智能伦理需要特别关注的维度,因为慈善的根基是“人性之爱”,是道德自觉或同理心、同情心。近年来,数字冷漠已经成为数字慈善研究领域的重要话题,人工智能是数字技术的深化和拓展,同样具备数据化、客体化的技术倾向,可能会导致对服务对象真实情感需求的忽视,因此,人工智能嵌入慈善后引发的情感漠视问题同样应受到重视。

在社会层面,人工智能嵌入慈善后可能造成的价值异化和责任缺位都是值得探讨的伦理问题。价值异化主要指人工智能及其技术理性对公平这一基本社会价值的冲击。公平是伦理的重要尺度,也是慈善的重要理念,但是对人工智能的运用可能引发“马太效应”,影响慈善资源分配与慈善组织发展的公平性,与慈善促进社会公平的价值理念相违背。

责任缺位是人工智能伦理关注的重点议题,在慈善领域,责任缺位主要有两种表现形式:一是技术过程的不可解释性模糊了慈善组织与其他主体之间的责任边界,即人工智能嵌入慈善的问责(accountability)难题。具体来说,在运用人工智能过程中产生的责任至少涉及慈善组织(或平台)与技术供应商两方主体,在技术工具产生负面影响或产生伦理问题时,难以透过算法“黑箱”厘清责任的具体归属。二是技术理性容易消解慈善应有的价值理性,即人工智能嵌入慈善面临责任(responsibility)困境。具体来说,对慈善中个体人格的完善、对公平正义等价值的追求、对人本主义价值的贯彻等是慈善的应有之义,但人工智能的技术逻辑容易使慈善组织陷入效率至上、技术本位的误区,消解慈善的人文关怀与情感体验,甚至可能损害社会公平,导致慈善难以履行其应有的社会责任。

从上可见,本文建立了一个用于审视人工智能嵌入慈善的伦理风险的分析框架。人工智能作为技术中介,在慈善领域的伦理影响具体体现在它对人与人、人与社会的关系带来的变化,其中特别值得关注的问题是个体层面的自由、安全、情感和社会层面的价值、责任受到的强烈冲击,以及由此可能引发的伦理风险。

 

三、人工智能嵌入慈善伦理风险的现实表征

 

 人工智能已经被应用于慈善传播、筹资、项目报告撰写、为老服务等领域。在欢呼新技术为慈善事业发展带来新空间的同时,一些人已经关注到技术应用已经产生和可能隐藏的潜在伦理风险。但是,由于慈善领域对人工智能的应用总体上处于初级阶段,基于当前实践可以捕捉到的伦理风险并不十分充分,即便如此,仍然可以窥见不少个体和社会层面的问题。

 

(一)个体选择自由受缚

 

人工智能能够通过大数据挖掘与整合、智能算法与深度学习,从诸多方面为慈善活动提供辅助。但是,在智能算法提升慈善管理与服务效能的同时,算法偏见、算法“黑箱”等技术的固有弊端也在深刻影响慈善事业的发展,并且随着人工智能嵌入慈善的程度越深,这种影响越显著。当前慈善参与者已经面对被困于“信息茧房”的风险,个体自由受到技术的显著威胁。

人工智能能够借助算法对用户的使用数据进行分析学习,精确描绘用户画像,甚至挖掘出用户自己都未曾意识到的行为偏好和潜在需求。这一过程无形中固化了用户信息获取的边界,使之陷入“信息茧房”之中。“信息茧房”的存在限制人的视野与认知范围,因而早已成为人工智能伦理风险中最常被提及的问题之一。然而,慈善事业并未因此将“信息茧房”拒之门外。算法推送正被广泛应用于慈善领域,为了更精准地提升捐赠率,智能算法会通过学习潜在捐助者在慈善平台上信息的浏览、订阅或搜索偏好,形成算法推荐,即更多地向捐助者展示其可能感兴趣的求助信息或项目信息,而减少甚至不推送相关性弱的信息。比如,捐赠者在点击查看过资助山区留守儿童、帮扶空巢老人等推送后,平台会反复向其推送同类信息,将其对慈善的关注度最大限度地限制在算法判定的领域之中。对于慈善参与个体而言,这一方面极大地限制了他们更深入了解慈善事业与更全面地了解社会的可能性,另一方面侵蚀了个体自由地了解慈善、选择慈善参与领域的能力。

 

(二)个体信息安全受损

 

人工智能应用带来的个体信息安全问题早已成为一个大众话题。人工智能可以借助智能算法对数据进行分析与学习,从而提高服务的精准性和效率,但这一功能的发挥建立在有充分数据“喂养”的基础之上,而在获取数据的过程中,人工智能可能获得超出其所需的隐私数据。此外,人工智能能够促进数据在不同终端之间的互联互通,在拓展个人信息的传播半径和生命周期的同时,存在信息泄露、滥用、盗用等风险。在慈善领域,个体在平台上的注册、浏览和捐赠等行为所产生的信息都有可能被人工智能识别并分类,形成有关特定个体的包括兴趣偏好、捐赠习惯、经济水平以及其他个人信息在内的具体画像,这可能导致两方面的隐私保护风险——隐私侵犯与隐私泄露。

一是隐私侵犯。慈善组织或者平台不同于政府,与民众之间不存在权利的委托代理关系,因此,慈善组织或平台对数据信息的获取与掌握需要建立在充分告知和明确许可的基础之上,然而,人工智能可以通过隐蔽的方式获取信息,以绕过告知或许可的过程,使慈善组织或平台对服务数据的掌握超出其应有限度,造成隐私侵犯。正如CDAC网络执行主任海伦·麦克尔辛尼谈及国际救援委员会(IRC)运用人工智能开展人道主义服务时说的那样:“人道主义组织应该告知其服务对象人工智能模型是否会分析他们提交的任何信息,并且需要得到其同意,尽管他们的目的是为了更好地服务。”

二是隐私泄露。一方面,慈善组织所运用的人工智能技术往往是由技术企业提供的现成产品或在提供的技术接口上进行二次开发,因此,服务对象允许慈善组织采集的数据可能经由人工智能的技术接口泄露给非获授的技术企业,从而导致隐私泄露。另一方面,出于提升服务水平的需要,慈善组织可能会主动将服务对象数据共享给人工智能企业用于分析与合作开发,这种行为所造成的隐私泄露往往被其公益性目的所掩盖。2016年,英国皇家自由信托基金会(RF)将160万患者数据共享给人工智能企业Deep Mind用于开发和测试一项智能医疗应用程序,但RF和Deep Mind均未事先就数据使用征得患者同意,这一行为被英国信息专员办公室(ICO)裁定为违反了数据保护法。

 

(三)个体情感需求受挫

 

“人工智能+情感”已经成为一个十分具有商业潜力的赛道,各种类型的人工智能伴侣应用不断出现,它们全天候陪伴、有问必答,甚至能够与服务对象进行“情感交流”。慈善强调爱的分享与传递,人与人之间的情感联结是慈善事业发展的重要基础,然而,人工智能的情感来自对数据的学习和基于算法的逻辑推演,与真正意义上的基于同理心、同情心的情感互动具有完全不同的底层逻辑,它能给予服务对象的只是最浅层的“数字陪伴”,无法给予服务对象有温度的关怀,无法满足服务对象真实的情感需要。换言之,人工智能对慈善的嵌入可能会消解慈善应有的情感气息。近年来,心理亚健康的普遍化愈发引起社会的关注,专业心理咨询面临“供不应求”的困境,许多专业机构开始基于人工智能算法开发“话疗机器人”,已有部分慈善组织在小程序、公众号等线上平台面向服务对象开放“智能陪伴”服务。从短期来看,人工智能技术的运用能够有效提高服务的覆盖率、可及性和便利度,具备显著的效益。但在实际体验中,人工智能给予的回答有着明显的算法痕迹,难以传递有效的情绪信息,难以真正纾解服务对象的情感情绪问题,面临“陪伴”有余但“纾解”不足的困境。

更值得警惕的是,当慈善组织运用人工智能替代真实的人类服务时,可能导致对服务对象的客体化与数据化,技术可以使服务对象被高效地分析,但难以使其被真正地“看见”。具体来说,慈善服务应当是感性共情之上的理性行动,是感性与理性的结合。但人工智能无法像人类一样情绪性地思考或产生同理心,其决策与行动依据的是对个体客观数据的采集与分析,而情感因素则难以被量化分析并操作化为人工智能给予反馈的依据。例如“云云”一类已经上市的老年陪护机器人,能够依据算法为老年人提供起居服务与健康咨询,但是此类服务均是程序预设好的结果,无法将情感纳入决策的考量,如陪护机器人会以地板湿滑、身体指标不达标等理由限制老人下床活动,这类机器决策是符合算法理性的,但显然忽略了老人当下的真实需要(如呼吸新鲜空气、出门与人交谈、晒太阳等)。

 

(四)对社会公平的侵蚀

 

算法偏见或算法歧视是人工智能伦理重点探讨的话题。尽管算法是中立的,但“喂养”算法的数据、语料却具有价值倾向,这可能导致人工智能给出的信息或决策带有偏见或歧视,比如种族歧视和性别歧视。此外,数字鸿沟是数字技术应用难以绕开的话题,区域间、个体间数字基础设施建设与数字技术使用的差距普遍存在。在慈善领域,人工智能应用对公平的影响主要体现在慈善资源分配和慈善组织发展两个方面。

一是人工智能应用导致慈善资源分配不均衡。人工智能的发展具有显著的地域差异,而技术引导资源流动,其后果是慈善资源更多地向技术优势区域流动。《中国数字公益发展研究报告(2022)》显示,公众对数字公益的关注度呈现区域化差异,其中,广东、浙江、江苏、北京等地区/区域显著领先,这与《中国城市人工智能发展指数报告(2023-2024)》中排在前列的城市相一致。公众关注度是慈善事业发展中十分重要的隐性资源,公众对数字公益的关注度一定程度上反映了人工智能技术在资源汲取过程中的作用。这不禁令人担忧,人工智能应用可能会进一步拉大慈善领域的地域数字鸿沟。更为糟糕的是,此类数字鸿沟不仅存在于地域之间,而且存在于个体、群体和行业之间,如果不加以限制,慈善资源分配中的公平原则会持续被侵蚀。

二是人工智能应用导致慈善组织发展不均衡。慈善组织日益处于竞争性环境之中,需要借助技术手段提高管理效率和服务能力,以增强竞争优势。但并非所有的慈善组织都具备应用人工智能的组织基础和物资、人力资源,那些大规模的或实力强的慈善组织更容易引入新技术并因此获得竞争优势,进而获取更多资源。在中国慈善事业中,腾讯公益慈善基金会、阿里巴巴公益基金会等具有大型企业背景的基金会和部分国字号慈善组织较早引入人工智能技术进行捐赠人信息分析、辅助决策和传播,但大多数中小规模的慈善组织至今仍然与人工智能绝缘。技术应用在慈善组织间的不均衡已经导致了一定程度的资源聚集和行业垄断,是人工智能嵌入慈善过程中特别需要加以重视的问题。

 

(五)对社会责任的冲击

 

责任与问责是人工智能伦理的重要方面,关系到人工智能能否作为法律意义上的责任主体对其行为与后果负责这一关键问题。尽管联合国与许多国家对人工智能进行立法,但算法“黑箱”的存在导致现实中的归责仍是一个难题。当前,越来越多的慈善组织开始运用人工智能辅助项目策划或报告书撰写,为慈善项目定制的人工智能平台也在搭建之中,然而,生成项目报告所涉及的数据是否真实准确、知识或创意是否受知识产权保护、人工智能生成的项目策划在实践中是否会面临未被预测的风险、风险的责任由谁来承担等问题,都是人工智能嵌入慈善后需要面对的问题。例如,“阿里AI公益小蜜”能够通过输入项目设想的方式为慈善组织生成定制化项目报告,但实际使用发现,尽管智能平台生成的项目数据结构完整、信息详尽,但其中包含了许多未经验证的虚假信息、自动生成的“调研”数据和虚构的组织间合作信息等。如若将一份“有问题”的项目报告付诸实践,慈善组织是否应当为其中的谬误或产权侵犯问题负责?目前还没有针对这一问题的明确答案。

更进一步,慈善的责任不仅是法律或组织章程对慈善组织的要求,更是社会公众对慈善组织的期待。一方面,慈善组织行为过程的正当性直接关乎慈善责任的履行和公众对慈善的信任。伴随着人工智能的嵌入,慈善组织行为过程的正当性正在被算法“黑箱”模糊化,使公众难以判断慈善组织是否在“负责任地做事”。更为糟糕的是,人工智能在慈善领域引发的责任困境可能会进一步演变为普遍性的信任危机,因为社会公众对慈善有着更高的伦理要求,如果慈善伦理被践踏,社会公众对其他领域的信任往往会随之崩塌。

另一方面,慈善应秉持的一些伦理价值观念在人工智能的强势植入下会被侵蚀,换言之,慈善应尽的某些责任可能难以得到履行。如前所述,人工智能嵌入慈善后,可能会引发个体层面的情感漠视,一旦个体问题普遍化后便会演变为社会问题,而与社会性冷漠相伴随的通常是人本主义价值的消解。具体而言,人工智能的技术逻辑使其难以与慈善组织的人文关怀相磨合,标准化、指标化、效率至上的技术评价体系与慈善的运作逻辑很难契合。例如,当养老机器人给予老人全天候的健康监测与保护时,老人对亲情陪伴和社会交往的需要可能会被遗忘,而这两者无疑同等重要。

 

四、人工智能嵌入慈善伦理风险的防范路径

 

在人工智能仍在强劲发展的背景下,慈善事业需要积极拥抱人工智能,与此同时需要加强对已知和未知伦理风险的治理。在伦理风险防范的既有讨论中,制度是最常被讨论的防范手段,但是人工智能本身的不确定性、高速迭代等特征使得相关立法工作难以持续适配技术发展的需要,也难以有效监管到社会生活的各个方面,仅仅依靠制度往往难以成功应对伦理风险。事实上,伦理风险是多种要素共同作用的结果,价值失衡是风险产生的诱因,规范缺失下的技术失范是风险扩散并最终导致现实伦理危机的根本原因。因此,防范人工智能嵌入慈善的伦理风险需要价值、技术和制度三重路径相协同。

 

(一)坚持伦理价值先行

 

伦理是人类社会不可缺少的思想共识,对伦理的践行本质上是“遵循完善与正义观念”的意识行动。防范人工智能嵌入慈善的伦理风险,从根本上讲是希望通过一定的举措使慈善在技术的加持下仍然能够符合社会价值观,而要实现这一目标必须坚持伦理价值先行。

首先,伦理价值先行需要明确以责任和公正作为人工智能应用于慈善的价值基准。价值可以区分为精神价值、物质价值和伦理价值,其中,伦理价值是指人在自己的行为上表现出来的真、善、美。伦理价值回答的是正当或应当的问题,即目标问题,在这一前提下讨论达到目标的手段才是有意义的。慈善作为对他者的存在及其境遇的伦理关怀,表现为一种以利他主义价值观为导向的自觉道德行为,而利他主义本身则“依赖于承认他人的实在性,依赖于把自己当作只是许多人当中的一个人的相应能力”。这意味着,制定社会规则的目的就是防止他者变成“敌人”,因此,必须通过普遍性的法则去防范未知的风险,以使自我与他者能够友好地相处。在人类社会的历史长河中,慈善或利他主义始终高扬两种价值取向,一是强调主体的责任,体现的是主体对他者的责任;二是强调社会建制及其规则,体现的是人们对和谐的向往。这两种价值实质上反映的是慈善行为中人与人、人与社会的关系。在人工智能作为一种技术中介进入慈善领域的情境下,人的本质没有发生变化,慈善伦理依然应该遵循责任和公正的伦理基准,以此为基础可以直接或间接地引申出其他的伦理规则,比如平等、尊重、诚信、透明等。

其次,伦理价值先行需要将伦理价值基准转化为可行动的伦理准则。慈善行业组织、专业性慈善组织和其他相关机构应当肩负起维护慈善伦理的责任,编写发布在慈善领域应用人工智能的伦理准则、规范、指南,或者发布人工智能嵌入慈善的伦理建议书、倡议书,明确慈善组织、慈善从业人员使用人工智能时包括伦理价值、原则和行动在内的基本框架,提出预防伦理风险的具体建议和实用工具。同时,应加强对人工智能嵌入慈善伦理指南、建议书等的传播并推动其落地应用。其中特别重要的是,慈善行业组织需要发挥行业自律作用,引导和督促慈善组织以伦理准则为指导,逐项落实要求,并对人工智能对慈善行业的伦理影响进行定期监测和评估。

最后,伦理价值先行需要通过加强教育来强化相关主体的慈善伦理价值观念。尽管人工智能技术已经发展到能够自主地“思考”与决策,但这种思考是基于数据、语料的“思考”,无法自主判断数据、语料是否符合伦理。已有学者建议在技术开发阶段嵌入预设的伦理理论和道德规范。但是,现阶段算法“黑箱”还没有被打开,将伦理价值嵌入算法存在较高难度,因此在前端对技术开发者和相关人员进行伦理教育尤为重要。此外,加强慈善文化建设,通过开展专业和职业慈善教育、建立慈善文化实践基地、加强慈善文化传播等方式使社会公众学习和了解慈善伦理对于预防人工智能等技术可能产生的慈善伦理风险大有裨益。

 

(二)加强伦理规范下的技术修正

 

加强伦理规范下的技术修正,是指在技术开发和应用的全过程中嵌入伦理要求,这要求技术人员和组织应当能够自觉地以伦理规范修正技术,以确保在发挥技术作用的同时有效地落实伦理要求。可以说,以技术手段防范慈善伦理风险的前提依然是伦理价值先行,但将伦理价值落实为技术规范是促进技术向善的关键所在。

在技术开发环节,一是应将伦理规范嵌入算法。为实现这一目标,需要将预设的伦理价值转化为可以嵌入算法的伦理准则,再在算法开发过程中嵌入“底线式道德义务”,将诸如隐私保护、性别平等、尊重等伦理规范编写为算法的底层逻辑,并且在必要的时候明确某些伦理规范的“例外原则”。二是要增强算法的透明性。政府、慈善组织或相关机构可以要求技术开发人员和组织优化机器学习算法,如采用线性回归或决策树等更具可解释性的算法,或者通过技术可视化工具展示人工智能的决策过程。只有算法可以被看见、被解释、被判断,才可能被纠正与被规范。三是以雏形化方式开展技术试错。雏形化是指允许部分测试用户与软件雏形进行交互并给出反馈,以供开发人员调试和修正。这意味着对技术的伦理性修正不是单方面依赖研发者的技术调试,它应当是研发者、使用者、服务对象等多元利益主体共同参与的过程。

在技术应用过程中,发挥伦理规范技术的作用可以考虑三方面具体做法。一是以技术约束技术。比如在数据保护层面利用加密技术来保护数据安全。如前所述,慈善参与者个体信息安全面临遭慈善组织、技术企业滥用的双重威胁,为防范这一风险,慈善组织应承担起责任,与技术供应方签署数据安全协议,要求其应用数据加密技术并监测其使用,或者向第三方购买加密技术并自行使用。二是对技术应用进行伦理审查。伦理审查是预防、发现人工智能伦理风险并防范伦理危机发生的重要方式,伦理审查的内容应当包括对过往服务过程是否符合伦理的追溯审查、对技术研发与技术操作人员进行的伦理考核以及对拟开展的慈善项目进行的伦理审核等。三是发挥多方主体的技术监督作用。慈善组织和慈善平台应充分认识到人工智能的管理部门、使用者、研究和学术组织等参与监督评估的重要意义,定期向其收集技术使用过程中与伦理相关的意见和建议,并且据此推动技术修正以使其符合伦理规范。

 

(三)以法规政策明确伦理底线

 

随着人工智能大模型的爆发性增长及其风险的外溢,我国积极推动人工智能治理法治化,先后出台《中华人民共和国网络安全法》(2016)、《中华人民共和国数据安全法》(2021)等法律,颁布《关于加强科技伦理治理的意见》(2022)、《生成式人工智能服务管理暂行办法》(2023)等政策文件。不仅如此,人工智能立法也已经被十三届、十四届全国人大常委会列入立法规划。虽然现行法律法规和规范性文件为人工智能治理提供了基本遵从,但在慈善领域应如何使用和治理人工智能尚缺乏明确的政策指引。不仅如此,2024年实施的修改后的《中华人民共和国慈善法》也缺少对人工智能嵌入慈善或“数字慈善”“智能慈善”的相关规定,民政、社会工作等相关部门也尚未出台相关政策文件。因此,立法和行政部门应当更为充分地发挥其划定伦理底线的作用,通过加强立法和政策制定来规范人工智能在慈善领域的应用,以治理已知或未知的伦理风险。在立法层面,一是可以在人工智能立法中体现慈善的内容,二是未来可以在《中华人民共和国慈善法》中对技术应用作出规制。在规范性文件层面,民政、社会工作等部门可以通过出台相关政策引导和规范慈善组织、慈善平台等合理应用人工智能,列明可能出现的违规情况并明确相应的惩处措施。

综上所述,在慈善领域应用人工智能技术是一种大趋势,但在使技术助益慈善的同时需要高度警惕技术已经或可能带来的伦理风险。与其他领域的技术伦理风险不同,因为慈善不仅具有提供社会福祉的工具意义,更为重要的是它是一种价值倡导,是人对自身和社会理想状态的希冀与预设,是自我精神与社会精神的统一,一旦慈善伦理遭到破坏,人类社会赖以生存的基本价值观可能会崩塌,人与人之间的信任不复存在,社会和谐会受到破坏。因此,十分有必要在人工智能嵌入慈善的起步阶段,基于人工智能伦理的大讨论和人工智能应用在慈善领域已经产生的对个体和社会的不良影响,构筑起一个多元主体参与的伦理、技术和制度共同发挥作用的伦理风险防范系统,以期更好地实现技术向善和推动慈善事业高质量发展。

(因篇幅所限,注释、参考文献省略。)

 

 

 

 

相关链接

  1. 《公益研究》|| 编辑部恭祝各位专家学者新春快乐!

  2. 《公益研究》|| 徐家良:数字技术赋能慈善事业高质量发展:内在逻辑与基本策略

  3. 《公益研究》|| 金锦萍:论三次分配协调配套的基础性制度之构建

  4. 《公益研究》|| 朱健刚、高锦涛:建构意义和动员资源:集体行动视域下的民间志愿组织发展策略研究

  5. 《公益研究》|| 郑功成:中国特色慈善事业的理论建构与实践发展

 

来源:微信公众号公益研究期刊

Copyright © 2019 南京工业大学浦江学院 All Rights Reserved.苏ICP备14022341号-1 网站建设:中企动力南京
地址:江苏省南京市溧水区石湫街道励学路9号