公益视界
“AI+公益”的伦理风险
2024-09-09 13:26:30
概要:
今年美国怀俄明州夏延市的市长竞选中,候选人维克多·米勒与定制版的AI机器人共同参与了选举。该事件引起了专业人士的担忧,认为AI无法替人类做出道德决策和承担责任。OpenAI公司得知消息后关闭了该机器人对公众用户开放的权限,州官员也认为这会违反州法律。最终米勒和他的机器人在11,036票中只获得了327票。
看完这则新闻联想起目前公益领域热度很高的AI。每一种新技术出现都会在公益圈热闹起来。云计算因为其基础设施属性和实用特点已得到大量应用,区块链和元宇宙与公益慈善的实际业务距离太远还没找到应用场景。但AI由于极高的适用性很可能在公益领域产生巨大影响。
正如上面新闻反映出的问题,如果从伦理道德角度来观察,即使人们怀着最大的善意来使用AI,它也可能带来特别的风险:
01
对公信力的怀疑
当越来越多的内容用AI生成和传播,信息的真实与虚构也逐渐变得无法区分。这会导致对所有媒介信息的普遍怀疑。公信力是公益事业的基石和生命线,直接关系到公益组织的社会形象、资源动员能力、社会影响力以及长期可持续发展。这一根基如果因为使用AI而遭到破坏,对整个行业来说无疑是得不偿失。
02
模糊及问责
AI的决策过程对于人类来说是“黑箱”,无法对其进行审核或向公众做出解释。这意味着AI对使用这些系统而受影响的人是模糊不清的,导致在系统造成伤害时无法问责。AI的模糊性使得人们无法确认其权利是否被侵犯以及为何被侵犯,从而无法针对这些行为寻求救济。如果一个项目包含各种参与方(包括出资者、政府、NGO和数据收集者等服务商),那么一旦系统做出了一个歧视性的决定或系统提供的分析最终导致偏颇的决定,最终很难进行问责。
03
不可预测性
AI的一个显著特征就是能以无法预料的方式进行学习和演变。它们能够逐渐发现新问题,找到解决办法。同时AI的解决方案不一定总是符合逻辑的,甚至不见得能被人类理解。这种特性使得系统设计者和实施者难以预测和解释AI在特定环境下的运用会带来何种性质和程度的风险。此外,即使是最强大的机器学习系统,其适应性也是有限的。如果将它用于与原训练数据大相径庭的环境,会带来极大的不可预测性。
04
对隐私权的损害
AI能分析海量私密数据或公开获取的数据并做出推测,这种能力可能会严重影响受保护的隐私权。如它可能会揭示出关于个人的所在地、社交网络、政治色彩、性偏好及其他更多的敏感信息。此外数据密集型的机器学习会助长进一步的数据收集,从而导致对隐私权更多的侵犯。
05
不平等、歧视和偏见
如果用不完整、带有偏见或有其他缺陷的数据来训练AI模型,可能会导致AI产出歧视性或不公平的结果。 比如界定问题时选择一个与社会经济或种族特征相关的指标变量;收集数据时一个边缘群体没有得到足够的体现;甚至开发者本身的偏见可能会在无意中被写入AI模型。比如,亚马逊用于简历审查的一个AI工具不成比例地拒绝了女性,有些人脸识别工具不擅长识别特定人种的脸孔。中立是核心的人道原则,歧视可能会带来极高的代价——比如决定谁能得到至关重要的援助,甚至谁可以活下来而谁会死去。
结语
AI虽然可以为人类的利益服务,但如果没有适当的保障措施且不对相应的风险进行问责,那么它也有可能损害人类的利益。因此,设计AI系统的技术人员和使用者都越来越清楚地意识到需要在工作中纳入伦理考虑。与此同时人们已经制定出越来越多的技术规范和标准来确保人工智能系统是“安全的”“可靠的”和“可信任的”。但仅靠技术规范还不足以确保AI为人类利益服务。如何在与技术的相互规训和共生中,共同承担维护公共利益和价值观的责任,是全人类需要慎重考虑的问题。
转载自:微信公众号芳邻志愿积分