当计算机击败人类时,这是一个愉快的21度纽约 - 或许多人都在想。
1997年5月的那个星期天,国际象棋大师兼世界冠军加里卡斯帕罗夫被深蓝打败,这是一台由ibm开发的相当不起眼的黑色矩形计算机。在大众的想象中,似乎人类已经超越了一个门槛 - 一台机器在我们所知道的最具智力挑战性的游戏之一击败了这个星球上最聪明的人之一。人工智能的时代在我们身上。
虽然deep blue当然是一项令人印象深刻的技术,但它只不过是一台增压计算机。除了下棋的能力之外,它没有任何智慧可言。这是非常非常擅长下棋,但绝对没有其他任何东西。几十年来我们都拥有这样的技术:如果你在80年代或90年代上学,你可能有一个袖珍计算器,它以自己的方式,是一种非常基本的人工智能形式。
今天围绕着我们的口袋计算器更加复杂的人工智能 - 想想siri,google搜索和nest - 但他们仍然拥有非常狭窄的功能。但是,如果你超越无害化的人工智能消费者应用程序,你会发现人工智能应用程序的功能增加是爆炸性的,给世界带来了巨大的后果。人工智能应用程序的发展是通过之前的技术革命实现的:数据。
互联网,移动电话,连接系统和传感器产生的大量数据增强了某种称为深度学习的ai技术。机器部署深度学习以分析大量数据以查找模式并找到意义。研究人员在大型数据集上“训练”机器; 它拥有的数据越多,其结果就越精细。
通过人工智能技术分析大量的健康记录,医生可以改善诊断; 通过汽车,电话和城市传感器的数据,城市可以优化交通,减少污染和旅行时间; 通过分析服务器需求和温度变化,公司可以在数据中心节省数百万美元的冷却和电力,同时降低成本和环境影响; 通过分析卫星数据,各国可以预测作物短缺并预测森林砍伐。这一切都是可能的,因为计算机能够处理非常大的数据集并理解它们,这是一项远远超出人类能力的任务。
善,恶,暧昧
与任何技术一样,ai既有好的又有害的应用。有助于降低数据中心功耗的ai将产生积极的社会影响。一群自主武装的军用无人机不太可能帮助人类(即使你不认为自主武器本身就是一个坏主意)。
在这两者之间存在大多数ai应用程序。它们可能对人权产生积极或消极的影响,具体取决于它们的开发和使用方式。让我们看一个现实生活中的例子:预测性警务。
这项技术已在一些国家存在。各种美国和英国警察部队使用软件来预测公民可能犯罪的时间和地点,以便他们可以为犯罪热点分配更多资源。从理论上讲,这是一个好主意。与所有组织一样,警察必须做出选择并优先使用他们的资源 - 让警察随时准备应对可能发生犯罪的地方做出回应肯定比让他们在城市的另一端巡逻更好。
或者是吗?
我们可能没有像少数派报告那样的预警,但预测性警务已经在这里。这个问题甚至在政府实体使用犯罪预测软件之前就开始了 - 它始于困扰数据革命的问题:偏见。
要了解问题偏差,请考虑一个城市的情况,该城市希望引入预测软件来帮助解决犯罪率并更好地利用其前线警察部队。警方与一家开发预测性警务软件的科技公司签约。该公司要求警方提供15年的逮捕和犯罪数据,按犯罪类型,日期和时间,地点和定罪率等分类,以及其他相关数据。
公司使用数据,算法开始生成预测。它将警察部队引导到现有的犯罪热点,但由于它更系统地这样做并更好地预测犯罪时间,因此导致更高的犯罪率,逮捕率和定罪率。第一个试点看似成功,政治领导人很高兴。
数据问题
但这里有一个问题:这个城市有过度监管某些种族和宗教少数群体以及市中心区域的历史。政治家和警察领导层已经表示,解决这个问题是一个优先事项,事实上,预测性警务的转变被视为消除人类偏见的一种方式 - 在所有算法都没有感情,设定观点或人为偏见之后。
但算法使用了偏差数据。过去记录较高犯罪率的地区也恰好是该城市的一部分,其民族和宗教少数群体的集中程度较高。算法开始在这些地区预测更多的犯罪行为,派出更多的前线警察,他们逮捕了更多人。新数据反馈到算法中,加强了决策过程。它的第一次预测结果是准确的,因为确实有犯罪被停止,这使得它更加关注,继续向城市的这些地区发送不成比例的警察资源。由此导致的更高的犯罪侦查,逮捕和定罪实际上掩盖了越来越多的歧视性做法。
结果是一个反馈循环,城市只有在纠正历史和持续偏见时才能逃脱。
在许多其他当前和潜在的ai应用中可能出现这种数据偏差和歧视性自动决策问题。仅举几例:关于健康保险,抵押和贷款申请的决定; 招聘职位; 学生入学; 和假释和量刑。歧视性人工智能对人权的影响可能是广泛而具有破坏性的。
透明度问题
在自动化决策中使用ai的另一个主要问题是缺乏透明度。这是因为深度学习在过去几年中已经变得非常重要,它通常使用神经网络,即大脑的数字等效物。在神经网络中,数百万个计算单元堆叠在数十个层中,处理大型数据集并提出预测和决策。就其本质而言,它们是不透明的:不可能确定ai如何产生特定的输出。
这是问责制的严重问题。如果你无法弄清楚机器出错的原因,你就无法纠正它。如果您无法审核机器的决策,则无法找到可能隐藏的问题结果。虽然财务审计有助于减少会计错误和财务不端行为,但您无法通过深度学习人工智能来实现这一目标。这是一个黑盒子。
从好的方面来看,许多人工智能科学家,公司和政策制定者都认真对待这个问题,并且有各种各样的尝试来开发可解释的人工智能。这就是美国国防高级研究计划局darpa如何描述其可解释的人工智能计划的目标:
制作更多可解释的模型,同时保持高水平的学习成绩(预测准确性); 和
使人类用户能够理解,适当地信任并有效地管理新一代人工智能合作伙伴。
人权解决方案
在这里,我概述了一些可能的方法来解决人工智能使用所带来的一些人权挑战。
1.纠正偏见
如果我们知道我们计划输入人工智能系统的数据存在偏差风险,那么我们应该首先纠正它。第一部分是承认存在偏见 - 这通常不是负责数据的人会容易承认的,要么是因为他们不相信它有偏见,要么因为承认它会令人尴尬。
无论哪种方式,纠正偏差都不应该是可选的。在任何影响个人权利并依赖个人数据的ai系统中,它必须是强制性的。第一步是测试数据集的偏差:应该定期测试种族,宗教,性别和其他常见偏见,以及更多特定用途的偏见。第二步是纠正偏见 - 这可能是复杂和耗时的,但是必须防止ai系统成为歧视性做法的推动者。
2.分配责任
我们应该期望一个机构在使用人工智能时采用同样的问责制,就像雇用人工一样。对于ai,透明度问题意味着公司无法以询问人员的方式查询自动决策。这不应影响机构问责制:使用人工智能制定影响个人权利的歧视性决策的公司或公共机构应负责补救任何损害。它应定期审查有关歧视行为迹象的决定。
与人工智能和其他数字技术一样,开发人员也有责任尊重人权 - 他们必须确保他们的技术本质上不具有歧视性,并且他们不会将其出售给可能将其用于歧视性或对人类有害的目的的用户权利。
3.在高影响行业中避免无法解释的人工智能
这适用于可能对个人权利产生直接影响且不具有内在危害的ai应用程序。无论是预测犯罪还是批准抵押,如果由没有有效问责制的人工智能系统作出决定(如上文第2点所述),则不应使用它。这太激进了吗?几乎不; 我们不接受现在允许审计或司法系统不允许上诉或司法审查的会计制度。透明度和问责制对于尊重人权至关重要。
我并不主张所有ai应用程序都应通过此测试。许多商业和非商业人工智能应用程序不需要,因为它们对个人权利的影响要么是微不足道的,要么可以忽略不计。
我强调的许多问题 - 数据偏差,问责制和其他问题 - 同样适用于不使用深度学习ai的自动化系统,这些系统的关键区别在于,至少在理论上,这些系统更加透明。
对于人工智能的使用对保护人权的问题,这些既不是全面的,也不是经过检验的解决办法; 我的目标是突出一些挑战和可能的解决方案 - 并开始对话。