查看原文
其他

人工智能在警察审讯中的应用:一项针对人工智能对种族和性别偏见、合作和虚假供词的影响的分析


摘要


本研究中提出的研究检验了人工智能作为警方审讯中的审讯者的潜力,以促进一个无偏见的环境,努力减轻关于虚假供词的统计数据中正在进行的种族和性别差异。理想情况下,人工智能补充可能有助于促进非强迫、自愿的招供。

这项研究表明,影响虚假供词的种族和性别偏见可能是由于审讯者对嫌疑人的双重偏见,在这项研究中被称为“偏见-不合作循环”。它认为,在审讯室应用人工智能可以最大限度地减少动态过程中出现的双重偏差。它表明,双方之间的合作潜力可以由可编程的相似性来制约;由此人工智能可以模仿所讨论的嫌疑人的种族、民族和或文化相似性。这反映在不同领域(不包括审讯)的研究中,以提高舒适度和与人工智能的合作。本文假设了类似的结果。


正式介绍


本研究中提出的研究考察了人工智能作为警方审讯中的审讯者的潜力,以促进一个无偏见的环境,努力减轻当前关于虚假供词的统计数据中的种族和性别差异。理想情况下,人工智能补充可能有助于促进非强迫、自愿的招供。

1992年,通过无罪项目正在进行的脱氧核糖核酸无罪证明,美国国内越来越多的人承认警察诱导的虚假供词以及“系统内”的偏见,这引起了公众的注意。在这364个免责案件中,大约28 %的案件涉及虚假供词。此外,在这些病例中,70 %的外显子是黑人、拉丁美洲人或美洲土著人。25年后的2017年,美国国家免责登记处的报告《美国的种族和错误定罪》发现了一种持续的模式,其中“执法不当行为和种族主义也发挥了重要作用,例如警察故意针对黑人进行突袭、逮捕和虚假供词。审讯中的性别偏见是另一个有争议的问题,在基于虚假供词的免责中,女性占11 %,而在全部免责中,女性占9 %。这些女性的虚假供词被认为受到社会性别偏见的影响和攻击,特别是在“对家庭责任的威胁”方面。总体而言,百分比统计数据表明,女性基于虚假供词定罪的可能性更大。

越来越多地使用旨在最大限度地减少或理想地消除刑事司法和法律系统中的偏见的新平台,给人与人工智能的合作援助带来了一些启示。早在2009年,美国就有48个州利用某种基于计算机算法的风险评估工具在刑事司法系统的各个阶段进行筛查。本研究旨在阐明人工智能辅助讯问在警察讯问中种族和性别偏见这一持续存在的问题领域中可能带来的益处,及其对虚假供词的影响。

本研究的重点突出了a院长进行的2014年研究。波利娜和艾莉森·巴雷特在《国际人类计算机研究杂志》上发表了一篇论文,其中他们的一部分研究表明,在人工智能环境中,承认非法行为(在国家安全许可采访的背景下)是可能的,也是可能的。我认为,鉴于在国家安全采访中获得犯罪行为的承认和在审讯中获得犯罪行为的供词的相似性,人工智能可以在审讯室的环境中发挥作用。我认为,波利纳和巴雷塔(2014)中使用的模型可以作为认罪情况下未来出口的基线模型。

我还将强调审讯者对嫌疑犯和嫌疑犯对审讯者之间的理论合作动态。它认为,有一个双重的偏见动态发生,(在本研究中称为“偏见-不合作循环”),这最终导致合作和愿意披露信息的沟通错误。这可能会导致更激烈、更严格的审讯,并可能导致虚假供词的倾向。然后,我认为,人工智能作为一个审讯者的使用,理论上可以通过最小化或理想地消除出现的双重偏见来停止偏见-不合作循环,从而理想地最小化或消除虚假供词的风险。此外,它承认,合作可以进一步受到可编程的相似性的制约,从而人工智能可以模拟所讨论的嫌疑人的种族、族裔和/或文化相似性。




全部内容在知识星球


本期编辑:LPC

如有侵权,请联系管理员删除

通过“情报学院”知识星球可以阅读该资料的全都内容👇




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存