美国警方凭借AI工具乱抓人的现象存在诸多严重问题:
错误识别与误抓风险
技术局限性
AI工具在识别过程中可能存在较高的错误率。例如,面部识别技术可能会因为图像质量差、角度问题、相似外貌特征等因素而出现误判。一些研究表明,在不同种族人群的识别上,面部识别AI系统存在偏差,对于有色人种的识别错误率相对较高。
这种误判直接导致警方依据错误的AI识别结果去抓人,无辜民众可能会遭受不必要的骚扰、逮捕甚至是暴力执法。例如,曾有报道称一些人被错误识别为犯罪嫌疑人,在工作场所、家中或公共场所突然被警方带走,他们的生活被严重打乱,名誉也受到损害。
数据偏差影响
AI工具的准确性依赖于所使用的数据。如果用于训练AI识别系统的数据存在偏差,例如数据集中某些特定群体的数据过多或过少,就会影响识别结果。
美国社会存在种族等方面的不平衡,数据也可能反映这种不平衡。若训练数据集中更多地包含某一种族的犯罪数据,可能会导致AI工具对该种族的人员过度怀疑,从而增加该种族无辜民众被误抓的概率。
缺乏有效监管与问责
监管缺失
目前对于警方使用AI工具缺乏严格统一的监管标准。不同州甚至不同警局在使用AI技术辅助执法方面的规范参差不齐。
有些地方可能根本没有对AI工具的准确性、使用流程等方面进行审查和监管,这使得警方可以较为随意地依据AI工具提供的信息采取行动,容易滋生权力滥用的情况。
问责困难
当出现误抓等情况时,很难确定责任的归属。是AI工具开发者的算法问题,还是警方过度依赖和错误使用AI结果的问题难以界定。
由于缺乏明确的规定,受害者往往难以获得有效的赔偿和道歉,警方和相关部门也缺乏足够的动力去改进这种状况。
侵犯公民权利
隐私权侵犯
AI工具在收集和分析数据的过程中可能会侵犯公民的隐私权。例如,大规模的监控摄像头与AI面部识别系统相结合,可能会在未经公民同意的情况下收集大量个人信息。
这些信息可能被不当使用,不仅影响公民的日常生活隐私,还可能被用于其他不当目的,对公民的基本权利构成严重威胁。
正当程序受损
美国司法体系强调正当程序,但AI工具的乱抓人现象破坏了这一原则。警方仅凭AI结果抓人,而没有经过充分的调查、证据收集和合理怀疑的建立等传统司法程序要求的环节。
这使得公民在面对警方执法时处于非常不利的地位,破坏了司法的公正性和权威性。
|
|