07/05/2024

Athens News

来自希腊的中文新闻

人工智能识别出加沙地带的爆炸目标


一份有关以色列军方正在使用未经测试和未知的人工智能数据库来识别加沙轰炸行动目标的报告引起了人权和技术专家的警惕,他们表示这可能构成“战争罪”。

以色列-巴勒斯坦出版物+972杂志和犹太媒体Local Call最近报道称,以色列军队 使用名为 Lavender 的人工智能定位系统将数千名巴勒斯坦人识别为潜在的轰炸目标。

“这个数据库负责编制多达 37,000 个目标的死亡名单。”周四,在以色列被禁的半岛电视台记者罗里·查兰兹 (Rory Chalandz) 在被占领的东耶路撒冷进行报道时说道。

未透露姓名的以色列情报官员对媒体表示,拉文德的误差幅度约为 10%。 “但这并没有阻止以色列人利用它来加速识别加沙的哈马斯低级别成员,并对他们进行轰炸。” – 查兰兹说。

很明显,以色列军方 “使用未经测试的人工智能系统……做出有关平民生死的决定, 哈米德·本·哈利法大学中东研究和数字人文副教授马克·欧文·琼斯告诉半岛电视台。 – 让我们明确一点:这是人工智能协助的种族灭绝,我们现在必须呼吁暂停在战争中使用人工智能。”

以色列媒体报道称,这种方法导致数千名加沙平民死亡。 加沙卫生部周四表示,截至 10 月 7 日,由于以色列 攻击 至少死了 33,037 名巴勒斯坦人,75,668 人受伤

人工智能的使用“违反”了人道主义法。 “与人工智能数据库互动的人往往只是一个橡皮图章。他们会仔细审视这份击杀名单20秒,然后再决定是否授权空袭。””查兰兹说。

作为对长期批评的回应,以色列军方表示,其分析人员应该进行 “独立检查” 确保所确定的目标符合国际法的相关定义以及其部队施加的额外限制。 他们驳斥了技术是 “系统” “这只是一个数据库,其目的是交叉匹配情报来源,以获得有关恐怖组织军事行动的最新层层信息。”

但事实上,对于每一个成为预定目标的巴勒斯坦战士来说,都有 “假设有五到十名平民死亡” 显示原因 加沙有这么多平民死亡 查兰兹说。

悉尼新南威尔士大学人工智能专家托比·沃尔什教授表示,法律学者可能会认为,利用人工智能进行目标定位违反了国际人道主义法。 “从技术角度来看,这一最新消息表明,在对人工智能系统进行有意义的监督的同时,保留人为因素是多么困难,这些系统正在可怕而悲惨地助长战争。” -他在接受半岛电视台采访时说道。

值得注意的是,军方使用人工智能来识别出现此类错误的潜在目标可能是100%合理的。 据白宫发言人约翰·柯比称,因为他们没有记录 不是单一事件以色列将违反的地方 国际人道主义法! 这意味着加沙战争期间发生的一切,以及对伊朗驻叙利亚大使馆的袭击——这一切,从美国的角度来看,都是绝对合法的。

难怪他们说: 如果是一位绅士 无法通过规则获胜,他改变了规则”



Source link