(二)
但我总还是倒吸一口凉气。
因为很简单,万一AI搞错了呢?
比如,以色列的AI锁定了某个哈马斯领导人,万一锁定错了,那是不是意味着以军会杀错对象?
还有,以军通过AI,探知了某个哈马斯据点,万一这是一个伪装据点,或者,AI建议用错了炸弹,是不是会造成大规模人员伤亡?
这次加沙之战,不排除以军使用AI,确实清除了一些哈马斯目标;但更要看到,以军对加沙的轰炸,已导致8000多人死亡,其中3000多人是儿童,这些未成年的孩子,不可能是哈马斯吧?
我看到,有AI专家就明确表达了忧虑,因为大数据是大数据,现实更错综复杂,一旦AI介入到战争,并决定人类生死,那“一个主要的风险,就是你击中了错误的目标,它可能造成平民伤亡,或者打击友军目标造成自相残杀”。
而且,AI还会产生虚假的自信。
一个极具讽刺意味的例子:就在哈马斯发动致命攻击前一周,当时北约军事委员会主席到访以色列,以军将领特意带他到加沙边境,展示以军对加沙的AI监视。
用媒体的话说,从利用人脸识别软件,到头顶上的无人机,再到边境检查站和电子窃听技术,以色列对加沙的监视,被广泛认为技术含量最高也是最有效的努力。
2024-11-06 10:35:31
2024-11-06 10:23:46
2024-11-06 10:48:50
2024-11-06 10:29:26
2024-11-06 10:53:09
2024-11-06 10:46:31
2024-11-06 10:55:50
2024-11-06 11:06:36
2024-11-06 10:51:20
2024-11-05 22:43:07
2024-11-06 10:26:38
2024-11-05 22:49:22
2024-11-05 22:57:41
2024-11-05 22:46:15
2024-11-05 22:52:35
2024-11-05 11:23:35
2024-11-05 21:58:23
2024-11-05 22:38:13
2024-11-05 22:40:25
2024-11-05 11:39:31
2024-11-05 11:19:45
2024-11-05 11:18:02
2024-11-05 11:37:08
2024-11-05 11:21:29
2024-11-05 11:32:34