好家伙,现在对奥特曼家发起武装冲锋、组团刷奥特曼家宅的副本、领取旧金山警局的“攻击后拘捕“成就,已经成了流行活动。
在被扔燃烧瓶的72小时内,奥特曼家被人打枪了。
当地报纸和旧金山警局宣布:
北京时间昨日下午4点40分左右,23岁男子穆罕默德·塔里克·胡塞因,和25岁女子阿曼达·汤姆,乘坐注册在该女子名下的本田小汽车,驶经OpenAI老板奥特曼位于旧金山的家宅门口前道路。
驶过该处时,车内有人将持枪手臂伸出车窗,并向该住宅开了一枪。住宅中的保安人员确认听到枪声,住宅上的摄像头录像也证实了枪击事件。
该车辆在行凶后逃逸,按照摄像头拍下的车牌号,北京时间昨晚6点56分,当地警方挡获该车辆,拿获两嫌疑人,逮捕过程中无人伤亡。之后对此二人住所的搜查,查获另外三把枪支。现在两名凶嫌以“轻率开枪”的罪名被有司拘扣。
01
案情简析:事情大,抓人用的罪名却小
枪击大人物家的嫌犯,被控罪名是“轻率/疏忽开枪”的轻罪,是因为这事实在太奇怪。
骑摩托/开小汽车,飞车经过目标所在处,车不停,枪手持枪伸手扫射,这在美国俗语里叫drive-by。
此类案件多发于黑帮火并。行凶者一般会使用未注册的非法短型自动火器,扫射视界中的真人或小房屋。射击次数往往超过十几次,才能保证在颠簸和高速移动的载具上能有效命中目标。
图注:“洛圣都不养闲人”,GTA5老玩家会很熟悉Drive-by手法
对着大老板的大豪斯,飞车路过只开一枪。撒疯的意味多过要致人死命的实操可行性。行凶的暴徒不能不抓,但执法部门讲究按章办事、勿罔勿纵,只好按够格的轻罪名关押嫌犯。
图注:朝这个大门口只开一枪,伤害院内绿植的概率远高于伤人
这可真是,大老板博弈超级智能大棋局,普通人开玩真人GTA5实境副本。高端局碰上草根风,未知何方胜出。
02
奥特曼屯枪、有武器级核材料、有地堡,高攻高防,常人跟他对轰,难说谁会赢
对科技富豪们真人开片,真的无助于在AI热潮中惶惑和受挫的普通人。如果要把真理粗暴缩写成“批判的武器不如武器的批判”,那么要记住,科技富豪们手里的“真理”比单个普通人那可丰富太多。
奥特曼是屯枪老资格、造脏弹也可以。跟这种人搞美式居合淘汰赛,谁先出局真是难说得很呐。
十年前,奥特曼就公开承认自己跟随“末日预备”风潮屯枪积药,不怕人类毁灭。他在受访时的原话是:“我屯了枪、黄金、碘片、抗生素、电池、清水,从以色列国防军那里买了防毒面具,可以随时飞抵有大块面积的避难所。”
奥特曼在自己的狡兔三窟里屯了多少枪,十年来没有公布过确切数据。他作为公关宗师,近来在有意淡化自己的“末日预备者”形象。
去年上播客节目时,奥特曼说:“不要乱讲我有掩体地堡哦,我只是给自己和家人修了加固的混凝土地下室。”
播客主持人当场绷不住:“大哥,你这说的不就是地堡么?”
机智的奥特曼马上让播客主持人拿ChatGPT查了地下室和地堡的字义区别:前者是家用储存库、放洗衣机的地方,后者是军用或官用的防爆、防辐射、防自然灾害的地下建筑。然后宣布“看,我真的没有地堡”。
图注:节目截图
一边渲染AI将终结人类既有经济形态、一边深挖洞广积枪,实在不利于公共形象塑造,所以奥特曼口风严谨、不说自己有多少枪械和弹药。
然而奥特曼不仅是个人有枪,他投资的企业现在能拿到武器级核材料。私有公司走到这一步,老板想手搓脏弹,或成为核武拥有者,已非天方夜谭,费的只是躲避监管部门的工夫。
2025年10月下旬,美国政府能源部通知四家合作开发并实验新型核反应堆的民营公司:你们可以打申请购买本部门储存的武器级钚。其中一家公司是奥特曼投资并长期出任总裁的Oklo。
按公开数据,退役的冷战时代美国核武载具上搭载了19公吨的武器级钚,现处于闲置库存中。
《金融时报》当时报道此事时,称此通知在科学界引发强烈不安,有关人士将此视作“核能开发上的放松管制”,让人担忧。物理学者埃德温·莱曼称:“如果决策层是有责任心的稳妥人,并且我能相信现在的美国政府能执行正确的规程的话,此事的确不大。不过现在看来,那些前提条件越来越不成立了。”
裂变核弹其实是一款1940年代的技术产品,对现在科技公司的富豪来说,设计构型、生产人力、精密设备都可以走不同渠道获取。唯一的实质障碍是裂变材料。武器级纯度的铀和钚属于全世界所有国家政府严格管制的高风险物资。
理论上说,这批武器级钚的审批、移交、储藏,要经过漫长、严谨、繁琐的行政审批与监控程序。不过本届特朗普政府的特色是绕开成文规定、做事不顾章程,理论和现实的距离越来越大。
科技富豪把大总统奉承到位、走快速通道拿到许可、掌握武器级核材料,虽然概率较低,但并不是不会发生的事。
哪怕奥特曼不愿费麻烦造核弹,手下企业获取放射性材料后,他弄来裹在普通爆炸物外做“脏弹”,那也在能力范围之内。
除了美国本身的官方监察机构,国际原子能机构(IAEA)的监管机制,也在监控商用/民用核材料的流向。但IAEA向来有“能防君子难防小人”的风评。恶意实体或个人使用普通爆炸物散播放射性物质,在近二十年内一直是核风险关注者的担忧。
大老板手下的公司可能获得武器级钚,普通人还想着时时挑衅他,这日子过得可真是越来越有盼头了。
AI对齐界的先导者、机器智能研究所(MIRI) 创始人埃利泽·尤德科夫斯基,在2025年出版的著作,标题耸人听闻,是《如果有人造出超级人工智能,全人类都要死》。
不过这题目吓人的书,不乏平实中肯的内容。尤德科夫斯基坚决反对用暴力和恐怖方式来反对AI企业:“暴力袭击只能宣泄大家的暴烈情感,发泄之后,舆论版图更加碎裂和对立,无助于管制AI的大众意见。恐怖主义只能将公共事件进程推向无人乐见的方向。在互相对轰的未来,理性的AI批评者会是输家。”
与最近三天的时讯对照,这话真是一点没说错。