2025年12月下旬,一家科技公司在内部测试过程中,一台新型服务机器人突然用腿部动作将工程师踢倒在地,虽然工程师没有受到严重伤害,但现场视频在22日被传到网上后引发了公众广泛关注,公司随后解释称这是程序错误所致,并非有意行为。
这个机器人原本是为商场或养老院设计的,能走路、避障、拿东西,动作很灵活,可那天它在同时做多个任务时,传感器数据冲突,系统自己乱套了,结果就踢到人了,这不是机器坏了,是它判断错了,现在很多公司觉得只要避开障碍物就算安全,其实这远远不够,真正的安全应该像汽车的安全带那样,有实际的限制,不能只依赖软件猜测。
测试环节也出问题,很多公司为赶时间先在虚拟环境跑一遍流程,再找真人试几次就敢正式使用,这次事故正好发生在测试最后阶段,说明前面根本没有模拟过人突然冲过来的极端情况,人工智能学的是正常操作步骤,没人教它处理突发意外,就像练车只练直行,一遇到转弯就完全不会应对。
网上很多人讨论“机器人发脾气”和“ai觉醒”,其实这些说法都是随便猜测,人类看见机器突然动起来,第一反应就是觉得危险,这是本能,2017年波士顿动力那个机器人翻跟头的时候,大家也说它在挑衅人,其实只是物理惯性造成的动作,我们太习惯给机器加上感情色彩,反而忽略了技术本身可能存在的问题。
欧盟今年实施的新规对高风险ai系统提出安全要求,比如必须配备物理限位和紧急停止按钮,中国去年底发布了《服务机器人安全技术规范》,但尚未正式执行,企业主要依靠自觉遵守,这次踢人事件可能促使监管部门尽快完善相关细则,避免类似事件再次发生带来更大风险。
技术越是进步,安全措施越要直接有效,不能依赖人工智能自己思考明白,要让机器无法乱动才算真的安全,现在人们只顾着追求功能有多厉害,很少考虑万一系统失去控制会怎么样,这种情况如果发生在商场里面,后果真是难以想像