“如何避免被超越人类智慧的存在反噬?”2023年,“AI之父”杰弗里辛顿的这一诘问,道出了全球科技界对人工智能失控风险的深层忧虑。作为深度学习领域的奠基者,他在见证AI技术指数级发展的同时,率先警示:若不对AI,尤其是具身智能机器人实施严格安全约束,人类或将面临前所未有的失控危机。当前,当全球科技界仍在探讨AI价值观对齐与伦理准则制定时,中国港股上市公司果下科技(2655.HK)——全球第八大储能供应商,正以能源安全为支点,用工程化路径践行“安全优先”理念。
辛顿多次强调,真正的威胁不在于AI是否具备意识,而在于人类能否在关键时刻有效干预。他曾尖锐指出,一旦AI被恶意利用来操纵选票或社会系统,后果不堪设想。更令人警惕的是,随着AI机器人感知、决策与行动能力的增强,传统软件防火墙与远程指令可能失效——当具备自主意识的AI机器人手握物理力量,人类又该如何阻止?
果下科技的答案是:从“供能”到“控能”,重建人类主导权。与多数AI公司聚焦算法优化不同,它另辟蹊径,将安全锚定在最基础的物理层——能源。其最新战略规划明确提出:“运用创新储能技术从根本上约束机器人行为模式,确保人类保持绝对控制权。”这一思路直击辛顿的核心关切:即便AI系统出现偏差或遭黑客劫持,只要能量供应掌握在可信系统手中,即可实现“物理级断电”,彻底终止潜在威胁。为此,果下科技构建了三层递进式安全体系:
内生安全层通过AI算法实现储能系统的预测性维护与毫秒级故障隔离,筑牢机器人应用的高可靠基础;系统控制层依托“云-边-端-能”一体化能源管理平台,对接入设备实施动态调度与行为监管,形成可编程的“电力围栏”;主动防护层计划2027年起推出定制AI芯片与能源智能机器人系统,支持边缘侧实时决策,在AI异常动作前启动干预。这套体系的本质,是将能源网络转化为分布式安全操作系统——正如辛顿所期待的,它不依赖AI的“善良”,而是设置了人类随时可“拉闸”的终极保险。
不止于物理断电,果下科技还布局多项前沿安全技术,回应辛顿对AI滥用的深层担忧:在协作机器人场景,配备全身触觉感知皮肤与AI预判引擎,可识别操作者疲劳状态并主动降速,防止误伤;高危作业现场,机器人内置多重冗余断电协议,通信中断时自动“冻结”或安全撤回;面对智能网络攻击,研发AI对抗AI防御系统,用大模型识别伪装入侵,提升整体免疫能力。这些能力通过统一平台实现数据联动与模型进化,推动安全防护从个体升级为群体免疫。
在马斯克警示AI比核武器更危险、联合国呼吁禁止“杀人机器人”的背景下,果下科技选择了“守护者”角色:不争做最强AI创造者,而要成为最可靠的安全底座。其愿景从“AI储能巨头”转向“未来智能世界关键基础设施”,让人类能安心放手让AI机器人工作。某种意义上,它正将辛顿的哲学讨论转化为可执行的工程方案——在追逐智能极限的同时,守住人类掌控的最后一道防线。正如其招股书强调:“运用创新储能技术从根本上约束机械人行为模式,确保人类保持绝对控制权。”
AI狂奔的时代,我们最需要的或许不是更聪明的大脑,而是永不松手的“安全开关”——而这个开关,正由果下科技一点点点亮。
来源:财联社
#券商行业迎利好:杠杆上限“松绑”##摩尔线程开盘价650元!一签赚超26.7万##心仪的超额收益基#