360周鸿祎:机器人不伤人原则已被打破,AI最后底线必须是人

站长资讯 (11) 2022-07-28 10:40:53

“原来机器人永远不要伤害人类的原则,现在看来已经被打破。所以,我们建议应该把AI最后的决定权交给人类,让人来做最后的控制,而不是完全让AI做自动的判断、自动的决策。”360集团创始人周鸿祎今日在参加2022新智者大会时表示。

360周鸿祎:机器人不伤人原则已被打破,AI最后底线必须是人_https://www.jinrisc.com_站长资讯_第1张

他在主题演讲中表示,面对人工智能带来各种复杂安全挑战,网络安全行业应当被重新定义,将计算机安全、网络安全升维到数字安全。其中,《国家安全战略(2021年-2025年)》明确提出加快提升网络安全、数据安全、人工智能安全等领域的治理能力,这也是国家战略层面首次提出人工智能安全的概念,说明人工智能安全是数字安全的一部分。

周鸿祎指出,AI已应用在战争中,不伤人原则已被打破,比如今年的俄乌冲突。“从人下指令,到AI自动识别、自动判断、自主发起攻击,我觉得就是一层薄薄的窗户纸。所以把AI武器最后的决定权交给人类,让人来做最后的控制至关重要。人工智能最后的底线必须是人。”周鸿祎说道。

除应用于战场上外,人工智能安全也面临着七重挑战,包括硬件、软件、通信协议、算法、数据、应用和社会伦理。周鸿祎提到,经典的“电车难题”就是很好的例证。面对电车选择难题,AI程序该如何来做出判断。与此同时,如果出了车祸,这个责任到底该谁来负?应该算AI的?算车厂的?还是算驾驶员的?这些AI安全问题,目前都还没有明确答案。

对于人工智能的风险与积极作用,周鸿祎认为,需辩证对待。他还直言,仅靠一家企业不能解决所有威胁,需要注重生态合作,360愿意开放自身安全大数据,将产学研力量联合起来,共建AI安全生态,集中推动数字安全的创新。

THE END
在线客服
在线客服