微软首席科学官反驳马斯克

2023-05-04 16:14 浏览:236 评论:0 来源:淘给网   
核心摘要:微软首席科学官埃里克·霍维茨近日回应了马斯克等数千人联名签署的呼吁暂停开发人工智能的公开信,称这方面的研发应该“加速”,而不是暂停。他说:“对我来说,我更希望看到更多的知识,甚至加速研发,而不是暂停六个月……从更广泛的意义上说,六个月的暂停意义不大。我们真的需要在理解、指导甚至监管这项技术上投入更多,参与进来,而不是暂停。
微软首席科学官反驳马斯克
微软首席科学官反驳马斯克

5月4日,微软首席科学官埃里克·霍维茨近日回应了此前马斯克等数千人联名签署的呼吁暂停开发人工智能的公开信,称这方面的研发应该“加速”,而不是“踩刹车”暂停。
 
其表示:“对我而言,我更希望看到更多的知识,甚至加速研发,而不是暂停六个月……从更广泛的意义上说,六个月的暂停意义不大。我们真的需要在理解、指导甚至监管这项技术上投入更多,参与进来,而不是暂停。”
 
在3月29日,未来生命研究所公布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
 
当时这封信已有1079名科技领袖和研究人员签名,包括马斯克、辛顿和马库斯,还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、 苹果公司联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官埃马德·莫斯塔克等科技界领袖人物。
 
不过这封公开信并没有获得所有科技大佬的支持,此前微软联合创始人比尔·盖茨就表示,暂停研发AI的呼吁并不会解决我们面临的挑战,应该将重点放在如何最大程度地利用AI技术及其所带来的发展。
 
更为有趣的是,联名叫停AI训练公开信发布不久,就有报道称,马斯克将推出一种人工智能,并把它称之为“TruthGPT”(真相GPT),硬刚ChatGPT,且他已经从NVIDIA公司获得了数千个高性能GPU处理器。
 
人工智能应用不当会产生哪些风险?
 
一、数据风险
 
1. “数据投毒”
 
所谓的“数据投毒”指人工智能训练数据污染导致人工智能决策错误。通过在训练数据里加入伪装数据、恶意样本等,破坏数据的完整性,进而导致训练的算法模型决策出现偏差。
 
2. 数据泄露
 
一方面逆向攻击可导致算法模型内部的数据泄露;
 
另一方面,人工智能技术可加强数据挖掘分析能力,加大隐私泄露风险。比如各类智能设备(如智能手环、智能音箱)和智能系统(如生物特征识别系统、智能医疗系统),人工智能设备和系统对个人信息采集更加直接与全面。人工智能应用采集的信息包括了人脸、指纹、声纹、虹膜、心跳、基因等,具有很强的个人属性。这些信息具有唯一性和不变性,一旦泄露或者滥用将产生严重后果。
 
3. 数据异常
 
运行阶段的数据异常可导致智能系统运行错误,同时模型窃取攻击可对算法模型的数据进行逆向还原。此外,开源学习框架存在安全风险,也可导致人工智能系统数据泄露。
 
二、算法风险
 
图像识别、图像欺骗等会导致算法出问题,比如自动驾驶,谷歌也做了一些研究,如果模型文件被黑客控制恶意修改,并且给它学习,会产生完全不一样的结果;
 
算法设计或实施有误可产生与预期不符甚至伤害性结果;
 
算法潜藏偏见和歧视,导致决策结果可能存在不公;
 
算法黑箱导致人工智能决策不可解释,引发监督审查困境;
 
含有噪声或偏差的训练数据可影响算法模型准确性。
 
三、网络风险
 
人工智能不可避免的会引入网络连接,网络本身的安全风险也会将AI带入风险的深坑;
 
人工智能技术本身也能够提升网络攻击的智能化水平,进而进行数据智能窃取;
 
人工智能可用来自动锁定目标,进行数据勒索攻击。人工智能技术通过对特征库学习自动查找系统漏洞和识别关键目标,提高攻击效率;
 
人工智能可自动生成大量虚假威胁情报,对分析系统实施攻击。人工智能通过使用机器学习、数据挖掘和自然语言处理等技术处理安全大数据,能自动生产威胁性情报,攻击者也可利用相关技术生成大量错误情报以混淆判断;
 
人工智能可自动识别图像验证码,窃取系统数据。图像验证码是一种防止机器人账户滥用网站或服务的常用验证措施,但人工智能通过学习可以让这一验证措施失效。
 
四、其他风险
 
第三方组件问题也会存在问题,包括对文件、网络协议、各种外部输入协议的处理都会出问题。被黑客利用,带来的是灾难性的毁灭。
(责任编辑:小淘)
免责声明
• 
本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们
0相关评论