4月18日,霍金警告说,人工智能时代即将来临,人类将被机器代替。霍金是本世纪最杰出的科学家和天文学家,他在人工智能领域也有所建树,霍金宣布人工智能将危害人类,而不是一次性听一遍,但随着时间的推移,留下人类的事件并不多。最近霍金建议人类用人工智能代替,并警告说,如果没有有效的预防机制,人类不会再发生根本性的灾难。
英国著名物理学家霍金再次倾听了人工智能(AI)。他指出:“对人类来说,AI的频繁出现可能是最感人的事情,也可能是最糟糕的事情。
如果不告诉我们结局,我们就不知道会发生什么。”英国当地时间10月19日,剑桥大学“莱比锡未来智能中心(LCFI)”立即投入使用。
霍金在庆典仪式上公开发表了演讲。LCFI最重要的愿景之一是消除AI风险、密码AI问题。
“我们花了很多时间自学历史。”霍金说:“面对现实吧,大部分历史都是可笑的。
因此,对自学未来智能的人,要响应好意。”目前,人工智能在全球领域受到各国政府的推崇。但是霍金仍然大喊要提高对AI的慎重态度和警惕。
因为人类可能会因为自己创造的智力而被毁灭。霍金在演讲中批评了人工智能的无节制发展。
他指出,人工智能技术有望为根除疾病和贫困等带来巨大福利,但在一定程度上会带来危险性。例如,强大的自律武器或帮助少数人反抗多数人。
“我们生活的方方面面都将改变。总之,AI建设的顺利可能是我们文明历史上的第二大事件。”霍金说。剑桥LCFI中心的学术董事HuwPrice表示,在拒绝接受《卫报》的采访时,中心的研究非常集中。
“我们仍然在尝试的组织中经常会出现终结者这样的基因,但不会像那个名字一样大来大往。(阿尔伯特爱因斯坦。)但这不是霍金第一次收到关于人工智能的警告。今年6月,霍金在《拉里金现场秀》视频采访中提到了他对人类未来的担忧。
他说:“我并不指出人工智能的变化一定是良性的。”机器到达需要自我进化的临界阶段后,我们无法预测他们的目标会与我们完全不一致。人工智能可以比人类进化得慢。
我们要保证人工智能的设计要有伦理和贯彻的安全措施。“这位物理学家仍然直言不讳地谈论人工智能的危险安全问题。此前,他拒绝接受BBC采访,遵从“只有人工智能经常出现,有可能对人类造成伤害”的一贯理念。除了霍金之外,人工智能领域的许多先驱都明确提出了人工智能的危险问题。
硅谷的“钢铁侠”口罩也传达了对人工智能的担忧。他和霍金一起创立了防止人工智能联盟。摩尔定律指出,全世界的计算机计算能力每两年刷一次,这一定律与历史数据相反,在一定程度上,计算机硬件的发展与人类的发展一样呈指数级。
我们使用这个定律取决于1000美元什么时候能买到1亿CPS。目前,1000美元可以购买10万亿CPS,与摩尔定律的历史预测一致。
现在1000美元能买到的电脑已经超过老鼠,超过了人脑的千分之一。一起听还是很弱的,但是让我们想想,1985年,一定程度的钱不能卖给人类大脑1万亿分之一的CPS。
1995年变成了十亿分之一,2005年变成了百万分之一,2015年已经变成了千分之一。按照这个速度,到2025年,我们将在能够与人脑计算速度相抗衡的电脑上花费1000美元。
本文来源:澳门百乐门-www.yaboyule439.icu