2025-06-19 01:08来源:本站
Jaan Tallinn帮助建立了Skype,也是未来生命研究所的创始人。
他最近对人工智能军备竞赛的风险提出了警告,并描述了理论上的不确定性nymous slaughterbots。”
今年,人工智能领域的数百人签署了一封公开信,呼吁暂停人工智能的开发。
广告广告
“我们可能只是在创造一个在外面不再安全的世界,因为你可能会被成群的屠杀机器人追赶。”
这些警告的话来自Skype的创始工程师扬·塔林(Jaan Tallinn),他最近在接受半岛电视台(Al Jazeera)的视频采访时表示。
这位爱沙尼亚计算机程序员是剑桥存在风险研究中心和生命未来研究所的创始人,这两个组织致力于研究和减轻存在风险,特别是先进人工智能技术发展带来的风险。
塔林对杀手机器人的提及来自2017年的短片《杀戮机器人》(Slaughterbots),该短片由生命未来研究所(Future of Life Institute)发布,作为警告人工智能武器化危险的活动的一部分。这部电影描绘了一个反乌托邦的未来,世界已经被由人工智能驱动的军事化杀手无人机所取代。
广告广告
随着人工智能技术的发展,塔林特别担心军事用途可能对人工智能的未来产生影响。
塔林在采访中说:“将人工智能投入军事使人类很难控制人工智能的轨迹,因为在这一点上,你处于名副其实的军备竞赛中。”“当你处于军备竞赛中时,在考虑如何接近这项新技术时,你没有太多的回旋余地。你只需要去有能力和战略优势的地方。”
他说,最重要的是,人工智能战争可能会使攻击变得非常难以定位。
“完全自动化战争的自然进化,”塔林继续说,“是成群的微型无人机,任何有钱的人都可以制造和释放,而无需署名。”
广告广告
当与内幕人士联系时,生命未来研究所告诉内幕人士,它同意塔林关于他对武器化人工智能的担忧的言论。
这些担忧已经存在多年了——生命未来研究所成立于近十年前的2014年,很快引起了埃隆·马斯克(Elon Musk)等人的注意,马斯克在2015年向该研究所捐赠了1000万美元。但最近,随着ChatGPT和其他人工智能模型的发布,以及人们对人工智能取代人类工作的担忧,这个问题变得更加紧迫。现在,人工智能研究人员、科技巨头、名人和普通人都很担心。
就连导演克里斯托弗·诺兰也警告说,人工智能可能会达到“奥本海默时刻”,Insider此前报道——换句话说,研究人员正在质疑他们开发可能产生意想不到后果的技术的责任。
今年早些时候,包括埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、稳定人工智能首席执行官埃马德·莫斯塔克、Alphabet人工智能实验室DeepMind的研究人员以及著名的人工智能教授在内的数百人签署了一封由生命未来研究所(Future of Life Institute)发布的公开信,呼吁暂停先进人工智能的开发六个月。(与此同时,马斯克正在悄悄招聘并推出自己的生成式人工智能计划,与OpenAI竞争,内幕网的卡莉·海斯首先报道了这一消息,他最近宣布该计划为xAI。)
广告广告
信中写道:“先进的人工智能可能代表着地球生命历史上的一个深刻变化,应该以相应的关注和资源来规划和管理。”不幸的是,这种水平的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至它们的创造者——能够理解、预测或可靠地控制。