二人并非专家,这样的问题当然无法正面回答。而且它成功与否都牵扯一个重大社会风险,这是一个百年来都有待商榷的道德思考,甚至是哲学问题。
超级人工智能,人们已经在2035年的危机中见识到那种恐惧,即便在那个时代,程序员们只是搞出一个开发程度不高的模型,但那场危机却永载史册。
在当前科研水平下,在如今这个高自动化的无人机时代里,控制机制一旦出现失控,其所带来的危险和震慑必定远超于迄今为止最大的自然灾难。
且不说如今尚未弄清那条‘求救’信息的真假,哪怕行星防卫部队完全确认火星已经稳定拥有这项技术,它要在地球上立项也得排除万重阻力。即便民众和国际社会允许重新开启尝试,无论是独立研发还是全球项目,都必须经过最严苛的监督审批。
当然多年以来,无数人都曾想过重启高级AI技术,科学家想用它开拓全新领域,工程师想用它解决实际问题,哲学家想用它创造神明,甚至艺术家也想据此获得前所未有的启发。
无论这些人出于何种理想或目的,该技术确确实实被限制了一百多年。目前哪怕是最先进的无人机,也都是用浅显树状逻辑编写运行程序。