人工智能时代的最大威胁:神经网络模型替换
人工智能时代的产品,都是通过训练好的神经网络模型来控制行为和决策,由于训练好的神经网络模型是个黑盒子系统,一般认为,一定的威胁是这个模型有极少的几率出现不可解释的行为
但其实工业和信息化时代的任何产品都有极少的几率产生问题,所以极少的几率产生问题并不是最大的威胁
最大的威胁是,其他人可以通过网络入侵将自己事先训练好的神经网络模型替换掉产品原先的神经网络模型,新的神经网络模型平时可以正常工作,但同时也能够接受入侵者的控制命令,也可以通过外界的某些因素(声音,图像)做出预先设计好的反应