理财

人工智能可以吗?

  多年后人工智能发展得比人强后,人工智能发展到一定水平,其智慧超过人类,认为人类和他们占领资源,没有用处,也有开始破坏人类的人只是从霍金的演讲中听说霍金对人类持乐观态度这种观点是有前提的-一切不考虑前提的论述都是不合格的-如果人类使用智能自主武器最大化,可能会导致人类灭亡。我认为,在认识到科学技术可能造成危害的情况下(明显预测到人工智能可能造成的灾害),人类不会在不完全控制的情况下投入使用。像原子弹一样,如果管理不当,一个城市就足以平地。真正能远远超过人类的人工智能也是如此,人类一定有无法超越的基础。如果失去了价值观和同情心,浪费了结果,使用了这种智能自主武器,几百年前发明原子弹时担心的原子弹在人口最密集的地方爆炸也没有什么区别。这些都是人类通过自己的道德、法律、硬规定可以解决的问题。人类现在对核弹有这样的限制,当我们真正开发出远远超过人类的人工智能时,必然会有这样的限制。实际上,弱AI已经成为我们生活中的重要组成部分,但在未来几十年,AI将逐渐渗透到社会的各个方面,在医疗、工作、教育、科技等多个领域为我们提供支持和建议。我们确实要保证控制人工智能,而不是控制人工智能。在这个问题上,我们应该担心的不是人工智能本身的发展,而是我们自己的道德基础。总的来说,利润比缺点大。