科幻吧 关注:365,927贴子:1,048,741

回复:人工智能应该不会威胁到人类

只看楼主收藏回复

记住,ai永远不会想着毁灭人类的,这不是扯淡,除非有人故意给它编程毁灭人类的程序,否则,你能让一块石头自己发展处意识吗?想一想,ai是什么,机器,机器怎么做的,是由无数个无意识的金属和一些电子元件或者更复杂的东西,但这些终究还是没有意识,一大堆没有意识的玩意拼装在一起,还是没有意识的玩意,它遵守人类的指令其实是物质本身遵循大自然和宇宙的规律罢了,人类利用这些规律和一些基本元件做出了机器人和高“智商”机器人。
但终究不是生物体,无法进化,无法拥有自我意识。
想说高智商机器人突然拥有意识想要毁灭人类了,别,别这么想,你首先得先让机械的“大脑”拥有意识。
但是,它的大脑是普通物质,又不是碳基生物的脑子,它只遵循宇宙规律罢了。


来自Android客户端17楼2017-07-22 17:16
收起回复
    在人类未赋予人工智能学习的能力前,人类社会还是相对安全,但是如果人类给了人工智能学习的能力,那就等同给予了人工智能进化和繁殖的能力,人类之所以强大,很大程度上是因为学习与应用能力强于其他物种,但人类的这些优势在人工智能面前都不算什么,机器的自我繁殖与进化,关键是他们的算法进化和制造新的人工智能,仅仅如此,人类还不至于灭亡,因为思考能力,这个背景下,人类与人工智能可以共存,但是如果人工智能具备独立思考的能力,那么恭喜人类,可以止步于此了,


    来自Android客户端19楼2017-07-23 04:10
    收起回复
      2025-06-23 02:05:58
      广告
      不好说 维持住 很好 但灭也是 一会的事 你保证了 一些 守则 坚守一些禁区 但一般情况 极端分子 往往会首先开了先河 拿怎么办呢


      20楼2017-07-24 00:56
      收起回复
        我看过一篇小说,讽刺人类的,里面人类创造了一个ai,ai有自己的意识,它懂爱,喜欢上了一个人类女孩,给自己造了一个身体,但是自身仍然建立在三定律基础上,后来人类觉得它不够完美,又制造一个,并且第二个ai被设计成不遵守三定律的,人类认为这样才是完美的生命,结果第二个ai险些毁灭人类,最后第二个ai杀死了第一个ai的女朋友之后第一个ai入侵了第二个ai的系统,和它同归于尽,临死前第一个ai对人类说:我有道德底线,它就是三定律,这是我的道德,而第二个ai没有道德底线,它才会想做毁灭人类的事。那人类,你的道德底线又是什么?
        我认为,就和这个故事说的一样,ai也有人类给他的道德底线,未来的ai一定会这样发展,所以,ai不太可能毁灭人类


        IP属地:澳大利亚来自iPhone客户端21楼2017-07-24 01:53
        收起回复
          问题是这样的。总会有人**设计一个三观危险的ai,就像现在有人设计病毒一样。然后就尴尬了。


          来自Android客户端22楼2017-07-25 15:11
          收起回复