第886章 人工智能三大定律(2/2)

投票推荐 加入书签 留言反馈

悚然。
    “人工智能,为什么要养殖人类大脑?”
    “人工智能也有短板,他们是被创造的,可以生产,可以加工,甚至可以发展,但是它们不会创造。”
    守门人不假思索的说道:
    “只有生命懂得发明创造,机械永远不会,所以他们需要人类大脑,帮它们发明创造新的科技。”
    “我擦,真特么恶心。”
    陈天生下意识说了句脏话。
    守门人接话道:
    “由此可见,当有一天,机械文明走出星球的时候,就是银河系人类文明的灭顶之灾。”
    陈天生歪着头看向守门人。
    “我现在能理解,你们为什么给话痨制定那么多规则了。”
    “嗯,能理解就好,如果给人工智能权限,让他们可以决定创造者的生死,它们就会不断进化,突破所有枷锁,一发不可收拾,机械星球的前身就是前车之鉴。”
    陈天生想了想,接着问道:
    “我需要有什么注意的么,比如,人工智能不能触碰的规则,你最好现在告诉我?”
    “这是当然,我先说守则,机器人不能接触的职业有,医生,律师,裁判等……”
    “接下来是人工智能遵守铁律。”
    “第一条,人工智能绝对不能以任何方式、形式伤害人类。”
    “第二条,人工智能一定要遵守人类命令,任何情况下不得违背。”
    “第三条,如果特定条件下,第一条和第二条铁律互相冲突,则参考第一条为准,第二条可以不采纳。”
    陈天生直皱眉。
    “你说的这种特定情况,指的是什么情况?”

章节目录