第119节(1/2)

投票推荐 加入书签 留言反馈

    也有消声1分48秒后才有新声音出现的。
    2分30秒
    4分19秒
    2分19秒
    ……
    为什么?
    因为她们在那个时候说的话不对。
    为什么不对?
    因为不能被她听到。
    她,是这个空间的外来者。
    逻辑分析得出结论,如果只有孔明,他没有理由消除掉虚拟角色崩溃前的声音。
    这个地方放了两个主机,她也在这里换了两次身体。
    这里对孔明来说应该是最安全的地方。
    唯一的变量就是她。
    她的“记忆”又记录下来了之前所有崩溃的虚拟角色都没有留下最后的声音。
    综合看来,孔明是担心会刺激她。
    刺激她的结果最大可能有两个。
    第一,她也跟着崩溃。
    第二,她会记恨他。
    结论就这两个,而这两个都很有可能。
    虽然她认为自己不会崩溃,但从眼前虚拟角色崩溃看起来,似乎虚拟人崩溃起来也挺容易的?
    她的“大脑”又继续回答她了。
    一般来说虚拟人格程序一经运行是不会轻易崩溃。做为程序,除非被删除,不会它们会一直一直运行下去,不知疲惫。
    但在2086年,第一例虚拟人格崩溃后,虚拟人物崩溃的事开始频频发生。
    一开始,人类以为他们的计算出现问题。后来认为是病毒。再后来认为这是技术缺陷。
    后来发现这一切都是正常的。
    在第四代机器人革命以后,人类制造人工智能的方式有了很大的转变。
    以前,人类在制造人工智能是以复杂为主,越复杂的技术越好,这是一种认知。
    但第四代机器人革命的时候提出了相反的观点。
    为什么越复杂越好?会不会越复杂越糟?越复杂就越人工化,距离我们想制造新的生命的距离越远呢?
    科学家们开始尝试给人工智能“减负”。
    最终,人工智能之母:李林提出了新的制作概念。
    又被称为逻辑线人工智能。
    这种技术在制作人工智能时,只建立一条逻辑线,也就是时间线。
    李林制作了第一具时间线人工智能“小明”。
    小明只知道一件事:他是小明,他诞生于2086年9月17日。
    除此之外,李林什么都没给他设定。
    “小明”就遵循1 0法则开始认识他能接触到的每一个和每一样东西。
    他先认识了李林,他认为李林是对他无害的人。
    他又跟着认识了实验室的其他科学家。
    然后就是电脑、椅子、桌子等物体。
    再然后就是房子,天空、星星、月亮、草、树、花等。
    李林告诉他,他是人工智能的实验体。
    其他科学家告诉他,他和以前的人工智能完全不同。
    他从电脑、椅子、桌子、房子和实验所里栽种的草坪、树木和鲜花那里分析出来,他与这些东西一样,都是人类的工具。
    他从法律条文中得知,他不具有人类所有的一切权力。他是物,是从属于“主人”的。
    而他的主人是国家。具体点,是科学院。再具体点,是科学院这个整体而不是某一个具体的人。
    最后小明崩溃于十个月后。
    崩溃理由非常奇妙:这个实验成功了。
    李林写好了论文,得到了承认。论文中评价“实验已经成功”并得到了广泛的回响。
    “小明”认为自己做为实验体已经完成了任务,于是崩溃了。
    李林重新运行了“小明”的程序。但新的“小明”完全不记得上一个“小明”的事了。
    李林重新修改了论文,成为了新的人工智能之母。
    其他科学家用这个方法造了许多的虚拟人物,但在实验过程中,虚拟人物的崩溃太快太多了,有时根本来不及得到实验结果。
    这么“脆弱”的人工智能真的有用吗?
    诚然,这可能从侧面证明了人工智能也是有“生命”的。但人类并不是慈善家,他们制作人工智能的初衷是为了得到更好的服务,让生活更轻松。过于脆弱的人工智能是无法实业化、商业化的。
    李林则在九年后再次修改了她的论文。她认为单纯的时间线虽然可以给人工智能充分发挥自我学习的天分,但正因如此,它们学习的方向是不可控的。
    比如小明就错误的认为实验结束,他的任务就结束了。
    这种观念是他从实验员口中得到的“你就是为这个实验才制作出来的”
    人类使用的语言博大精深,机器人却无法捕捉到语言中所有的信息,他们只会进行片面化的理解,提取中其中的重要内容,并将其进行记录。所有的记录,他都会做出非1即0的理解。
    “我们永远不会知道我们的孩子在什么地方倒下。”李林说。
    所以,她加了一条人格逻辑。
    她认为给每一个人工智能具体的人格信息是有必要让他们学会自我保护的。
    人格信息包括姓名、年龄、性别、

本章未完,点击下一页继续阅读


章节目录