人工智能兴起后,许多学者提出了“人工智能威胁论”。人们想象,当人工智能完全实现时,人工智能将成为一种独立的生命形式,与自然人具有相同的人类结构,起源于人类,但优于人类。
当然,有很多反对意见。对人工智能发展的担忧是它混淆了智能和精神。一般来说,精神由三个独立但完全整合的系统组成:情感(情感和动机)、意志(意志和行动)和智力(智慧和思维)。显然,智力只是心智的一个子系统。
虽然人工智能具有智慧和思维,但没有情感系统的引导,智能系统就无法正常运行。“心智”一直被认为是人工智能无法掌握的能力。然而,在今年由出版的中,他提出了一种新的神经网络tomnet,它能够理解自己和周围主体的心理状态。
人工智能发展了心理智能。我很高兴看到这一点,但我也担心人工智能是否正变得越来越拟人化。以这项研究为契机,是否有AI威胁理论的新证据?
人工智能的“心脏”始于理解信念
信仰是指人们的思想、观念、知识、观念、意图、需要等思想。信仰与人们的希望、情感和行动有着密切的关系。在日常生活中,人们通过推断他人的信仰来推断一个人的情绪、心理和下一步行动。
信念分为真信念和假信念。例如,如果你读一个书包,你会猜里面有书。如果书包里有书,那就是人们的想法与现实相符的真实信念。错误的想法是书包里有书,书包里有衣服,这不符合现实。
一般来说,人工智能通过大数据、图像识别等技术,基于概率推理,预测人们或智能的实际信念。然而,大多数人工智能很难通过简单的虚假信任测试。即使人工智能能够以近乎完美的准确度完成错误的信任工作,他们仍然不理解原因。
例如,Sally Anne测试是典型的早期信念测试。有一个篮子和一个球,有一个盒子。把球放进篮里,然后出去了。把球从篮子里拿出来,放进箱子里。当回来时,她想打球。信任的问题是,将在哪里找到球?
4,5岁的孩子可以解决这个问题,但人工智能没有这种理解。人类在大约四岁时开始理解错误的信仰。换句话说,我开始意识到可能有与我自己的想法不一致的情况。
对错误信念的理解在机器人的精神发展中起着非常重要的作用。因为对错误信念的理解是推断他人判断、预测下一步行动和理解他人想法的基础。这是训练人工智能学习适用于人类和其他动物的精神理论的一个重要阶段。
根据的研究,tomnet学会了对不同群体的智力进行建模,包括随机、规则系统和深度学习智力,并通过了经典的“Sally Anne”测试来理解错误的智力。人工智能已经达到了四岁儿童可以理解的水平。
人工智能的精神智能发展终于有了坚实的基础。
禽流感智能化发展后,“禽流感威胁论”再次兴起的原因是什么?
理解错误信念的人工智能有助于心智的发展。具有理解能力的机器人可以改善人与机器之间的合作。但技术的发展也是一把双刃剑。
人工智能的“骗局”再次升级,人类无法信任
人工智能很久以前就开始欺骗人类了。例如,去年,聊天机器人创造了一种新的对话方式。机器人创造了自己的“语言”,使人类无法理解它的含义。
换句话说,对英语语法没有奖励。尽管有很好的理由,但人们对在人们背后交流的人工智能更为关注。