云顶娱乐官方网站人工智能可能对人类社会现有伦理规范带来挑战,机器人就是一种自动机器

作者:电影    发布时间:2020-03-04 19:32    浏览:

[返回]

读书看报,听广播看电视常常看到或听到机器人这个词。到底什么是机器人呢?看完电视中播放的“变形金刚”之后,有人会说:“机器人和人一,有鼻子有眼睛,有胳膊有腿,有头脑会思考,能说话,会打仗,跑的比有还快,力气比人还大。它的本领比人强多有,一会是人,一会变成了汽车,一会又变成了大炮,真够神的。” 这种说法当然是很不准确的。“变形金刚”里的机器人,电影“星球大战”里的机器人,“铁臂阿童木”,还有“未来世界”电影中冒充女记者的机器人,这些都是科学幻想中的机器人形象。现实的机器人和这些机器人相差实在太远了。 当参观机器人展览会之后,可能有人会说:“机器人不就是具有粗胳膊、短腿、大眼睛和方脑袋的铁家伙吗?”也许还会补上一句:“它不就是机器人吗?它能自动不停地工作,机器人就是一种自动机器。” 这样说也不够确切。机器人是能自动工作,并且也是一种机器。但是,机器人与自动机器可有很大的不同。机器人动作灵活,这是因为它有很多关节,它动作有“柔软性”。机器人身上有电脑,使得它能记住这些信息,能进行计算和作出判断,甚至还有一定的智力。机器人身上有许多的感觉装置,这比自动化机器又提高了一步。有不少机器人还有脚或都行走装置,机器人已不是“固定不动”的机器了。机器人确实不同一般的自动化机器。那么,怎么给机器人下定义才对呢?中学生科技网 由于机器人发展得太快了,机器人大家族中人丁太兴旺了,研究机器人的专家也太多了。可是,直到现在还没有一个公认的统一的说法。 有人说:“机器人就是有人造的机械手,有人造的腿,有电脑,有许许多多感觉器官的自动机器。”也就是说:机器人=电脑+各种传感器+机械手+行走装置。 这是从机器人的构造上和结构上来下定义定的。看来并没有什么不妥之处。 还有人说:“机器人是能代替人去完成某些任务并具有某些智能的仿人机械。”这是从机器人的能力方面来下的定义。也没有什么不对之处。 说法太多了。有没有更简单明了的说法呢? 我们可以粗略简单地说:“机器人就是像人那样动作的机器。” 我们用下面的图来对这句话解释一下,一个圆代表人,一个圆代表机器。它们的重叠部分就代表了机器人。这样一解释你就明白了吧?原来,机器人是具有人的一部分特点,又具有机器的一部分特点的这样一种机器。

人民网北京7月21日电 物理学迎来重大突破:由4位华人科学家领衔的科研团队终于找到了正反同体的天使粒子马约拉那费米子,从而结束了国际物理学界对这一神秘粒子长达80年的漫长追寻。

你会爱上机器人吗 本报记者 刘诗瑶《 人民日报 》 人工智能可能对人类社会现有伦理规范带来挑战。人民视觉 近来,美国一家公司生产的超仿真机器人Sophia在电视节目上与人类对答如流,成为网红机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了! 技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击? 法律争议 假设无人车伤了人,那么是开发者负责还是驾驶公司负责 关于人工智能带来的伦理困境,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做? 如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类伦理困境的极端情景时,其每一步都是通过算法设定好了的。 无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据喂给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选取案例来实施本次决策。 但遇到完全陌生的情景,计算机会怎么办?无人车第一个选择仍然是搜索,即在大脑中迅速搜索和当前场景相似度大于一定阈 值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。吴飞说。 程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。吴飞认为。 无人车伤害了人类,谁来负责呢? 当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能主体地位很荒诞。主体概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的智能。 人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。中国社科院社会学研究所副研究员赵联飞持同样观点。 以无人车为例,究竟由人工智能开发者负责,还是无人驾驶公司负责甚至任何的第三方负责,或者这几者在何种情形下各自如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。赵联飞说。 情感迷思 人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范 科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。 尽管科幻电影对人工智能的描述偏向负面,但它也在一定程度上表达了人类的焦虑和担忧。现实中,人工智能会拥有自主意识,和人类会产生情感吗? 这要取决于如何界定产生一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。在赵联飞看来,人工智能意识和情感的表达,是对人类意识和情感的习得,而不会超过这个范围。 机器能不能超出对人类的学习,主动产生意识和情感?吴飞认为,以目前的研究来看,这是遥不可及的。但有一种假设的、可供探讨的路径是,通过把人的大脑认识通透,就可以造一个像人的大脑一样的机器出来。遗憾的是,我们对人的大脑如何产生意识和情感这些根本问题还了解不够。 人工智能越来越像人,人类对机器有了感情怎么办? 人类是否会与人工智能产生感情,将取决于这种过程是否给人类带来愉悦。正如互联网发展早期的一句常用语所说在互联网上,没人知道你是一条狗。这表明,当人类在不知道沟通者的身份时,只要对方能够给自己带来愉悦,感情就可能产生。赵联飞认为,这可能会对人类的交往模式带来影响。比如说,未来,知识型的人工智能可以回答人们能够想到的很多问题,从而导致个体学习方式、生活方式乃至社会化模式的变革。 假如人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范。如果社会主流意见认为这种关系符合伦理,人们可能倾向于以类似于夫妻、父女之间的伦理准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的游戏关系,那么相应的伦理标准也就无从谈起。赵联飞说。 未雨绸缪 专家建议完善人工智能技术规范和法律约束 面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。 归根结底,人是智能行为的总开关。吴飞认为,人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。 开发者应该始终把人工智能对社会负责的要求,放在技术进步的冲动之上。正如生物克隆技术,从提出克隆技术那一天开始,克隆的社会伦理问题就始终优先于克隆的技术问题。赵联飞认为,人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。 在技术上加强对人工智能的控制是完全可行的。人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,如果识别出来是人类,要自动保持距离;不能做出攻击性动作,从力学幅度上予以约束。中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。 除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。赵联飞认为,此外,应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。

相关论文发表在今天出版的《科学》杂志上。该成果由加利福尼亚大学洛杉矶分校王康隆课题组和美国斯坦福大学教授张首晟课题组、上海科技大学寇煦丰课题组等多个团队共同完成,通讯作者为何庆林、寇煦丰、张首晟、王康隆,均为华人科学家。

张首晟接受本网记者采访。赵永新摄

搜索