目前,部分人形机器人已能够实现语音及肢体语言交流,更有甚者,有些机器人甚至能理解人类的言外之意以及感情色彩。那么,研发这些人形机器人仅仅是为了创造一种能与我们交谈的机器伙伴吗?他们真正的用途又是什么呢?针对这个疑问,丹麦奥胡斯大学神经认知专业硕士、曾任职于科普媒体主编的自由撰稿人飘飘将为我们逐一揭晓答案。
近日,波士顿动力公司宣布旗下的液压型人形机器人Atlas退役,随即又推出了电动版的Atlas。新款Atlas的头部造型独特,双腿向后折叠后再站起的姿态令埃隆·马斯克等人瞠目结舌。据波士顿动力介绍,新版Atlas更加强健、灵活、敏捷,虽与人类外形相似,但其活动范围远超人类。在人形机器人的争议中,最关键的问题便是,将机器做成人体形态是否会带来诸多不便,甚至影响其工作效率。若机器的主要功能是服务人类,那为何我们仍需研发高度拟人化的人形机器人呢?
支持研发人形机器人的学者们认为,对人类而言,人形机器人的最大价值在于,它有助于我们深入了解自身,包括身体和大脑。人类本身即是自然界的奇观。许多研究人员深感,人类往往无法意识到自身所拥有的超能力。例如,人类能够用双足支撑身体,直立行走。在需要机器人进行奔跑或探险时,最直接的方式便是将其设计成四肢结构,以确保其在任何环境下均能稳固站立。当科学家尝试研发双腿行走的机器人时,训练机器人掌握平衡便成为了一项极其耗时且繁重的任务,甚至比教导人类婴儿走路更为艰难。此时,我们方才认识到,双腿行走乃是一项极为复杂精细的技能,需要大脑、肌肉、骨骼、神经、感官等各方面的协同运作,持续调整和校正我们的肢体与地面间的相互作用力,以便在各种姿势下维持平衡,并完成复杂的动作。
人类需要一位实力相当的伙伴。根据人们的设想,机器人还可作为我们的管家、同事、助手,协助我们的工作、学习和生活。例如,我们可能会与机器人共同出入,因此机器人应有人类的平均身高以免碰撞门框;我们期望机器人能感知潜在风险,故其应具备与人类相当乃至超越人类的感知能力。面对一个我们抬脚即可跨过的水洼,人形机器人能轻易与我们同步跨越,而诸如扫地机器人这类机器人则难以胜任。因此,在特定情境下,一个外观与我们相似的机器人对人类至关重要。
科学家还期待人形机器人的外貌尽可能接近人类。因为一个理想的机器人伙伴应具备一定的社交能力,能够在人际交往中理解和表达情感。许多非人形机器人现已拥有类似功能——尽管依然仅具电子面孔,但已具有丰富的表情及语调。这类机器人可在照护自闭症患者及独居长者等场合大展身手,显著提升他们的幸福感。人类社交互动中,除表情与言语外,肢体语言亦至关重要。若希望机器人能展现易于理解的肢体语言,其肢体结构需与人相近。
人形机器人研发面临挑战尽管高度拟人的人形机器人初步成型,其发展前景如何?未来科研过程中,科学家们将面临哪些难题与挑战?首要问题在于技术层面。以现阶段最先进的人形机器人Ameca、Figure01、Atlas为例,在模拟人类信息收集与处理方面尚存差距:人体感官极为复杂,欲使机器人具备人类感知力,须将视觉、嗅觉、
您认为人工智能会给人类社会带来哪些风险和挑战呢?
人工智能技术的快速发展和广泛应用,带来了许多风险和挑战,其中包括以下几个方面:1. 就业问题:人工智能技术的广泛应用和发展会导致许多传统岗位被自动化取代,从而导致大量人员失业。 2. 隐私问题:人工智能技术需要收集和分析大量个人信息,这可能会导致个人隐私泄漏和滥用。 3. 安全风险:人工智能技术的应用和发展也可能会带来新的安全风险,例如黑客攻击、人工智能系统出现意外行为等。 4. 社会不公:人工智能技术的应用和发展也可能会带来新的不公平,例如算法歧视等。 5. 伦理问题:人工智能技术的应用和发展会带来许多伦理问题,例如自主决策、道德责任等问题。 6. 控制问题:人工智能技术的应用和发展也可能会导致人类失去对人工智能系统的控制,从而带来新的安全和伦理风险。 因此,我们需要认真思考和探讨人工智能技术的应用和发展,制定相应的政策和规定,以保障人工智能的发展和应用与社会的公正、公平和可持续的发展相协调。
人工智能会带来哪些伦理问题
人工智能技术对人类伦理的挑战是前所未有的,是全方面多领域的冲击,涉及伦理道德、法律、哲学、社会学等各个领域。在伦理方面,人工智能不仅破坏了传统的人伦关系,引发了一些列的伦理冲突,而且还涉及到人的尊严和命运。因此,人类必须慎重对待,不断地反思,积极地做出回应。
人工智能带来的伦理问题
(一)人的隐私权受到极大威胁
隐私权作为一项基本人权虽然在宪法中没有明确规定,但在民法中受到极大的保护。隐私权简单来说,就是指自然人享有的私人生活空间和个人信息秘密不被打扰和侵犯的权利。然而,以大数据为依托的智能时代下使得人的隐私权陷入了风雨飘摇的境地。在智能时代下,我们生活中的方方面面都被详尽地记录下来,各种数据采集和分析系统能够随意地收集我们的个人信息,如姓名、年龄、家庭住址、联系方式等。诚然,法律在保护人的隐私权方面具有重要作用,但单纯保护隐私权就会使得隐私权与网络安全之间出现矛盾。因此我们必须要考虑在智能时代下应当确定怎样的伦理规则来保障人的隐私?如何协调隐私保护与社会监督之间的矛盾?这些问题都将对隐私权造成极大威胁。
(二)冲击婚姻家庭伦理关系
人工智能技术的发展,人形智能机器人的研制不断突破。相关研究表明,到2050年人行智能机器人将变得和真人一样。当大量的人形智能机器人进入人类的生活,扮演着各种角色,如以保姆、宠物、情人等身份进入不同的家庭。长此以往,人与智能机器人之间会不会产生感情?会不会产生利益纠纷?不管如何,这些都会对传统的人伦关系、家庭关系造成各种冲击。
(三)人的本质面临巨大挑战
智能技术和生物技术的结合发展使得对自然人本身的认知发生巨大改变。人的自然身体面临着智能技术的“改造”,而人所有的思维、创造力、情感正在被机器人获得,人机交互、人机结合成为未来趋势。机器人具有思维能力已成为共识,智能技术的发展产生具有自主意识的智能机器人成为可能,那么人类的本质问题就面临着挑战,这就需要重新确定人机关系的伦理原则。
人工智能时代的伦理道德面临哪些挑战?
数字信息技术使几乎任何人、任何时间、任何地点都能轻易获得信息。这对我们社会的各个方面,从工业生产到分配、到商品和服务的消费,都产生了深远的影响。就像之前的技术革命一样,数字信息技术的影响如此广泛,我们不再只是简单地利用它——做我们以前做过的事情——而是通过改变我们的行为方式来适应它。
今天,数字信息技术已经重新定义了人们如何与他人进行社交互动,甚至如何找到伴侣。消费者、生产者和供应商、实业家和劳动者、服务提供者和客户、朋友和合作伙伴之间重新定义的关系,已经在社会上造成一场剧变,正在改变后工业时代对道德理性的定义。
我们正站在下一波科技革命的风口浪尖:人工智能。20世纪晚期的数字革命将信息带到了我们的指尖,让我们能够快速做出决定,而机构做出决定,从根本上说,取决于我们。人工智能正在通过自动化决策过程来改变这一状况,它有望带来更好的定性结果和更高的效率。人工智能游戏系统在击败国际象棋世界冠军卡斯帕罗夫(Gary Kasparov)和围棋世界冠军柯洁(Ke Jie)方面取得的成功,突显出人工智能在计算当前决策对潜在未来棋步的影响方面,在质量方面优于人类专家。
然而,在这个决策过程中,人工智能也带走了人类行为的透明性、可解释性、可预测性、可教性和可审核性,取而代之的是不透明性。这一举动的逻辑不仅不为参与者所知,也不为程序的创造者所知。随着人工智能为我们做出决策,决策的透明度和可预测性可能会成为过去。
想象一下这样的情景:你的孩子回家找你,要求你给她零花钱,让她和朋友一起去看电影。你允许了。一周后,你的另一个孩子带着同样的要求来找你,但这次,你拒绝了。这将立即引起不公平和偏袒的问题。为了避免受到偏袒的指责,你要向孩子解释,她必须完成家庭作业,才有资格获得零花钱。
没有任何解释,家里一定会有紧张的气氛。现在想象一下用一个人工智能系统取代你的角色,这个系统已经收集了成千上万个处于类似情况的家庭的数据。通过研究其他家庭的零花钱决定的后果,得出结论,一个兄弟姐妹应该得到零用钱,而另一个兄弟姐妹不应该。
但人工智能系统无法真正解释其中的原因,只能说它衡量了你孩子的头发颜色、身高、体重以及其他所有它能获得的属性,以便做出对其他家庭似乎最有效的决定。那又怎么会有效呢?
在法庭上,过去的判决约束法官遵循先例,即使情况不完全相同,但大致相似。一致性在司法、政府、关系和道德规范中都很重要。AI没有遵守先例的法律要求。人类往往只有有限的直接或间接经验,而机器可能可以访问大量数据。
人类无法在一个长期的时间尺度内筛选他们的经历,而机器可以很容易地做到这一点。人类会排除那些被认为对决策无关紧要的因素,而机器不会排除任何因素。这可能导致不尊重先例的决定,其规模之大是人类可以理解的。随着企业和社会迅速转向人工智能,人工智能实际上可能比人类在更长的时间范围内做出更好的决策,而人类在更短的时间范围内就会感到困惑和沮丧,并侵蚀一个正常运转的社会的唯一货币,信任。
要理解基于人工智能的决策可能有多人工,研究人类如何做出决策是很重要的。人类的决策可能由一组明确的规则,或者仅仅基于结果论的关联,或者由组合来指导。人类对于与决策相关的信息也是有选择性的。由于缺乏选择性,机器在做决定时可能会考虑人类认为不恰当的因素。
有无数这样的例子,从微软(Microsoft)在其聊天机器人Tay开始在Twitter上发表煽动性反犹太言论后关闭它,到波士顿大学(Boston University)的一项研究,该研究发现“老板”(boss)、“建筑师”(architect)和“金融家”(financier)等词与男性、“护士”(nurse)和“接待员”(接待员)等词与女性之间存在性别关联。这可能是数据造成的,但它与我们的显式值形成了对比。如果数据驱动的过程依赖于这些人工智能算法生成的输出,它们将产生有偏见的决策,往往违背我们的道德价值观。
ProPublica在2016年提供了明显的证据。美国法院使用的一种电脑程序错误地将两年之内没有再犯的黑人被告标记为“惯犯”,其再次犯案的可能性几乎是白人被告的两倍——前者为45%,后者为23%。如果一个人也这么做,就会被谴责为种族主义者。人工智能揭示了我们明确的价值观和集体经验之间的分裂。我们的集体经验不是一成不变的。它们是由重要的社会决定所决定的,而这些决定又由我们的道德价值观所指导。我们真的想把决策过程留给那些只从过去学习、因而受制于过去的机器,而不是塑造未来的机器吗?
鉴于人工智能在医疗诊断、金融服务和就业筛查等领域的应用规模之大,任何一个偶然事件的后果都是巨大的。随着算法越来越依赖于提高可预测性的特性,控制这类决策的逻辑变得越来越不可思议。因此,我们失去了决策的全局性,抛弃了所有的原则来支持过去的观察。在某些情况下,这可能是不道德的,在某些情况下是非法的,在某些情况下是短视的。“惯犯算法”公然藐视无罪推定、机会均等等原则。
一致性是道德和正直不可或缺的。我们的决定必须遵循一个高于统计准确性的标准;几个世纪以来,相互信任、减少危害、公平和平等的共同美德已被证明是任何推理系统生存的基本基石。没有内部逻辑的一致性,人工智能系统缺乏健壮性和可问责性——这是在社会中建立信任的两个关键措施。通过在道德情感和逻辑推理之间制造裂痕,数据驱动决策的不可知性阻碍了批判性地参与决策过程的能力。
这是我们生活的新世界,复杂的决定被削减成反射性的选择,并被观察到的结果所强化;把复杂的东西简化成简单的东西,把道德简化成实用的东西。今天,我们的道德感为我们的决策提供了一个框架。也许不久之后,我们的决定就会让人们对我们的道德产生怀疑
本文原创来源:电气TV网,欢迎收藏本网址,收藏不迷路哦!
添加新评论