人工智能不平凡的声音外文翻译资料

 2021-11-04 10:11

Uncommon voices of AI

Karamjit S. Gill1

Published online: 14 August 2017 Springer-Verlag London Ltd. 2017

Beyond the headlines of the thrill engendered by futuristic AI super machines, Virtual Reality and Internet of Things, what are we to make of artificial intelligence? A gigantic job eliminator? Or the next step in evolution, the one in which technology finally asserts its mastery over us? Or maybe artificial intelligence in its many guises become the source of redemptive systems that develop new medications for us and operate on us, that invest and multiply our capital, and that create more rational decision-makers? (Ars Electronica Festival 2017). The new wave of artificial super intelligence raises a number of serious societal concerns: what are the crises and shocks of the AI machine that will trigger fundamental change and how should we cope with the resulting transformation? Digital technologies are the box in which we all increasingly live. Living through dramatic technological change, we may feel trapped and disrupted, being left behind in the myth and reality of AI, and miss what is really at stake. The Silicon Valley technological culture may often see societal concerns and humanistic perspectives of digital technologies as rather inconvenient, but in the midst of this transformation we can hear voices of existential risk, reason, redemption and ethics. Sir Rees (2013) of the Centre for the Study of Existential Risk (CSER) (2017) gives an insight into the concerns and challenges of existential risk of ecological shocks, fast-spreading pandemics, and scarcity of resources, aggravated by climate change. For him, equally worrying are the imponderable downsides of powerful new cyber-, bio-, nanotechnologies, and synthetic biology. His concerns include a lsquo;lsquo;sci-fi scenariorsquo;rsquo;, in which a network of computers could develop a mind of its own and threaten us all. It is hard to quantify the potential lsquo;lsquo;existentialrsquo;rsquo; threats from (for instance) bio- or cyber-technology, from artificial intelligence, or from runaway climatic catastrophes. He proposes forward planning and research to avoid unexpected catastrophic consequences and the imponderable downsides of powerful new cyber-, bio- and nanotechnologies, and to circumvent societal breakdown due to error or terror. O acute; E acute;igeartaigh (2017) gives a soothingly rational note when he says that humanity has already changed a lot over its lifetime as a species. While our biology is not drastically different from what it was a millennium ago, the capabilities enabled by our scientific, technological, and sociocultural achievements have changed what it is to be human. We have dramatically augmented our biological abilities, we can store and access more information than our brains can hold, and collectively solve problems that we could not do individually. AI systems of the future would be capable of matching or surpassing human intellectual abilities across a broad range of domains and challenges. The Leverhulme Centre for the Future of Intelligence (CFI) (2017) visualises a redemptive curve on the horizon while asking us to take note of the serious consequences of untamed AI and argues for developing a framework for responsible innovation that seeks maximising the societal benefit of AI. He cautions us about the possibility of creating computer intelligence equaling that of human intelligence. In this future scenario, freed of biological constraints, such as limited memory and slow biochemical processing speeds, machines may eventually become more intelligent than we are—with profound implications for us all. Any inter-disciplinary or crossdisciplinary collaborative effort to meet these challenges, ( Karamjit S. Gill editoraisoc@yahoo.co.uk1 Professor Emeritus, University of Brighton, Brighton, UK 123 AI amp; Soc (2017) 32:475–482 DOI 10.1007/s00146-017-0755-y) he says, requires lsquo;Value Alignmentrsquo; for designing AI systems that do not inadvertently act in ways inimical to human values. As AI systems will operate with increasing autonomy and capability in complex domains in the real world, how can we ensure that they have the right behavioural dispositions—the goals or lsquo;valuesrsquo; needed to ensure that things turn out well, from a human point of view? In the very cognitively rational tradition of the Californian Silicon Valley, the Stanford Panel Report (2016) surmises that the frontier of AI has moved far ahead from the functions of the calculator, as AI researchers work on improving, generalising, and scaling up the intelligence currently found on smartphones. The report recognises that lsquo;lsquo;Intelligencersquo;rsquo; remains a complex phenomenon whose varied aspects have attracted the attention of several different fields of study, including psychology, economics, neuroscience, biology, engineering, statistics, and linguistics. Naturally, it says, the field of AI has benefitted from the progress made by all of these allied fields. For example, the artificial neural network, which has been at the heart of several AI-based solutions, was originally inspired by thoughts about the flow of information in biological neurons. The voices of rational reason keep reminding us that while new technologies of artificial general intelligence (AGI), synthetic biology, geo-engineering, distributed manufacturing will bring very large benefits to humankind, these also pose existential risks for human societies. Knight (2015) reminds us that the rapid developments in promoting machine learning and artificial neural networks modelled on biological networks have led to the debate on the existential threat posed by the future AI. He argues for the need to undertake proactive policy measures and a regulatory framework to mitigate the risks, even if no such breakthroughs currently appear imminent. Bostrom (2016) expounds that self-improving artificial intelligences could effortlessly enslave or destroy Homo sapiens if they so wished. While he expresses scepticism that such machines

人工智能不平凡的声音

在未来超级人工智能严峻危害的大前提下,我们应当如何界定人工智能?一个巨大的工作消灭者?或是在进化中的一个新阶段,一个科技终于凌驾于人类之上的阶段?或者在各种伪装下,人工智能成为了医疗系统的主力,为我们治愈病痛并改造我们,从而探索和丰富我们的本性,创造出更多的理性主义者?新一轮的超级人工智能引发了许多社会问题,那些引发基本纷争的大事件是什么?我们应该如何应对这些转变?我们的生活中充满了数码科技。在经历巨大科技改变的情形下,我们可能会感觉被束缚和诱骗,被人工智能从传说到现实上都远远落下,从而误判我们真正的损失。硅谷科技文化常常将数码科技引发的社会问题以及人性思考当作是不适宜的,但是在这一转变的中间环节,我们可以听到现存风险、理由、弥补措施和伦理的声音。里斯先生在《现阶段的主要风险研究》一文中提出冲击生态系统的现存风险以及理性研究,包括由于全球气温变化而引起的传播速度迅速的疾病,自然资源的匮乏等问题。对于他来说,这些合理的担忧都是对网络学,生物学,伦理学不可估量的阻碍。他的担忧包括一个“科幻场景”,在这个场景中,联网电脑可以产生自我意识并威胁自然人。很难预估生物科技、网络科技中或是人工智能隐含的生存性威胁。他提出计划和研究去规避不可预料的灾难性结果和新时代网络科技、生物科技和纳米科技不可估量的缺点,从而规避由于错误或恐慌而引起的社会性灾难,在提到“人类作为一种物种,已经在其生命历程中作出许多改变”时提出一条平和且理性的建议。尽管我们的生物性能与一亿年前没有翻天覆地的变化,但是由于科学技术和多元化发展创造出巨大的成果,这改变了我们对于人类的认知。我们很大程度上提升了自己的生物属性,我们可以存储并运算比大脑更多的信息,并且共同解决个人所不能解决的问题。未来的人工智能系统将会在各个领域拥有超越人类智慧的解决能力。CFI虚拟了一条即将来临的解决途径,即当要求我们注意难以控制的人工智能以及建立一个有责任的创新系统并追求最大化的社会效益体系时产生的严重后果。他提示我们有关创造一个与人类智慧相当的计算机智慧的可能性。在这一未来图景中,不受生物学的限制,比如有限的记忆能力和缓慢的生物化学程序,机器最终将变得比我们更高级,为我们每一个人都带来了更深刻的思考。他强调,在设计人工智能系统时,任何跨学科或跨学科的合作努力来应对这些挑战,都需要“价值衡量”,从而避免在不经意间作出违背人类价值观的行为。由于人工智能系统在现实社会会越来越自动化且涉足复杂领域,我们将如何保证他们拥有正确的行为举止——从人类角度出发需要保证的价值取向呢?

斯坦福大学的专家小组报告(2016)推测,随着人工智能研究人员致力于改进、概括和扩大目前智能手机上的智能,人工智能的前沿已经远远超出了计算器的功能。该报告承认,“智力”仍然是一个复杂的现象,它的不同方面吸引了多个不同研究领域的关注,包括心理学、经济学、神经科学、生物学、工程学、统计学和语言学。从本质上说,AI领域受益于所有这些联盟领域所取得的进步。例如,人工神经网络最初的灵感来自于生物神经元中信息流的思考,而人工神经网络一直是几个基于人工智能的解决方案的核心。

理性的声音不断提醒我们,超强人工智能(AGI)、合成生物学、地球工程、分布式制造等新技术将给人类带来巨大的利益,但它们也给人类社会带来生存风险。Knight(2015)提醒我们,促进机器学习和以生物网络为模型的人工神经网络的快速发展,已经导致了关于未来人工智能所构成的生存威胁的辩论。他认为,我们需要采取积极的政策措施,减轻风险的监管框架,即使没有这样的突破目前显得迫在眉睫。博斯特罗姆(2016)阐述了自我改进的人工智能可以毫不费力地奴役或毁灭人类,如果他们愿意的话。尽管博斯特罗姆对这些机器能否被控制表示怀疑,但他声称,如果我们能在这些机器中植入正确的“对人类友好”的价值观,不管这些机器变得多么强大,它们都会继续保持这些美德。然而,即使我们认识到超级智能机器的极限,人工智能机器仍然非常危险,因为它们有可能放大人类的愚蠢。Baum和Tonn(2015)指出,对于机器学习理论家来说,为存在风险的问题寻找一般性的计算解决方案可能是诱人的,人类生活在模拟中的想法也是一种计算幻想。他们警告我们,比起危险的人工智能技术,更倾向于安全的人工智能技术是危险的。应对人类面临的灾难性威胁的标准伦理论据,是基于应对这些威胁的长远利益,而不是着眼于从应对这些威胁中获得的“近期”利益。

麻省理工学院媒体实验室(MIT Media Lab, 2016)主任伊藤俊彦(Joi Ito)表示:尽管人工智能科学家在构建机器智能工具时可能出于善意,但 “如果我们允许lsquo;扩展智能rsquo;在没有经过深思熟虑的管理的情况下发展,而不考虑它如何与社会融合并影响社会,它可能被用来放大危险的偏见和实体。”除非人工智能科学家在技术设计和评估中嵌入伦理和道德基础,否则同样旨在促进社会福祉的技术“实际上可能最终放大我们社会最糟糕的方面”。例如,机器学习算法,打着“智能机器”的旗号,可以用来监控公民——预测和预测谁会成为未来的罪犯或恐怖分子。虽然互联网促进了许多社交网络运动的兴起,但它也日益成为偏执、仇恨、偏见、种族主义和恶意挑衅的场所和平台。他对那些既“聪明”又具有社会责任感的建筑技术深恶痛疾。为了实现这一目标,他主张通过发起“关于社会将如何与这项技术共同进化的更广泛、更深入的讨论”,“为我们的道德、政府、教育体系和媒体在机器智能时代如何进化建立一个框架”。伯克曼克莱因中心(Berkman Klein Center)的联合创始人乔纳森bull;兹特雷恩(Jonathan Zittrain)补充了这一观点,他说:“贯穿这些原本不相干的现象的主线,是推理和判断从人们身上的转移hellip;hellip;有时这是好事,因为它能让我们摆脱对其他事情的追求,有时又令人深感不安,因为它将重大决策与人类对更深层事业的理解和责任感脱节。”我们在这方面的许多工作将是“确定和培养促进人类自治和尊严而不是削弱它的技术和做法”。“理性之声”(Stanford Panel Report op.cit.)展望了未来的发展前景,即开发能够感知人类的系统,专注于寻找新的、创造性的、交互式的、可伸缩的方式来教授机器人,并在社会和经济层面发挥人工智能和iot型系统的潜力。斯坦福大学的专家小组预测,在未来几年,新的感知/物体识别能力和人类安全的机器人平台将会发展,数据驱动的产品及其市场也会发展。这些理性的声音也会让我们从认知智能的角度来看待人工智能,他们认为“将智能描述为一个光谱,并不赋予人类大脑特殊的地位”。他们的论点是,任何计算机能够执行的活动,以及一旦执行了这些活动的人,都应被视为智力的一个实例。就好像人工智能只是理性的技术浪潮一样,斯坦福大学的研究小组发现没有理由担心人工智能对人类构成迫在眉睫的威胁。没有人工智能机器的参数是自我维持的。然而,该小组认识到,许多人工智能创新将导致人工智能在如何扩大或取代人类劳动力方面出现混乱,给经济和社会带来更广泛的新挑战。为了减轻人工智能的长期影响和后果,该小组要求人工智能研究人员、开发人员、社会科学家和决策者“在创新的必要性与确保人工智能的经济和社会效益在社会上广泛共享的机制之间取得平衡”。它警告人工智能研究团体和政策制定者不要对社会的恐惧和怀疑掉以轻心,要采取措施确保人工智能的安全和可靠性。该小组进一步要求他们以更开放的心态参与社会,如果该领域出现的技术要在未来几十年深刻地改变社会,那么应使其变得更好。

在“工具理性之声”(https:// cambridgeanalytica.org/)领域,对于数据科学家来说,我们的大脑需要不断适应快速变化的数据环境。作为预测分析,我们的大脑只是一个复杂的学习机器,其主要目标是数据压缩和解释。在这个数据科学的视野中,每秒在我们的大脑中自动发生数十亿次的数据处理,被视为许多数据分析应用程序中的一个基本步骤。数据科学算法可以用来扫描数据,寻找有意义的模式,提取有意义的数据集群的特征组合。除了工具理性的观点,Davies(2017)让我们了解了数据力量转移的影响和含义,他说,我们大多数人完全忘记了这些数据对我们的描述,无论是单独的还是集体的。随着个人数据成为数字经济的巨大驱动力,数据公司“越来越善于跟踪我们的习惯,并巧妙地操纵我们的行为”。在向数字公司提供个人数据以换取服务的过程中,我们不仅牺牲了我们的隐私权,而且在这个过程中,我们还允许“以前所未有的速度跟踪和分析我们的情感、身份和从属关系”。他引用了剑桥分析公司(Cambridge Analytica,同上)的例子,该公司使用尖端的数据分析技术,利用各种数据源来开发心理档案,并通过量身定制的信息服务(比如针对2016年总统大选期间的美国选民)来锁定数百万消费者。他说,这种在大规模人群中发展和完善心理洞见的能力,是新数据分析最具创新性和争议性的特征之一。他警告我们,在数据分析领域,围绕方法和数据来源的保密被视为竞争优势,“大数据精英”是否会轻易放弃对数据的掌握,转而支持公共利益和社会利益,是值得怀疑的。救赎之声指出,绘制潜在人工智能突破及其社会后果的前景是有可能的。他们的观点是,跟踪这些进展将有助于优先安排后续研究,因为人工智能的控制方法和社会后果将取决于系统的架构和到达时间轴。然而,从更广泛的社会视角来看,人工智能的未来对民主政治构成了挑战,包括政治机构、问责制和代表权等问题。例如:现有的机构如何做好准备来应对风险和机遇的长期过渡到人工智能,并做到了人工智能。

在报告“人工智能何时才能超越人类的表现?”中,牛津大学人类未来研究所的Grace等人(https:// arxiv.org/pdf/1705.08807.pdf)注意到人工智能(AI)的进步所带来的巨大社会后果。例如,自动驾驶技术可能在未来十年取代数百万个驾驶岗位。除了可能的失业,转型还将带来新的挑战,比如重建基础设施,保护汽车网络安全,以及调整法律法规。他们说,除了人工智能的社会和伦理影响,包括人工智能和自动化对人类工作的影响,这些革命性的挑战还将来自执法、军事技术和营销方面的应用。O #39;Reilly(2017)呼吁为了社会利益协调新一波人工智能。他要求我们注意人工智能、自动驾驶汽车和按需服务的理性支持者的声音,以及它们与“收入不平等”的共性。他说,他们清楚而响亮地告诉我们,我们正面临工作、商业和经济的巨大变革。我们正在“混乱”地走向一个由技术塑造的世界,我们不理解这些技术,也有许多理由感到恐惧。那么,未来是什么样子的呢?它会让我们感到惊讶还是沮丧?最重要的是,我们在决定未来的过程中扮演什么角色?今天,我们如何做出选择,才能创造出我们想要生活的世界?当越来越多的工作可以由智能机器而不是人来完成,或者只能由与这些机器合作的人来完成时,未来会是什么样子?工人们会发生什么,依赖他们购买力的公司会发生什么?当技术支持的网络和市场比传统公司更善于部署人才时,企业的未来会是怎样的?当按需学习在保持技能更新方面超过传统大学时,教育的未来会是什么样子?他进一步指出,我们正处于历史上一个非常危险的时刻。财富和权力的浓度侵蚀全球精英的手中的权力和主权民族国家的同时,全球技术平台,可以实现控制算法的公司、机构和社会,塑造数十亿人看到和理解以及收入的分配。与此同时,收入不平等和技术变革的速度正在导致民粹主义的反弹,其特征是反对科学、不信任我们的管理机构,以及对未来的恐惧,这使得解决我们所创造的问题变得更加困难。

当诺顿(2017)提醒我们大数据和机器学习的社会、伦理和法律影响时,我们听到了超越监管的道德声音。他举例说,2015年7月,伦敦皇家自由医院(Royal Free hospital London)将160万名可识别患者的健康记录转移到谷歌(google)旗下的人工智能公司DeepMind,以创建一款名为Streams的应用程序,帮助临床医生管理急性肾损伤(AKI)。急性肾损伤是一种严重的疾病,在英国每年导致4万人死亡(Powels and Hodson 2015)。在卫生保健方面的这种合作产生了以下问题:160万份可识别的卫生记录是基于什么伦理和法律基础悄然消失的?此外,“该协议是如何通过各种数据保护障碍的,而任何医疗记录的共享都必须克服这些障碍?”然而,最近,当英国信息专员指责皇家自由医院(Royal Free hospital)违反英国《数据保护法》(Data Protection Act)时,DeepMind承认,他们“低估了NHS的复杂性,以及围绕患者数据的规则hellip;hellip;”我们几乎完全专注于构建护士和医生想要的工具,并把我们的工作看作是为临床医生服务的技术,而不是需要对病人、公众和整个NHS负责并加以塑造的东西。我们做错了,我们需要做得更好”(诺顿2017)。不管信息专员未来会提出什么样的指导意见,诺顿指出,“我们面临的事实是,一个包含160万份非法传输的敏感健康记录的数据库,正位于谷歌服务器的某个地方,尽管DeepMind声称不需要它”。我们从这个人工智能故事中得到的启示是,我们应该关注这样一个困境,即影响社会结构的人工智能工具可以在不受法律、伦理、社会、文化价值观和社会规范约束的情况下得到发展。

DeepMind的这个例子让我们注意到,在探索人工智能、大数据和机器学习的虚拟和现实时,要超越关于监管模式的学术争论,并作为一种替代方案,促进以人为中心的伦理框架的创建,在技术创新和社会之间找到一致性。随着工具理性在机器学习算法的伪装下继续发展,我们看到越来越多的数据操作来支持和控制机构和组织结构。超越它们(算法)作为计算人工制品的角色,我们关心的是这些算法如何考虑到我们“关于代理、透明度和规范性的根深蒂固的假设”的局限性。考虑到这些问题,Gill (2017b)提请我们注意观察型作者Introna、Crawford和Ananny的工作,他们认为数据操作实践是有问题的,因为它们是不可思议的、自动的,并且包含在日常实践的流程中。除了算法透明度和开放性的问题之外,计算实践还对知识和专业知识领域的产生以及这些知识领域如何内部化,影响机构治理产生严重影响。此外,这些算法不仅能在“高度竞争”的公共话语在线空间中工作,而且它们的表现往往缺乏可视性或问责性。这是一个走出“黑匣子”概念的论证算法,并推广“网络化信息算法”(NIAs)的思想;以制度为基础的代码、实践和规范的组

原文和译文剩余内容已隐藏,您需要先支付 20元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。