人工智慧

人工智能AI )是机器软件的智能,而不是人类或动物的智能。这是一个开发和研究智能机器的计算机科学研究领域。这样的机器可以称为AIS。

AI技术在整个行业,政府和科学中广泛使用。一些引人注目的应用程序是:高级网络搜索引擎(例如, Google搜索),推荐系统YouTubeAmazonNetflix使用),了解人类言语(例如Google AssistantSiriAlexa ),自动驾驶汽车(例如Waymo ),生成创意工具( ChatgptAI艺术),以及策略游戏中的超人游戏和分析(例如国际象棋GO )。

艾伦·图灵(Alan Turing)是第一个在他称为机器智能的领域进行大量研究的人。人工智能成立于1956年。该领域经历了多种乐观周期,随后失望和资金损失。在2012年深度学习超过以前的所有AI技术之后,在2017年之后的变压器体系结构之后,资金和兴趣大大增加。这导致了2020年代的AI春季,公司,大学和实验室绝大多数总部位于美国,开创了人工智能的重大进展。

AI研究的各个子场围绕特定目标和特定工具的使用。 AI研究的传统目标包括推理知识代表计划学习自然语言处理感知和对机器人技术的支持。一般情报(完成人类可以执行的任何任务的能力)是该领域的长期目标之一。

为了解决这些问题,AI研究人员已经改编并集成了广泛的解决问题的技术,包括搜索数学优化,正式逻辑,人工神经网络以及基于统计操作研究经济学的方法。 AI还借鉴了心理学语言学哲学神经科学和其他领域。

目标

模拟(或创造)智能的一般问题已被打破到子问题中。这些由研究人员期望智能系统展示的特定特征或功能组成。下面描述的特征受到了最大的关注,并涵盖了AI研究的范围。

推理,解决问题

早期的研究人员开发了算法,这些算法模仿了人类在解决难题或进行逻辑推论时使用的逐步推理。到1980年代和1990年代后期,采用了概率经济学的概念来处理不确定或不完整的信息的方法。

这些算法中的许多不足以解决大型推理问题,因为它们经历了“组合爆炸”:随着问题的增加,它们变得越来越慢。即使人类也很少使用早期AI研究可以建模的分步扣除。他们使用快速,直观的判断来解决大多数问题。准确有效的推理是一个未解决的问题。

知识表示

本体论代表知识是域内的一组概念以及这些概念之间的关系。

知识表示知识工程允许AI计划聪明地回答问题,并对现实世界中的事实进行推论。正式的知识表示形式用于基于内容的索引和检索,场景解释,临床决策支持,知识发现(挖掘“有趣”和来自大型数据库的可行推断)以及其他领域。

知识基础是以程序可以使用的形式表示的知识体。本体是特定知识领域使用的对象,关系,概念和属性的集合。知识库需要表示:对象,属性,类别和对象之间的关系;情况,事件,状态和时间;原因和影响;知识的知识(我们对别人所知道的了解);默认推理(人类假设的事情是正确的,直到他们被不同地讲述,即使其他事实发生了变化,也将保持真实);以及许多其他方面和知识领域。

知识表示中最困难的问题之一是:常识性知识的广度(普通人所知道的一组原子事实);以及大多数常识性知识的次符号形式(人们所知道的很多东西都不是“事实”或“陈述”,它们可以在口头上表达)。知识获取的困难也很困难,是获得AI应用知识的问题。

计划和决策

“代理人”是任何意识到并采取行动的事物。理性代理有目标或偏好,并采取行动使其实现。在自动化计划中,代理商有一个特定的目标。在自动决策中,代理人有偏好 - 在某些情况下,它希望进入,以及它试图避免的某些情况。决策代理分配了每种情况(称为“实用程序”)的数字,该数字衡量了代理更喜欢它的数量。对于每种可能的动作,它可以计算“预期效用”:该动作所有可能结果的实用性,并由结果发生的概率加权。然后,它可以选择最大预期实用程序的操作。

古典计划中,代理商确切知道任何行动的影响。但是,在大多数现实世界中的问题中,代理商可能不确定他们所处的情况(这是“未知”或“不可观察的”),并且可能不确定每个可能的动作后会发生什么(不是“确定性”)。它必须通过做出概率猜测来选择一个动作,然后重新评估情况,以查看该动作是否有效。

在某些问题中,代理商的偏好可能是不确定的,尤其是在涉及其他特工或人类的情况下。可以学习这些(例如,通过逆增强学习),也可以寻求信息以改善其偏好。信息价值理论可用于权衡探索性或实验作用的价值。未来可能的行动和情况的空间通常很大,因此代理人必须采取行动并评估情况,同时不确定结果将是什么。

马尔可夫决策过程具有一个过渡模型,该模型描述了特定行动以特定方式改变状态的可能性,以及提供每个状态效用和每个动作成本的奖励功能政策将决定与每个可能的状态相关联。可以计算该策略(例如,通过迭代),是启发式的,也可以学习。

游戏理论描述了多种相互作用剂的合理行为,并用于制定涉及其他代理的决策的AI程序中。

学习

机器学习是对可以自动在给定任务上提高其性能的程序的研究。从一开始就一直是AI的一部分。

有几种机器学习。无监督的学习分析数据流并找到模式并进行预测,而无需任何其他指导。监督学习需要人类首先标记输入数据,并有两个主要品种:分类(程序必须学会预测输入所属的类别)和回归(该程序必须基于数字输入来推导数字函数)。

加强学习过程中,代理人获得了良好的反应并受到坏人的惩罚。代理商学会选择被归类为“好”的响应。转移学习是将一个问题从一个问题中获得的知识应用于一个新问题时。深度学习是一种机器学习,可以通过生物学启发的人工神经网络进行所有这些类型的学习。

计算学习理论可以通过计算复杂性样本复杂性(需要多少数据)或其他优化概念来评估学习者。

自然语言处理

自然语言处理(NLP)允许程序以英语等人类语言读写和交流。具体问题包括语音识别语音综合机器翻译信息提取信息检索问题回答

基于Noam Chomsky生成语法语义网络的早期工作,除非仅限于称为“ Micro Worlds ”的小领域(由于常识性知识问题),否则很难在单词态度的歧义中遇到困难。玛格丽特大师认为这是意义,而不是语法是理解语言的关键,而词库而不是词典应该是计算语言结构的基础。

NLP的现代深度学习技术包括单词嵌入(代表单词,通常是编码其含义的向量),变压器(使用注意机制的深度学习体系结构)等。 2019年,生成的预训练的变压器(或“ GPT”)语言模型开始生成连贯的文本,到2023年,这些模型能够在律师考试SAT测试, GRE测试和许多其他真实的其他真实情况下获得人级得分 - 世界应用程序。

洞察力

机器感知是能够使用传感器(例如摄像机,麦克风,无线信号,主动雷达,声纳,雷达和触觉传感器)的输入来推断世界各个方面。计算机视觉是分析视觉输入的能力。

该领域包括语音识别图像分类面部识别对象识别机器人感知

社会情报

Kismet ,1990年代制造的机器人头;可以识别和模拟情绪的机器。

情感计算是一种跨学科的雨伞,包括识别,解释,过程或模拟人类感觉,情感和情绪的系统。例如,一些虚拟助手被编程为在对话中或幽默地讲话。它使它们显得对人类互动的情感动态更加敏感,或者以其他方式促进人与计算机的相互作用

但是,这往往会使幼稚的用户对现有计算机代理的智能有不切实际的概念。与情感计算相关的中等成功包括文本情绪分析和最近的多模式情感分析,其中AI对录像带主题显示的影响进行了分类。

通用情报

具有人工智能的机器应该能够解决与人类智能类似的广度和多功能性的各种问题。

技术

AI研究使用多种技术来实现上述目标。

搜索和优化

AI可以通过智能搜索许多可能的解决方案来解决许多问题。 AI中使用了两种非常不同的搜索类型:状态空间搜索本地搜索

状态空间搜索

状态空间搜索通过可能状态树的树搜索,以尝试找到目标状态。例如,规划算法通过目标和子目标树的搜索,试图找到目标目标的途径,这是一种称为均值末端分析的过程。

对于大多数现实世界中的问题,简单的详尽搜索很少足够:搜索空间(搜索地点的数量)迅速增长到天文数字。结果是搜索太慢或从未完成。 “启发式方法”或“经验法则”可以帮助优先考虑更有可能达到目标的选择。

对抗性搜索用于游戏程序,例如国际象棋或GO。它通过可能的动作和反动机搜索,寻找获胜的位置。

本地搜索

3个不同起点的梯度下降的插图。为了最大程度地减少损耗函数(高度),调整了两个参数(由计划坐标表示)。

本地搜索使用数学优化来找到问题的数字解决方案。它以某种形式的猜测开始,然后逐步完善猜测,直到无法再进行改进为止。这些算法可以看到为盲山攀岩:我们从景观上的一个随机点开始搜索,然后,通过跳跃或台阶,我们不断上山,直到到达顶部。此过程称为随机梯度下降

进化计算使用一种优化搜索形式。例如,它们可能从一系列生物(猜测)开始,然后允许它们突变和重新组合,仅选择最适合生存的生存以生存每一代(精炼猜测)。

分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群的优化(灵感来自鸟类植物)和蚂蚁菌落优化(受蚂蚁小径的启发)。

神经网络统计分类器(下面讨论)也使用一种本地搜索形式,其中要搜索的“景观”是通过学习形成的。

逻辑

形式逻辑用于推理知识表示。形式逻辑有两种主要形式:命题逻辑(该命题逻辑(该逻辑是在真或错误的语句上运行,并使用逻辑连接器,例如“和”,“”或“,”,“不是”和“含义”)和谓词逻辑(也可以在对象,谓词和关系,并使用诸如“每个x都是y ”和“有些X s”之类量词

逻辑推理(或扣除)是从已知已知为真实的其他陈述(前提)中证明新陈述(结论)的过程。逻辑知识库还将查询和断言作为推理的特殊情况。推论规则描述了证明中的有效步骤。最一般的推论规则是解决。可以将推论简化为执行搜索以找到从前提到结论的路径,其中每个步骤都是推理规则的应用。除了在限制域中的简短证明外,推理以这种方式进行了棘手。没有发现有效,强大和一般的方法。

模糊逻辑在0到1之间分配了“真实程度”,并处理不确定性和概率情况。非单调逻辑旨在处理默认推理。已经开发出其他专门的逻辑版本来描述许多复杂的领域(请参见上面的知识表示)。

不确定推理的概率方法

旧忠实喷发数据的期望最大化聚类始于随机猜测,但随后成功收敛于两种物理上不同的喷发模式的准确聚类。

AI中的许多问题(包括推理,计划,学习,感知和机器人技术)要求代理商以不完整或不确定的信息运行。 AI研究人员已经设计了许多工具来使用概率理论和经济学的方法来解决这些问题。

贝叶斯网络是一种非常通用的工具,可用于许多问题,包括推理(使用贝叶斯推理算法),学习(使用期望最大化算法),计划(使用决策网络)和感知(使用动态贝叶斯网络)。

概率算法也可以用于过滤,预测,平滑和查找数据流的解释,从而帮助感知系统分析随着时间的推移发生的过程(例如,隐藏的马尔可夫模型卡尔曼过滤器)。

已经开发了精确的数学工具,分析了代理如何使用决策理论决策分析信息价值理论做出选择和计划。这些工具包括马尔可夫决策过程,动态决策网络游戏理论机制设计等模型。

分类器和统计学习方法

最简单的AI应用程序可以分为两种类型:一方面的分类器(例如“如果闪闪发光,钻石”),另一方面,控制器(例如“如果钻石,则捡起”)。分类器是使用模式匹配来确定最接近匹配的函数。可以根据监督学习的选择示例对它们进行微调。每个模式(也称为“观察”)都标有某个预定义的类。所有观察结果及其班级标签都被称为数据集。当收到新的观察结果时,该观察结果将根据以前的经验进行分类。

使用多种分类器。决策树是最简单,最广泛使用的符号机器学习算法。 K-Nearest邻居算法是直到1990年代中期的最广泛使用的类似AI,而诸如1990年代的k-nearest neigry的内核方法(例如支持向量机(SVM))。据报导, Naive Bayes分类器是Google的“最广泛使用的学习者”,部分原因是其可扩展性。神经网络也被用作分类器。

人工神经网络

神经网络是一组相互联系的节点,类似于人脑中庞大的神经元网络。

人工神经网络基于一个也称为人工神经元的节点的集合,该节点在生物学大脑中松散地对神经元进行了模拟。经过训练可以识别模式,一旦受过训练,就可以在新鲜数据中识别这些模式。有一个输入,至少一个隐藏的节点和一个输出层。每个节点都应用一个函数,一旦权重交叉指定的阈值,则数据将传输到下一层。如果网络至少具有2个隐藏层,则通常称为深神经网络

神经网络的学习算法使用本地搜索来选择训练期间每个输入的权重。最常见的培训技术是反向传播算法。神经网络学会模拟输入和输出之间的复杂关系,并在数据中找到模式。从理论上讲,神经网络可以学习任何功能。

在前馈神经网络中,信号仅向一个方向传递。复发性神经网络将输出信号送回输入,这允许对先前输入事件的短期记忆。长期内存是重复网络最成功的网络体系结构。感知器仅使用一层神经元,深度学习使用多个层。卷积神经网络增强了“彼此接近”的神经元之间的联系 - 这在图像处理中尤其重要,在图像处理中,局部神经元必须在网络识别对象之前识别“边缘”

深度学习

深度学习在网络的输入和输出之间使用几层神经元。多层可以从原始输入中逐步提取更高级别的特征。例如,在图像处理中,下层可以识别边缘,而较高的层可能会识别与人类相关的概念,例如数字,字母或面部。

深度学习在许多重要的人工智能子领域,包括计算机视觉语音识别自然语言处理图像分类等,大大改善了程序的性能。从2023年开始,深度学习在如此多的应用中表现出色的原因。2012- 2015年,深度学习的突然成功之所以出现,是因为一些新的发现或理论突破(深度神经网络和反向传播已经描述了许多人早在1950年代),但由于两个因素:计算机功率的不可思议的增加(包括切换到GPU的速度提高一百倍)以及大量培训数据的可用性,尤其是巨大的培训数据用于基准测试的数据集,例如ImageNet

GPT

生成的预训练的变压器(GPT)是基于句子中单词(自然语言处理)之间的语义关系的大语言模型。基于文本的GPT模型已在可以来自Internet的大量文本上进行了预培训。预训练包括预测接下来的令牌(令牌通常是单词,子字或标点符号)。在整个培训期间,GPT模型都积累了有关世界的知识,然后可以反复预测下一个令牌来产生类似人类的文本。通常,随后的训练阶段使模型更真实,有用和无害,通常是通过一种称为增强的技术从人类反馈(RLHF)学习的技术。当前的GPT模型仍然容易产生称为“幻觉”的虚假性,尽管可以使用RLHF和质量数据来减少这种虚假性。它们用于聊天机器人,可让您提出问题或在简单文本中请求任务。

当前的模型和服务包括:吟游诗人ChatgptClaudeCopilotLlama多模式GPT模型可以处理不同类型的数据(模式),例如图像,视频,声音和文本。

专门的硬件和软件

在2010年代后期,越来越多地使用AI特异性增强并与专用张量流软件一起设计的图形处理单元(GPU)已取代了先前使用的中央加工单元(CPU)作为大型(商业和学术)的主要手段机器学习模型的培训。从历史上看,使用了专用语言,例如LISPPrologPython等。

申请

AI和机器学习技术用于2020年代的大多数基本应用,包括:搜索引擎(例如Google搜索),针对在线广告推荐系统(由NetflixYouTubeAmazon提供),推动互联网流量有针对性的广告AdsenseFacebook ),虚拟助手(例如SiriAlexa ),自动驾驶汽车(包括无人机ADAS自动驾驶汽车),自动语言翻译Microsoft TranslatorGoogle Translate ),面部识别Apple脸部ID或苹果的脸IDMicrosoftDeepFaceGoogle面部)和图像标签FacebookAppleiPhotoTiktok使用)。

健康与医学

AI在医学医学研究中的应用有可能提高患者护理和生活质量。通过希波克拉底誓言的镜头,如果应用程序可以更准确地诊断和治疗患者,则在道德上被迫使用AI。

对于医学研究,AI是处理和集成大数据的重要工具。这对于使用显微镜成像作为制造的关键技术的器官组织工程开发尤其重要。已经提出,AI可以克服分配给不同研究领域的资金的差异,例如心血管研究,通常会获得相对于这些疾病的发病率和死亡率等领域的不成比例的资金,而癌症研究等领域的资金却较小。新的AI工具可以加深我们对生物医学相关途径的理解。例如, Alphafold 2 (2021)证明了在数小时而不是几个月内的蛋白质3D结构的能力。

游戏

自1950年代以来,游戏玩法已被使用来演示和测试AI最先进的技术。 Deep Blue于1997年5月11日成为第一个击败卫冕世界国际象棋冠军Garry Kasparov的计算机国际象棋系统。2011年,在危险中!测验展览会比赛, IBM问答系统沃森击败了两个最大的危险!冠军,布拉德·鲁特(Brad Rutter)肯·詹宁斯(Ken Jennings) ,有了一个很大的利润。 2016年3月, Alphago在与Go Champion Lee Sedol的比赛中赢得了5场比赛中的4场,成为第一个击败无障碍的专业GO播放器的计算机GO游戏系统。然后,它在2017年击败了Ke Jie ,后者当时连续两年保持全球第一名。其他程序处理不完美的信息游戏;例如,在超人水平上的扑克pluribuscepheusDeepMind在2010年代开发了一种“广义人工智能”,可以自己学习许多不同的Atari游戏。 2021年,一位AI特工参加了PlayStation Gran Turismo比赛,使用深入的强化学习与世界上四名最好的Gran Turismo驾驶员赢得了比赛。

军队

各个国家正在部署AI军事申请。主要应用程序增强了命令和控制,通信,传感器,集成和互操作性。研究是针对情报收集和分析,物流,网络操作,信息操作以及半自主和自动驾驶汽车的目标。人工智能技术可以协调传感器和效应器,威胁检测和身份,标记敌人位置,目标获取,协调和反合在涉及男人和无人驾驶团队的网络战斗车辆之间分布式关节火灾。 AI被纳入伊拉克和叙利亚的军事行动。

生成的AI

Vincent van Gogh是由生成AI软件创建的水彩画

在2020年代初期,生成的AI获得了广泛的突出。基于GPT-3和其他大型语言模型的Chatgpt是由14%的美国人成年人尝试的。 MidjourneyDall-E稳定的扩散等基于AI的文本对图像生成器的现实主义和易用性的易用性引发了病毒AI生成的照片的趋势。弗朗西斯教皇的伪造照片,唐纳德·特朗普的虚构逮捕以及对五角大楼的袭击以及对职业创意艺术的使用量引起了广泛的关注。

行业特定的任务

还有数千种成功的AI应用程序,用于解决特定行业或机构的特定问题。在2017年的一项调查中,五分之一的公司报告说,他们已将“ AI”纳入了某些产品或流程中。一些例子是能够预测司法决策,外交政策或供应链管理结果的能量存储,医疗诊断,军事物流。

在农业中,AI帮助农民确定了需要灌溉,施肥,农药治疗或增加产量的地区。农艺师使用AI进行研发。 AI已被用来预测诸如西红柿,监测土壤水分,操作农业机器人,进行预测分析的农作物的成熟时间,对牲畜猪呼叫情绪,自动化温室,检测疾病和害虫以及节省水。

人工智能用于天文学来分析越来越多的可用数据和应用程序,主要用于“分类,回归,聚类,预测,产生,发现以及新科学见解的发展”区分引力波天文学中的信号和仪器效应。它也可以用于空间探索等空间的活动,包括分析来自太空任务的数据,航天器的实时科学决策,避免太空碎片以及更自主的操作。

伦理

生成的AI图像,其中包括她手臂上可见的典型错误

与任何强大的技术一样,AI具有潜在的好处和潜在风险。 AI可能能够推进科学并找到解决严重问题的解决方案:深思熟虑Demis Hassabis希望“解决智能,然后使用它来解决其他一切”。但是,随着AI的使用变得广泛,已经确定了几种意想不到的后果和风险。

任何希望将机器学习作为现实世界的一部分的人,内部生产系统都需要将道德规范纳入其AI培训过程中,并努力避免偏见。当使用在深度学习中固有无法解释的AI算法时,尤其如此。

风险和危害

隐私和版权

机器学习算法需要大量数据。用于获取这些数据的技术引起了人们对隐私监视版权的关注。

技术公司从其用户那里收集广泛的数据,包括在线活动,地理位置数据,视频和音频。例如,为了构建语音识别算法,亚马逊录制了数百万个私人对话,并允许温度聆听和转录其中的一些。关于这种广泛监视的观点范围从那些将其视为必要邪恶的人到那些显然是不道德并侵犯隐私权的人。

AI开发人员认为,这是提供有价值的应用程序的唯一方法。并开发了几种试图保留隐私的技术,同时仍获得数据,例如数据聚合去识别差异隐私。自2016年以来,一些隐私专家(例如Cynthia Dwork )开始以公平性来查看隐私。布莱恩·克里斯蒂安(Brian Christian)写道,专家们“从他们所知道的”问题到'他们在做什么'的问题'。

Generative AI经常受到无牌版权作品的培训,包括图像或计算机代码等域中;然后在“合理使用”的理由下使用输出。同样,如果您不希望您的网站不希望您的网站被当前可用于某些搜索引擎索引,那么不希望将其受版权内容的网站所有者索引或“刮擦”可以在其网站上添加代码。诸如Openai之类的服务。专家不同意这种理由在法院的良好状态以及在什么情况下的表现;相关因素可能包括“使用受版权保护工作的目的和特征”和“对受版权保护的工作的潜在市场的影响”。 2023年,主要作者(包括约翰·格里森(John Grisham )和乔纳森·弗兰岑(Jonathan Franzen ))起诉AI公司使用其工作来培训生成性AI。

误传

YouTubeFacebook和其他人使用推荐系统来指导用户获得更多内容。这些AI程序的目标是最大程度地提高用户参与度(也就是说,唯一的目标是保持人们观看)。 AI了解到,用户倾向于选择错误的信息阴谋论和极端的党派内容,并且为了让他们观看,AI推荐了更多。用户还倾向于观看有关同一主题的更多内容,因此AI将人们带入了过滤气泡,他们收到了多个版本的同一错误信息。这使许多用户确信,错误信息是真实的,最终破坏了对机构,媒体和政府的信任。 AI计划正确地学会了最大化其目标,但结果对社会有害。在2016年美国大选之后,大型技术公司采取了措施缓解问题。

在2022年,生成的AI开始创建与真实照片,录音,电影或人类写作无法区分的图像,音频,视频和文本。不良行为者有可能使用这项技术创造大量的错误信息或宣传。 AI先驱杰弗里·欣顿(Geoffrey Hinton)表示担心AI使“专制领导人都可以大规模操纵其选民”,以及其他风险。

算法偏见与公平

如果机器学习应用程序从有偏见的数据中学习,则将偏见。开发人员可能不知道存在偏见。可以通过选择培训数据以及通过模型的方式来引入偏差。如果使用有偏见的算法来做出可能严重损害人们的决定(就像医学金融招聘住房警务一样),则该算法可能会引起歧视。机器学习中的公平性是如何预防算法偏见造成的伤害的研究。它已成为AI中学术研究的严肃领域。研究人员发现,并非总是有可能以满足所有利益相关者的方式来定义“公平”。

2015年6月28日, Google Photos的新图像标签功能错误地将Jacky Alcine和朋友确定为“大猩猩”,因为它们是黑色的。该系统在包含很少的黑人图像的数据集上进行了培训,这个问题称为“样本量差异”。 Google通过防止系统将任何内容都标记为“大猩猩”来“解决”此问题。八年后,在2023年,Google照片仍然无法识别大猩猩,而Apple,Facebook,Microsoft和Amazon的类似产品也不能。

Compas美国法院广泛使用的商业计划,以评估被告成为累犯的可能性。 2016年, Propublica的朱莉娅·安格温(Julia Angwin)发现,尽管没有告诉该计划被告的种族,但Compas表现出种族偏见。尽管白人和黑人的错误率均以61%的量相等,但每个种族的错误都不同 - 该系统始终高估了黑人重新犯罪的机会,并且会低估白人不会不会的机会重新犯罪。 2017年,几位研究人员表明,当数据中白人和黑人的基本率不同时,Compas在数学上不可能适应所有可能的公平措施。

即使数据没有明确提及有问题的功能(例如“种族”或“性别”),程序也可以做出偏见的决策。该功能将与其他功能(例如“地址”,“购物历史记录”或“名字”)相关,并且该程序将根据这些功能与“ Race”或“ Gender”上的功能做出相同的决定。莫里茨·哈特(Moritz Hardt)说:“该研究领域中最强大的事实是,通过失明而公平性无效。”

对Compas的批评强调了滥用AI的更深层次问题。机器学习模型旨在进行“预测”,仅当我们假设未来与过去相似时,这种预测才有效。如果他们接受了包括过去种族主义决策结果的数据培训,那么机器学习模型必须预测将来将做出种族主义决策。不幸的是,如果一个应用程序将这些预测用作建议,那么其中一些“建议”可能是种族主义者。因此,机器学习并不适合在希望未来会比过去更好的领域做出决策。它一定是描述性的,而不是放松的。

偏见和不公平可能会尚未被发现,因为开发人员绝大多数是白人和男性:在AI工程师中,大约4%是黑人,而20%是女性。

在2022年公平,问责制和透明度会议上(ACM FACCT 2022),韩国首尔的计算机协会在韩国首尔进行了提出和发表的调查结果,建议在AI和机器人系统没有偏见之前,他们都是无偏见的发现不安全以及使用在广泛的,不受监管的互联网数据来源训练的自我学习神经网络的使用应减少。

缺乏透明度

激光雷达测试工具用于自动驾驶

许多AI系统是如此复​​杂,以至于他们的设计师无法解释他们如何做出决定。特别是在深层神经网络中,其中输入和输出之间存在大量的非线性关系。但是存在一些流行的解释性技术。

在许多情况下,机器学习计划通过了严格的测试,但是学到了与程序员预期的不同的东西。例如,发现一种可以比医疗专业人员更好地识别皮肤疾病的系统实际上具有将图像与尺子分类为“癌性”的强烈趋势,因为恶性肿瘤的图片通常包括统治者来显示量表。旨在帮助有效分配医疗资源的另一种机器学习系统将哮喘患者归类为从肺炎死亡的“低风险”。哮喘实际上是一个严重的危险因素,但是由于患有哮喘的患者通常会获得更多的医疗服务,因此根据培训数据,他们相对不太可能死亡。哮喘与低肺炎死亡的风险之间的相关性是真实的,但具有误导性。

受算法决定受到伤害的人有权解释。例如,医生必须清楚,完全解释他们做出的任何决定背后的推理。 2016年欧盟一般数据保护法规的早期草案包括一项明确的声明,即这一权利存在。行业专家指出,这是一个未解决的问题,没有解决方案。监管机构认为,危害是真实的:如果问题没有解决方案,则不应使用工具。

DARPA在2014年建立了XAI (“可解释的人工智能”计划),以尝试解决这些问题。

透明度问题有几种潜在的解决方案。 Shap有助于可视化每个功能对输出的贡献。石灰可以在本地近似具有更简单,可解释的模型的模型。多任务学习除了目标分类外,还提供了大量输出。这些其他输出可以帮助开发人员推断网络所学的知识。反卷积深梦和其他生成方法可以使开发人员可以看到深网的不同层次学习并产生可以暗示网络学习的输出。

冲突,监视和武器化AI

致命的自主武器是一台在没有人类监督的情况下定位,选择和参与人类目标的机器。据报导,到2015年,有50多个国家正在研究战场机器人。这些武器由于多种原因被认为是特别危险的:如果它们杀死一个无辜的人,尚不清楚谁应该承担责任,那么他们不太可能会可靠地选择目标,如果按大规模生产,它们可能是大规模杀伤性的武器。 2014年,有30个国家(包括中国)支持禁止根据《联合国公约某些常规武器公约》对自动武器的禁令,但美国和其他国家不同意。

AI提供了许多对威权政府特别有用的工具:智能间谍软件面部识别语音识别允许广泛的监视;这样的监视使机器学习可以对国家的潜在敌人进行分类,并可以防止他们隐藏;推荐系统可以精确针对宣传错误信息,以最大程度地效应;深层生成的AI有助于产生错误信息;先进的AI可以做出独裁的集中决策,从而使自由主义和分散的系统(例如市场)更具竞争力。

人工智能面部识别系统用于大规模监测,特别是在中国。 2019年,印度班加罗尔部署了AI管理的交通信号。该系统使用摄像机根据清除流量所需的间隔来监视交通密度并调整信号正时。恐怖分子,罪犯和流氓国家可以使用武器的AI,例如先进的数字战致命的自动武器。机器学习AI还能够在几个小时内设计成千上万的有毒分子。

技术失业

从人工智能发展的早期开始,就有论点,例如约瑟夫·韦森鲍姆(Joseph Weizenbaum)提出的论点,鉴于计算机和人类之间的差异,计算机是否应该完成计算机可以完成的任务,以及定量计算和基于价值的判断。

经济学家经常强调AI的裁员风险,并猜测如果没有足够的社会政策以进行充分就业。

过去,技术倾向于增加而不是减少全部就业,但经济学家承认,与AI的“我们处于未知领域”。对经济学家的一项调查表明,关于机器人的使用和人工智能的使用是否会导致长期失业率大幅增加,但他们通常同意,如果重新分配生产率,这可能是净福利。风险估计有所不同;例如,在2010年代,迈克尔·奥斯本(Michael Osborne)和卡尔·本尼迪克特·弗雷(Carl Benedikt Frey)估计有47%的美国工作岗位具有潜在自动化的“高风险”,而经合组织的报告仅将美国9%的工作归类为“高风险”。猜测关于未来就业水平的方法被批评为缺乏证据基础,并暗示技术而不是社会政策而不是裁员,而不是社会政策。

与以前的自动化浪潮不同,人工智能可能会消除许多中产阶级工作。这位经济学家在2015年表示:“担心AI可能会对白领工作做什么,在工业革命期间,蒸汽动力对蓝领企业的作用是“值得认真对待的”。极端风险的工作范围从律师助理到快餐厨师,而与护理有关的职业的工作需求可能会增加,从个人医疗保健到神职人员。

据报导,在2023年4月,中国视频游戏的工作中有70%的工作被生成人工智能消除了。

存在风险

有人认为,人工智能将变得如此强大,以至于人类可能会不可逆转地失去控制。正如物理学家史蒂芬·霍金(Stephen Hawking)所说,这可以“拼写人类的终结”。当计算机或机器人突然发展出类似人类的“自我意识”(或“意识”或“意识”)并成为恶意性的角色时,这种情况在科幻小说中很普遍。这些科幻场景在几种方面具有误导性。

首先,人工智能不需要类似人类的“知觉”是一种存在的风险。现代AI计划具有特定的目标,并使用学习和智力来实现这些目标。哲学家尼克·博斯特罗姆(Nick Bostrom)认为,如果一个人几乎为足够强大的人工智能提供任何目标,它可能会选择破坏人类来实现它(他以造纸工厂经理的榜样)。斯图尔特·罗素(Stuart Russell)举例说明了家用机器人的例子,该机器人试图找到一种杀死其主人以防止其拔掉的方式的方法,认为“如果你死了,你就不能取咖啡。”为了使人类安全,必须真正地与人类的道德和价值观保持一致,以便“从根本上讲在我们身边”。

其次,尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)认为,人工智能不需要机器人身体或身体控制来构成生存风险。文明的基本部分不是物理的。意识形态法律政府金钱经济之类的东西是用语言制成的。它们之所以存在,是因为有数十亿人相信的故事。当前错误信息的流行表明,AI可以使用语言说服人们相信任何事情,甚至采取破坏性的行动。

专家和行业内部人士之间的意见混合在一起,最终的超级智能AI风险涉及和无关紧要。斯蒂芬·霍金(Stephen Hawking)比尔·盖茨(Bill Gates )和埃隆·马斯克(Elon Musk)等人物对AI的存在风险表示关注。在2010年代初期,专家认为,将来的风险太远,无法进行研究,或者从超级机器的角度来看,人类将很有价值。但是,在2016年之后,对当前和未来风险和可能的解决方案的研究成为了严重的研究领域。 AI先驱者包括Fei-Fei LiGeoffrey HintonYoshua BengioCynthia BreazealRana El KalioubyDemis HassabisJoy BuolamwiniSam Altman对AI风险表示关注。 2023年,许多领先的AI专家发表了联合声明:“减轻AI灭绝的风险应该是全球优先事项,以及其他社会规模的风险,例如Pandemics和Pandemics和核战争”。

然而,其他研究人员表示赞成反乌托邦的观点。 AI先驱Juergen Schmidhuber没有签署联合声明,强调在95%的情况下,AI研究是关于使“人类的生活更长,更健康,更容易”。虽然现在被用来改善生活的工具也可以由坏演员使用,但“也可以与坏演员使用。”安德鲁·恩格(Andrew Ng)还辩称:“落入AI的世界末日炒作是一个错误,而这样做的监管机构只会使既得利益受益。” Yann Lecun “嘲笑他的同龄人的反乌托邦场景,甚至是人类的灭绝。”

道德机器

友好的AI是从一开始就设计的机器,以最大程度地降低风险并做出使人类受益的选择。创建该术语的Eliezer Yudkowsky认为,发展友好的AI应该是更高的研究重点:它可能需要大量投资,并且必须在AI成为生存风险之前完成。

具有智能的机器有可能利用自己的智能做出道德决定。机器伦理领域为机器提供了解决道德困境的伦理原理和程序。机器伦理领域也称为计算道德,并于2005年在AAAI研讨会上建立。

其他方法包括Wendell Wallach的“人工道德代理人”和Stuart J. Russell三个开发可证明有益的机器的原则

构架

人工智能项目可以在设计,开发和实施AI系统时测试其道德允许性。一个AI框架,例如包含总和值的护理和ACT框架 - 由Alan Turing Institute在四个主要领域进行测试项目开发:

  • 尊重个人的尊严
  • 真诚,公开和包容的其他人联系
  • 关心每个人的福祉
  • 保护社会价值观,正义和公共利益

道德框架中的其他发展包括在Asilomar会议上决定的框架,蒙特利尔宣言的负责人AI以及IEEE对自治系统倡议的道德规范等;但是,没有他们的批评,这些原则并不能进行,尤其是对所选人的贡献。

促进这些技术影响的人民和社区的福祉需要考虑在AI系统设计,开发和实施的各个阶段的社会和道德含义,以及数据科学家,产品经理,数据工程师,域,域名等工作角色之间的协作专家和送货经理。

规定

AI Safety Summit
第一次全球AI安全峰会于2023年举行,宣布要求国际合作

人工智能的调节是制定公共部门的政策和法律,以促进和规范人工智能(AI);因此,它与更广泛的算法调节有关。 AI的监管和政策格局是全球司法管辖区的一个新兴问题。根据斯坦福大学的AI指数,在127个调查国家通过的AI相关法律的年度数量从2016年通过的一项法律跃升至2022年通过的37个。在2016年至2020年之间,有30多个国家采用了专门的AI策略。大多数欧盟成员国都发布了国家AI战略,以及加拿大,中国,印度,日本,毛里求斯,俄罗斯联邦,沙特阿拉伯,阿拉伯联合酋长国,美国和越南。其他人则正在阐述自己的AI战略,包括孟加拉国,马来西亚和突尼斯。全球人工智能伙伴关系于2020年6月启动,并指出需要根据人权和民主价值观开发AI,以确保公众对技术的信心和信任。亨利·基辛格(Henry Kissinger),埃里克·施密特(Eric Sc​​hmidt )和丹尼尔·赫特洛彻(Daniel Huttenlocher)于2021年11月发表了一份联合声明,呼吁政府委员会监管AI。 2023年,Openai领导人发布了有关超级智能治理的建议,他们认为这可能会在不到10年的时间内发生。 2023年,联合国还成立了一个咨询机构,以提供有关AI治理的建议;该机构包括技术公司的高管,政府官员和学者。

在2022年的IPSOS调查中,对AI的态度因国家而异。中国公民中有78%,但只有35%的美国人同意“使用AI的产品和服务比弊端更多的好处”。一项2023年的路透社/IPSOS民意调查发现,有61%的美国人同意AI对人类的风险不同意。在2023年的福克斯新闻民意调查中,有35%的美国人认为这“非常重要”,而联邦政府对AI进行监管的41%认为“有些重要”,而13%的反应“不是很重要”,而8%回应“一点也不重要”。

2023年11月,在英国的Bletchley Park举行了第一次全球AI安全峰会,讨论了AI的近距离风险以及强制性和自愿监管框架的可能性。包括美国,中国和欧盟在内的28个国家在峰会开始时发表了宣言,呼吁国际合作来管理人工智能的挑战和风险。

历史

机械或“正式”推理的研究始于古代哲学家和数学家。对逻辑的研究直接导致了艾伦·图灵(Alan Turing )的计算理论,该理论表明,通过像“ 0”和“ 1”一样简单的符号,可以模拟数学推理和正式推理,这被称为教堂, - 论文。这与控制论信息理论的同时发现,导致研究人员考虑了建立“电子大脑”的可能性。

艾伦·图灵(Alan Turing)至少早在1941年就在考虑机器智能时,当时他发行了有关机器智能的论文,这可能是AI领域最早的纸张 - 尽管现在已经丢失了。 1943年,第一个被公认为“ AI”的纸是McCullouchPitts设计,用于Turing-Complete “人工神经元”,这是神经网络的第一个数学模型。该论文受到图灵(Turing)早期的“可计算数字”论文的影响,从1936年开始使用类似的两态布尔语“神经元”,但是第一个将其应用于神经元功能的人。

艾伦·图灵(Alan Turing)在1954年去世后通常被称为“人工智能”。向公众介绍了他现在所谓的图灵测试的概念。然后按照图灵(Turing)的讲座,“智能机制,一个异端理论”,“数字计算机可以认为”,然后遵循了AI的三个无线电广播?小组讨论“可以自动计算计算机来思考”。到1956年,计算机智能在英国已经积极追求了十多年。最早的AI程序是在1951 - 1952年在那里编写的。

1951年,使用曼彻斯特大学Ferranti Mark 1计算机,编写了Checkers and Chess计划,您可以在这里对付计算机。美国AI研究领域是在1956年在达特茅斯学院一个研讨会上成立的。与会者成为1960年代AI研究的领导者。他们和他们的学生制作了媒体称为“惊人”的程序:计算机正在学习跳棋策略,在代数中解决单词问题,证明了逻辑定理和说英语。 1950年代和1960年代初的许多英国和美国大学建立了人工智能实验室。

但是,他们低估了问题的困难。美国和英国政府都因对詹姆斯·吉尔蒂尔爵士批评以及美国国会为资助更多生产力项目的批评而切断了探索性研究。明斯基佩珀特(Minsky's and Papert )的书的知名度被理解为证明人工神经网络永远不会对解决现实世界的任务有用,从而完全抹黑了该方法。紧随其后的是“ AI冬季”,在这一时期很难为AI项目获得资金。

在1980年代初期,专家系统的商业成功恢复了AI研究,这是AI计划的一种形式,该计划模拟了人类专家的知识和分析技能。到1985年,AI市场已达到超过十亿美元。同时,日本的第五代计算机项目启发了美国和英国政府恢复用于学术研究的资金。但是,从1987年LISP机器市场的崩溃开始,AI再次陷入了声音,第二个持久的冬天开始了。

许多研究人员开始怀疑当前的实践是否能够模仿人类认知的所有过程,尤其是感知,机器人技术,学习模式识别。许多研究人员开始研究“亚符号”方法。机器人研究人员,例如罗德尼·布鲁克斯(Rodney Brooks) ,一般拒绝了“代表”,并直接专注于移动和生存的工程机器。 Judea PearlLofti Zadeh和其他人开发了通过合理的猜测而不是精确的逻辑来处理不完整和不确定信息的方法。但是,最重要的发展是杰弗里·辛顿(Geoffrey Hinton )等人的“连接主义”的复兴,包括神经网络研究。 1990年, Yann Lecun成功地表明,卷积神经网络可以识别手写数字,这是神经网络的许多成功应用中的第一个。

AI通过利用正式的数学方法并找到特定问题的特定解决方案来逐渐恢复1990年代末和21世纪初的声誉。这种“狭窄”和“正式”重点使研究人员能够与其他领域(例如统计经济学数学)产生可验证的结果并合作。到2000年,AI研究人员开发的解决方案已被广泛使用,尽管在1990年代,很少被描述为“人工智能”。

几位学术研究人员开始担心AI不再追求创建多功能,完全智能机器的最初目标。从2002年左右开始,他们创立了人工通用情报(或“ AGI”)的子领域,该子场到2010年代拥有多个资金充足的机构。

深度学习在2012年开始主导行业基准,并在整个领域被采用。对于许多特定任务,其他方法被放弃了。深度学习的成功基于硬件改进(更快的计算机图形处理单元云计算)和访问大量数据(包括策划数据集,例如ImageNet )。

深度学习的成功导致了AI的兴趣和资金巨大的增长。在2015 - 2019年间,机器学习研究的数量增加了50%, WIPO报告说,就专利申请的数量和授予专利而言,AI是最多产的新兴技术。根据“ AI Impact”,仅2022年左右就在“ AI”上投资了约500亿美元,而大约20%的新美国计算机科学博士毕业生专门从事“ AI”。大约有800,000个“ AI”相关的美国职位空缺在2022年。大多数进步发生在美国,其公司,大学和研究实验室领先人工智能研究。

在2016年,在机器学习会议上,公平性和滥用技术的问题被弹射为中心舞台,出版物大大增加,资金获得了大量资金,许多研究人员在这些问题上重新调整了他们的职业。一致性问题成为一个严重的学术研究领域。

哲学

定义人工智能

艾伦·图灵(Alan Turing)在1950年写道:“我提议考虑机器可以认为'的问题吗?”他建议将问题从机器“思考”,到“机械是否有可能表现出智能行为的可能性”更改。他设计了图灵测试,该测试衡量了机器模拟人类对话的能力。由于我们只能观察机器的行为,因此是否实际上是“思考”或字面上的“思维”都无关紧要。图灵指出,我们无法确定有关他人的这些事情,但“通常都有一个每个人都认为的礼貌惯例”

罗素(Russell )和诺维格(Norvig)同意图灵(Turing)的观点,即必须根据“表演”而不是“思考”来定义AI。但是,对于测试将机器与进行比较至关重要。他们写道:“航空工程文本并没有将其领域的目标定义为制造'飞行的机器,就像鸽子一样,他们可以欺骗其他鸽子。 AI创始人John McCarthy同意,写道:“人工智能不是不是,根据定义,对人类智力的模拟”。

麦卡锡将情报定义为“实现世界目标能力的计算部分”。另一位AI创始人Marvin Minsky同样将其定义为“解决严重问题的能力”。这些定义从定义明确的解决方案方面的问题来查看智能,在这些问题上,问题的难度和程序的性能都是机器“智能”的直接衡量,也不需要其他哲学讨论,甚至可能是不可能的。

AI领域的主要从业者Google采用了另一个定义。该定义规定了系统将信息综合为智力表现的能力,类似于它在生物智能中定义的方式。

评估AI的方法

在其大多数历史中,没有建立的统一理论或范式指导AI研究。统计机器学习在2010年代的前所未有的成功使所有其他方法都黯然失色(以至于某些来源,尤其是在商业世界中,使用“人工智能”一词来表示“使用神经网络的机器学习”)。这种方法主要是亚符号柔软狭窄的(见下文)。批评者认为,这些问题可能必须由后代的AI研究人员重新审视。

符号AI及其极限

符号AI(或“ Gofai ”)模拟了人们在解决难题,表达法律推理和进行数学时使用的高级有意识的推理。他们在“智能”任务(例如代数或智商测试)方面非常成功。在1960年代,纽厄尔(Newell)和西蒙(Simon)提出了物理符号系统假设:“物理符号系统具有一般智能行动的必要和充分手段。”

但是,符号方法在人类轻松解决的许多任务上失败了,例如学习,认识对像或常识性推理。 Moravec的悖论是,AI的高级“智能”任务很容易,但是低级“本能”任务非常困难。哲学家休伯特·德雷福斯(Hubert Dreyfus)自1960年代以来就一直认为人类的专业知识取决于无意识的本能,而不是有意识的符号操纵,并且对情况有“感觉”,而不是明确的象征知识。尽管他的论点在第一次提出时被嘲笑和忽略,但最终,AI研究与他达成协议。

问题无法解决:次符号推理可以使人类直觉所犯的许多相同的难以理解的错误,例如算法偏见。诸如Noam Chomsky之类的批评家认为,仍然需要对符号AI进行持续研究以获得通用情报,部分原因是亚符号AI远离可解释的AI :很难或不可能理解为什么制定现代统计AI程序一个特定的决定。神经符号人工智能的新兴领域试图弥合两种方法。

整洁与Scruffy

“整洁”希望使用简单,优雅的原理(例如逻辑优化神经网络)来描述智能行为。 “ Scruffies”期望它必须解决大量无关问题。用理论上的严格捍卫他们的计划,主要依赖于增量测试以查看它们是否起作用。这个问题在1970年代和1980年代进行了积极讨论,但最终被视为无关紧要。现代AI都有两者的元素。

软计算

在许多重要问题上找到一个可证明的正确或最佳解决方案。软计算是一组技术,包括遗传算法模糊逻辑神经网络,它们耐受不重点,不确定性,部分真实和近似值。软计算是在1980年代后期引入的,而21世纪最成功的AI程序是通过神经网络进行软计算的示例。

狭窄与通用AI

AI研究人员是否直接追求人工通用情报和超级智能的目标或解决尽可能多的特定问题(狭窄的AI ),希望这些解决方案会间接导致该领域的长期目标。通用情报很难定义且难以衡量,现代AI通过专注于特定解决方案的特定问题获得了更可证实的成功。人工智能的实验子场专门研究该领域。

机器意识,知觉和思想

思想哲学不知道机器是否可以具有人类的思想意识精神状态。这个问题考虑了机器的内部经验,而不是其外部行为。主流AI研究认为这一问题无关紧要,因为它不会影响该领域的目标:建立可以使用智能解决问题的机器。罗素(Russell)和诺维格(Norvig)补充说:“这是使机器确切地意识到人类的其他项目的其他项目,这不是我们有能力接受的。”但是,这个问题已成为心理哲学的核心。它通常也是小说中人工智能中有关的核心问题。

意识

戴维·查尔默斯(David Chalmers)确定了理解思想的两个问题,他将意识的“硬”和“容易”问题命名为“艰难”和“容易”的问题。一个简单的问题是了解大脑过程如何制定计划和控制行为。一个棘手的问题是解释这种感觉或为什么根本应该感觉任何东西,假设我们是正确的,认为它确实确实感觉像某种东西(Dennett的意识幻想幻想表明这是一种幻想)。人类信息处理很容易解释,但是,人类的主观经验很难解释。例如,很容易想像一个有色人头的人,他学会了识别其视野中的哪些对像是红色的,但是尚不清楚该人知道红色的样子需要什么。

计算和功能主义

计算主义是思想哲学的立场,即人的思想是一种信息处理系统,而思考是一种计算形式。计算主义认为,思想与身体之间的关系与软件与硬件之间的关系相似或相同,因此可能是解决心理问题的解决方案。这种哲学立场的灵感来自于1960年代的AI研究人员和认知科学家的工作,最初是由哲学家杰里·福多尔(Jerry Fodor)和希拉里·普特南( Hilary Putnam)提出的。

哲学家约翰·塞尔(John Searle)将这一立场描述为“强大的AI ”:“具有正确输入和输出的适当编程的计算机将具有与人类有思想的完全相同的思想。”塞尔(Searle)用他的中国房间的论点反驳了这一断言,该论点试图表明,即使机器完美地模拟了人类的行为,仍然没有理由认为它也有头脑。

机器人权利

如果一台机器具有思想和主观的经验,那么它也可能具有感知力(感受的能力),如果这样,它也会受到影响;有人认为这可以使其享有某些权利。任何假设的机器人权利都将属于动物权利和人权的范围。这个问题已经在小说中考虑了几个世纪,现在正在考虑加利福尼亚的未来研究所。但是,批评者认为讨论为时过早。

未来

超智能和奇异性

超级智能是一种假设的推动力,它将拥有智慧,远远超过了最聪明,最有才华的人的思想。

如果对人工通用情报的研究产生了足够智能的软件,则可以重新编程和改进自身。改进的软件将更好地改善自身,从而导致IJ Good称为“智能爆炸”,而Vernor Vinge称为“奇异性”。

但是,技术不能无限期地改进指数,通常遵循S形曲线,当它们达到技术可以做到的物理极限时会放缓。

超人类主义

机器人设计师汉斯·摩拉维克(Hans Moravec) ,控制论者凯文·沃里克(Kevin Warwick )和发明家雷·库兹韦尔( Ray Kurzweil)预测,人类和机器将来会合并为比任何一种都更有能力和强大的机器人。这个被称为超人类主义的想法源于Aldous HuxleyRobert Ettinger

爱德华·弗雷德金(Edward Fredkin)认为,“人工智能是进化的下一阶段”,这是塞缪尔·巴特勒( Samuel Butler)的“在机器中的达尔文(Darwin )在1863年”的最初提出的想法,并在乔治·戴森(George Dyson)的同一个书中以同样的名字扩展了这一想法。 1998。

在小说中

Karelčapek在他的1921年戏剧《 RUR》中创造了“机器人”一词,这是“ Rossum's Universal Robots”的标题。

自上古以来,具有思想能力的人工生物作为讲故事的设备出现,并且在科幻小说中一直是一个持久的主题。

这些作品中的共同点始于玛丽·雪莱(Mary Shelley )的弗兰肯斯坦( Frankenstein) ,在那里,人类的创造成为对大师的威胁。其中包括亚瑟·C·克拉克(Arthur C. Clarke)和斯坦利·库布里克(Stanley Kubrick)的2001年:《太空漫游》 (均为1968年), Hal 9000 ,负责Discovery One Paceship的谋杀计算机以及Terminator (1984)和Matrix (1999年) )。相比之下,从地球静止不动的那天起,诸如戈尔特(Gort)等罕见的忠实机器人(1951)和《外星人的主教》(1986年)在流行文化中的突出程度较小。

艾萨克·阿西莫夫(Isaac Asimov)在许多书籍和故事中介绍了机器人技术的三种定律,最著名的是关于同名超级智能计算机的“多瓦克”系列。在对机器道德的讨论期间,经常提出阿西莫夫的法律;尽管几乎所有人工智能研究人员都通过流行文化熟悉Asimov的法律,但由于许多原因,他们通常认为该法律无用,其中之一就是他们的歧义。

几项作品使用人工智能迫使我们面对是什么使我们成为人类的基本问题,向我们展示了具有感受并因此受苦的人造生物。这出现在卡雷尔·坎佩克(Karelčapek)rur中,电影《人工智能》《前机械师》 ,以及小说《 android do android of trom of toeleder sheep》吗? ,菲利普·迪克( Philip K. Dick) 。迪克认为,通过人工智能创造的技术改变了我们对人类主观性的理解。

也可以看看