编者按:生成式人工智能确实是一个非常有潜力的工具,但我们需要暂时停止对它的炒作,静下来仔细审视它的缺陷和弊端,然后以一种谨慎的、经过深思熟虑的方式推出各类工具。本文来自编译,希望对您有所启发。
人工智能来了。它被过度炒作,且存在缺陷。我们对其理解不足,但它已经是我们生活的核心了,而且只会越来越扩大其影响范围。
人工智能可以为无人驾驶汽车研究提供支持,可以帮助在医学图像中发现原本看不见的疾病迹象,可以让你迅速得到一个问题的答案。这些只是人工智能触及我们生活的几种方式,还有很多方面。但别担心,超级智能算法不会抢走所有的工作,也不会消灭人类。
目前所有人工智能领域的繁荣,都是由机器学习领域的突破推动的。计算机经过“训练”后,可以根据实例执行任务,而不是依赖于人的编程。一种名为深度学习的技术,使这种方法更加强大。只要问问李世石(lee sedol)就知道了,他在复杂的围棋比赛中获得了 18 个国际冠军。而 2016 年,他被一个名为 alphago 的软件击败了。
有证据表明,人工智能可以让我们更快乐、更健康。但也有理由让我们对人工智能保持谨慎。不管是抄袭问题,还是扩大社会偏见的问题,都让我们认识到人工智能强化的未来不会自动变得更好。
1. 人工智能的开端
塑造人工智能的时刻
1956
达特茅斯夏季人工智能研究项目(dartmouth summer research project on artificial intelligence)为一个致力于“让软件像人类一样聪明”的新领域起了个名字。
1965
麻省理工学院的约瑟夫·魏岑鲍姆(joseph weizenbaum)创造了第一个聊天机器人 eliza,它以心理治疗师的身份出现。
1975
meta-dendral 是斯坦福大学开发的一个用于解释化学分析的程序。
1987
在工程师恩斯特·迪克曼斯(ernst dickmanns)领导的一个学术项目中,一辆装有两个摄像头和一堆电脑的奔驰货车,以超过 55 英里/小时的速度在德国一条高速公路上自动行驶了 20 公里。
1997
ibm 电脑“deep blue”击败国际象棋世界冠军加里·卡斯帕罗夫(garry kasparov)。
2004
五角大楼举办了 darpa 大挑战赛,这是一场在莫哈韦沙漠举行的机器人汽车比赛,促进了自动驾驶汽车产业的发展。
2012
深度学习这一小众领域的研究人员,通过展示深度学习可以使语音和图像识别更加准确,激发了企业对人工智能的新兴趣。
2016
alphago 击败了围棋世界冠军。
我们所知道的“人工智能”最初只是一个假期项目。达特茅斯大学教授约翰·麦卡锡(john mccarthy)在 1956 年夏天创造了这个词,当时他邀请了一个小组花几周时间思考如何让机器做一些事情,比如使用语言。
他对推动机器人达到人类的水平寄予厚望。“我们认为,如果一组经过精心挑选的科学家花一个夏天的时间一起研究,就可以取得重大进展。”麦卡锡及其共同组织者写道。
这些希望并没有实现,麦卡锡后来承认他当时过于乐观了。但这个研讨会帮助那些有着共同梦想的研究人员,整合成了一个公认的学术领域。
人工智能研究领域早期的工作通常集中在解决数学和逻辑中的抽象问题上。但没过多久,人工智能就开始在更多的人类任务上显示出希望。在 20 世纪 50 年代末,亚瑟·塞缪尔(arthur samuel)创建了学习下跳棋的程序。1962 年,其中一个程序在比赛中战胜了一位下棋高手。1967 年,一个名为 dendral 的程序证明,它可以复制化学家解释化学样品构成的质谱数据的方式。
随着人工智能领域的发展,制造更智能机器的不同策略也在发展。一些研究人员试图将人类知识提炼成代码,或为特定任务(如理解语言)制定规则。其他人则受到了人类和动物智力的启发,他们构建的系统可以随着时间的推移在一项任务上做得更好,也许是通过模拟进化或从示例数据中学习。随着计算机掌握了以前只能由人类完成的任务,这一领域取得了一个又一个里程碑。
深度学习是当前人工智能热潮的火箭燃料,是人工智能领域最古老思想之一的复兴。该技术涉及通过数学网络传递数据,而数学网络的灵感来自于被称为人工神经网络的脑细胞工作方式。当网络处理训练数据时,网络各部分之间的连接会进行调整,从而建立起解释未来数据的能力。
在达特茅斯研讨会之后不久,人工神经网络就成为了人工智能领域的一个既定理念。例如,1958 年的感知机 mark 1 学会了区分不同的几何形状,并被《纽约时报》称为“为阅读和变得更聪明而设计的计算机胚胎”。但 1969 年,麻省理工学院(mit)的马文·明斯基(marvin minsky)与人合著的一本颇具影响力的书指出,神经网络不可能变得非常强大,此后神经网络就失宠了。
然而,并不是所有人都被怀疑论者所说服了,一些研究人员在过去几十年里一直保持着对这种技术的研究。他们在 2012 年被证明是正确的,当时一系列实验表明,经过大量数据训练的神经网络可以赋予机器新的感知能力。使用传统的计算机芯片处理如此多的数据是很困难的,但显卡的使用导致了处理能力的爆炸式增长。
一个引人注目的结果是,多伦多大学的研究人员在一年一度的软件图像分类比赛中击败了对手。在另一项研究中,来自 ibm、微软和谷歌的研究人员合作发布的结果显示,深度学习也可以在语音识别的准确性上实现显著提升。科技公司开始疯狂招聘他们能找到的所有深度学习专家。值得注意的是,人工智能领域在过去经历了几次繁荣和萧条后(也就是“人工智能寒冬”),今天仍然有可能再次发生翻天覆地的变化。
2. 人工智能的现状
人工智能硬件的改进、机器学习培训课程的增长,以及开源机器学习项目加速了人工智能向其他行业的传播,从国家安全到商业支持和医疗。
alphabet 旗下的 deepmind 已将其人工智能用于解决各种问题:足球运动员的移动、古代文本的修复,甚至是控制核聚变的方法。2020 年,deepmind 表示,其 alphafold 人工智能可以预测蛋白质的结构,这是一个长期以来阻碍研究的问题。这被广泛认为是第一次用人工智能来回答真正的科学问题。alphafold 随后被用于研究 covid-19,而现在它正在帮助科学家研究被忽视的疾病。
与此同时,消费者可以期待看到更多带有人工智能功能的小工具和服务。尤其是谷歌和亚马逊(amazon),他们相信机器学习的改进将使他们的虚拟助手和智能音箱更加强大。例如,亚马逊的设备带有摄像头,可以观察用户和周围的世界。
人工智能在过去的二十年里已经取得了很大的进展,但还有很多工作要做。尽管人工智能领域最近成效显著,人们也对其不久的未来做出了疯狂的预测,但仍有许多事情是机器无法做到的,比如理解语言的细微差别、进行常识推理,以及仅从一两个例子中学习新技能。
只有掌握上述这些任务,人工智能软件才能接近人类的多面性、适应性和创造性智能——这一智能被称为通用人工智能,尽管它也可能永远都实现不了。深度学习的先驱之一、谷歌的杰夫·辛顿(geoff hinton)认为,要在这一重大挑战上取得进展,就需要重新思考人工智能领域的一些基础。
3. 生成式 ai 及其争议
有一种特殊类型的人工智能正成为头条新闻。生成式人工智能是一个包罗万象的术语,它可以将数字世界的碎片拼凑起来,做出一些新的东西,比如艺术作品、插图、图像、完整的代码,而且它不仅能通过图灵测试,还能通过 mba 考试的部分内容。
像 openai 的 chat-gpt 文本生成器和 stable diffusion 的文本-图像生成器这样的工具,通过吸纳令人难以置信的数据量,用神经网络分析模式来完成上述任务。chat-gpt 背后的自然语言系统已经浏览了整个互联网,以及数不清的书籍,让它可以回答问题,根据提示编写内容,并且为网站编写解释性文章以匹配搜索词。
当投资者垂涎的时候,作家、视觉艺术家和其他创作者自然会担心:聊天机器人很便宜(或者至少看起来很便宜),而人类则需要一份稳定的收入。如果你能让 dall-e 免费做一些东西,为什么还要花钱请插画师来制作图像呢?
内容制作者并不是唯一担心人工智能的人。谷歌正在悄悄加强其在人工智能方面的努力,以回应 openai 的成就。这家搜索巨头在担心,如果聊天机器人可以为我们回答问题,那么人们的搜索习惯会发生什么变化。遇事不再是 google 一下,而是chat-gpt 一下?
然而,挑战正在逼近。人工智能模型需要越来越多的数据来改进,但 openai 很难再找到大量的数据来源,而且即使找到,数据也可能不再免费。法律挑战也迫在眉睫:openai 正在训练其系统使用可能受凯发国际娱乐官的版权保护的文本和图像,这些文本和图像甚至可能是由那些因这项技术而面临失业风险的人创作的。随着越来越多的在线内容使用人工智能创建,它形成了一个反馈循环,在这个循环中,在线数据训练模型将不是由人类创建,而是由机器创建。
抛开数据不谈,这种语言模型有一个根本问题:它们输出的文本读起来足够好,但不一定准确。尽管这些模型很聪明,但它们不知道自己在说什么,也不知道什么是真理。在疯狂地利用这些工具开展新业务或创建内容的过程中,这一点很容易被遗忘。语言不仅仅是为了听起来好听,它们也要传达意思。
4. 人工智能的挑战和未来
人工智能的批评者非常之多,考虑到围绕这项技术的炒作,这是个好消息。对人工智能的批评涉及到可持续性、伦理、偏见、虚假信息甚至凯发国际娱乐官的版权等不同的问题,一些人认为这项技术并不像大多数人认为的那样强大,另一些人则预测它将成为人类的终结者。要考虑的东西还有很多。
首先,深度学习本身就需要大量的数据,尽管芯片的创新意味着我们可以比以往任何时候都更快、更有效地获取海量数据,但毫无疑问,人工智能研究需要大量的精力。一家初创公司估计,openai 在教一个系统用机械手解魔方的过程中,消耗了 2.8 千兆瓦时的电力,相当于三个核电站一小时的发电量。还有一些估计表明,训练一个人工智能模型排放的二氧化碳,相当于制造 5 辆美国汽车并驾驶和使用完它们的平均寿命。
有一些技术可以减少这种影响:研究人员正在开发更有效的训练技术,模型可以被分割,只运行必要的部分,数据中心和实验室正在转向更清洁的能源。人工智能的确在提高其他行业的效率,以及帮助解决气候危机方面也可以发挥作用。但提高人工智能的准确性通常意味着让更复杂的模型筛选更多的数据,据报道,openai 的 gpt2 模型有 15 亿个权重来评估数据,而 gpt3 有 1750 亿个权重,这表明人工智能的可持续性在变得越来越糟。
收集构建这些模型所需的数据带来了额外的挑战。偏见仍然是一个核心问题:数据集反映了我们周围的世界,这意味着模型吸收了种族主义、性别歧视和其他文化。这导致了一系列严重的问题:经过训练的人工智能更适合白人;用来预测再次犯罪的软件从一开始就认为黑人更有可能再犯;有缺陷的人工智能面部识别软件会错误地识别出黑人,导致他们被捕。有时人工智能根本不起作用:由于一个明显的代码错误,警方的一个暴力犯罪预测工具变得非常不准确。
同样,缓解措施也是能够被创造的。更具包容性的数据集可能有助于从源头上解决偏见问题,而迫使科技公司解释算法可能会增加一层问责制。将行业多元化,使之可以不仅是为白人服务。但最重要的是一点是,在有可能对人类造成风险的情况下,需要监管(甚至是禁止)使用人工智能决策。
虽然我们不希望看到这种情况,但人们也已经在把人工智能用于邪恶的目的了,比如制造深度假象和传播虚假信息。虽然人工智能编辑或人工智能生成的视频和图像有有趣的用例(比如在配音演员离开演出或去世后代替配音演员),但生成式人工智能也被用于制作深度伪造的色情片,或用于诽谤普通人。人工智能还被用来在网络上传播虚假信息,尽管事实核查人员已经开始转而利用人工智能技术进行反击这一行为。
随着人工智能系统变得越来越强大,它们将理所当然地招致更多审查。更强大的人工智能有可能造成更严重的问题,例如,延续对女性或黑人的历史偏见和刻板印象。民间社会团体,甚至科技行业本身,现在都在探索关于人工智能安全和道德的规则和指导方针。
但围绕生成式模型的炒作表明,在人工智能方面,我们仍然没有吸取多少教训。我们需要冷静下来,了解它是如何起作用的,以及什么时候不起作用,然后以一种谨慎的、经过深思熟虑的方式推出这一工具。人工智能确实有潜力改善我们的生活,甚至延长人类的寿命,但要真正受益于人工智能,我们需要在应用人工智能这件事上变得更聪明些。