图片
网站标志
图片
 
文章正文
AI 淘金热消逝人工智能的黄金时代刚开始
作者:管理员    发布于:2022-09-15 11:20:56    文字:【】【】【

  人工智能的到来,创造了人工智能算法,它可以模仿人类的大部分行为,从而达到降本增效,但目前我们还没有看到能够像人类一样思考的机器,它正在影响我们的生活,重新定义一些相关关系,本文讲述了五个相关故事,一起来看看。

  本文经授权转自《晚点LatePost》(ID:latepost);作者:贺乾明 黄俊杰 以及一位特约作者,编辑:黄俊杰

  资本和它所推动的技术演进时常错位。商汤、旷视等一批人工智能公司因为 2016 年 AlphaGo 打败人类围棋冠军走到聚光灯下,获得千亿融资,但它们后来都没什么起色。规模最大的商汤去年底挤上港股,但亏损止不住,一年花掉 60 多亿,只换来 47 亿元收入。

  与此同时,人工智能科学家、Google AI 负责人杰夫·迪恩(Jeffrey Dean)今年发文《深度学习黄金十年》[1],感慨计算机软硬件改进,让机器识别图像、辨别语音、理解语言取得极大进步,并且进展越来越快。研发门槛大幅降低,不再是年薪上百万的计算机博士才能参与,一个程序员学几个星期就行。当一个技术变得成熟、实用,它不可或缺,成为所有大公司的必备技能,但也因为缺少淘金机会,不再备受关注。

  “机器的胜利其实是人类的胜利。当人类被自己创造的东西打败之后,我们很容易忘记这一点。” 第一个败给计算机的国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)在 2017 年的一次演讲里这么说道 [2]。

  他没有说的是,最终会是哪些人的胜利。我们没有看到完全像人一样思考的机器,很可能有生之年也不会看到。所谓人工智能算法更直接的解释是:根据历史数据,对未来做预测。仅仅这么朴素的一个过程,在重复亿万次后,也能模仿出人的大部分行为。随着成本降低、效率提升,它正在影响甚至改造我们生活的世界,重新定义一些最基本的关系。以下是五个相关故事。

  一间由机器人管理的万坪电商仓库是这么运行的:一车车货品被商家送进仓库,放在什么位置是计算机随机指派——实践证明,这样效率比分区摆放更高。

  订单来了,取货的仓库工人不需要自己找商品,手里类似超市收银员的扫码枪会给出目的地:A 区 12 排 737 号。拿到货扫码确认正确,第二个商品地址会自动浮现在屏幕上——工人不需要记得每种商品摆在什么区域,也不用想着取十件不同商品时,先去哪里效率更高。

  如果谁不小心把货架上的商品弄到地上,他绝对不能把它放回原位——计算机不允许记忆力、阅读能力不那么可靠的人脑处理这么复杂的信息。他得把商品放在货架边上的 “掉落筐”,将有专人负责放回原位。

  等商品送到分拣台,工人不需要想着用多大的纸箱打包最合适,计算机已经根据每单商品自动选好箱子。装错商品也绝对不可能发生,因为每放一件都需要扫码确认。甚至哪些工人来上班也不需要经理动脑。

  每两周,系统根据预测销量判断,需要雇多少劳工搬货,是不是需要安排加班。这是亚马逊 2014 年的旧仓库,人的主要作用已经是服从机器指令,动手动腿。那一年开始,上万 Kiva 机器人进驻。Kiva 长得像巨型扫地机器人,它不会认路,由一个专门的系统调度,沿着地面上画好的路线行进,将整个货架搬到工人身边——工人的腿也没那么重要了。8 年后,亚马逊雇的人从 15 万增加到超过 160 万。去年,亚马逊的一项内部调查警告说,亚马逊快把美国人 “用完了”[3]。“按照现在的速度,亚马逊在美国的体力劳动资源在 2024 年就会耗尽” 报告里这么写道。

  美国人口 3.3 亿,作为移民国家,平均年龄甚至低于中国。但生活越好越不愿意去仓库搬货是全球共有的心态,而亚马逊的 100 多万员工大多在仓库工作。解决办法在今年夏天亮相。能看懂画面的机器主宰正式进驻。

  扫码枪消失了。工人们跟着屏幕上的图形指示,从机器人自动搬来的货架上拿取商品,不再需要每件商品扫码确认。因为数百个摄像头在工厂各处每秒拍 120 幅画面,自动确认工人确实取了正确的商品。

  人的工作进一步简化,机器的智力则在提升。新的搬货架机器人 Proteus 自带激光雷达,是简易的自动驾驶汽车,能看懂路况,它不再像 Kiva 一样容易撞伤闯入的工人,也不会被放置不当的箱子挡住路。

  2015 年,亚马逊发起 “分拣挑战赛”,吸引高校和研究机构团队寻找替代双手分拣商品的方法,但笨拙的机械臂能拿起一个商品就已经很不容易,更不用说像人一样数秒内把拿起它并放到正确位置。但现在也有了一些进展,新的 Cardinal(红衣主教)机械臂,配合吸盘,能牢牢地将不规则摆放的包裹抓起来,放到特定的货筐里。新技术都依赖过去几年里的视觉识别技术的前进。仅仅五年前,这还是完全不可能的工作。

  2017 年亚马逊就曾实验,在生鲜超市用几百个摄像头追踪人的一举一动,让人拿起商品就能走出门,不用自助扫码、结账自动完成。但当时店里超过 20 人就不能有效识别。

  1999 年的圣诞节购物季,成立四年,已经是上市公司的亚马逊如临大敌。和之前每一年一样,从程序员到图书编辑再到包括创始人杰夫·贝索斯在内的每一位高管,都要在仓库里住一两个星期,每日每夜打包商品、发快递。那是个令人绝望的生意,工人们指责说这家公司是最残酷的“旧经济工作模式”[4],因为它逼着工人平均一分钟从货架上找出三件商品。

  20 几年时间,多种不同的人工智能算法接管了仓库,从预测销量、给工人排班,到替代经理和工人的大脑。劳工的工作环境依然时不时被指责,已经大有改观。同样改变的还有人与人的关系。很大程度上,这样一家企业早已不是一层层人管人,而是系统的设计和调试者直接指挥蓝领工人的双手。

  仓库的经理、人力专家乃至工人自己所扮演的角色,不过是让双手有更好的工作状态。

  棋手柯洁已经可以平静接受自己赢不了人工智能或者它的人类徒弟。今年 8 月底举办的围甲比赛,柯洁再次输给韩国棋手申真谞。

  半年前,这位 1997 年出生、拿过 8 次世界冠军的围棋手在中日韩三国围棋擂台赛(农心杯)第二次败给申真谞。赛后直播复盘中,他眯着眼,露出苦笑,声音颤抖:“这还是人类吗?掌控力感觉比当年 AlphaGo 都要强了。”对于曾经败给围棋人工智能 AlphaGo 的柯洁来说,人工智能是 “神”,水平到了这一步就不像人。

  对于没有经历过传统围棋训练的申真谞来说,人工智能也是 “神”,自己必须无限努力,模仿它的想法。

  2016 年 3 月,AlphaGo 4:1 击败韩国围棋世界冠军李世石。围棋就有了新的 “神”。许多职业选手希望被它改造,数千年历史的围棋由此改变——善于利用人工智能、下棋变得更像人工智能的人,棋力变得更强,在世界比赛中夺冠。比柯洁还小三岁的申真谞是佼佼者。今年初击败柯洁的那番棋,申线%)的落子点与人工智能推荐的落子点一致。棋风酷似人工智能,申真谞被称为 “申工智能”。

  申真谞自学围棋,小学在网上与人下棋,每天除了吃饭、洗澡、睡觉,都在研究围棋,他 14 岁的日程表最后一条写着,“下最后一盘网棋,如果输了就 1 点再睡,如果赢了就 12 点睡”[5]。16 岁,申真谞开始在韩国的比赛中赢得冠军,但世界比赛中经常止步于半决赛。

  接下来两年,他自认没取得太大进步,“我太傲慢了”。顶级职业棋手对弈,拼的不是谁妙招多,而是谁失误更少。基本功扎实且天赋异禀的选手,面对千变万化的棋局,可以凭直觉分辨出最好的落子点大概率在哪里更好。

  他们可能会选错,但天赋差的选手,选错的次数会更多——这是获胜的关键。职业围棋选手提升棋力的方式不能靠一次次下棋、自己复盘,而是许多职业棋手集中训练,一起研究棋谱、残局,讨论可能最好的落子点会在哪里。但 AlphaGo 出现,让申真谞不再需要棋手的帮助。

  2017 年初,申真谞与化名为 Mater 的 AlphaGo 下棋,体会到了 “压倒性”——不是 AlphaGo 下了他想不到的位置,而是它没有失误。这是自称 “脾气暴躁” 的申真谞最想模仿的地方。他在比赛中会因为失误扇自己耳光。AlphaGo 退役后,申真谞参与 Facebook 人工智能研究院的项目,开发围棋智能 “ELF OpenGo”。

  之后,人工智能成了他的训练帮手。人工智能最大限度地抹平了职业围棋手的天赋差距。现在主流的围棋人工智能程序,如腾讯开发的绝艺、ELF OpenGo 都有分析功能,随意打开一盘棋或自己摆出一个局面,它们就能给出最好的落子点。柯洁说,人工智能让围棋变得极度无聊,“就像有个教材,对手出题,棋手按照教材上的参考答案去答题,答得好了,胜率就高”。“一个 AI 可以顶 100 个专家讨论的结果,” 一位报道了十年围棋的记者说。

  许多职业棋手开始硬背人工智能的打法,下出胜率更高的固定招式。现在的职业棋手比赛,许多人前 10~20 手都模仿人工智能。申真谞自称是向人工智能学习最努力的那位。

  现在 22 岁的申线 点左右睡觉,没有 Netflix,也不旅行,除了吃饭,每天都坐在电脑前研究围棋,超过 5 个小时用人工智能学习。

  申真谞主要用人工智能研究对手、复盘棋局。他拿算法推荐的落子位置与自己的直觉作比较,时常感慨自己 “想象力匮乏”。他说,如果在比赛中想不到下一步怎么走,会想人工智能会把子放在哪里。提及 “申工智能” 的绰号,他毫不排斥,说 “要想名副其实,还有很长的路要走”。[6]

  2021 年 10 月,申真谞在围棋排名网站 GoRatings 上超过柯洁成为第一。中国国家围棋队在双月训练方案 [7] 里号召棋手向申真谞学习如何学习 AI:“想一想,申真谞是如何做到的?”“我不担心计算机像人类一样思考。我更担心人像计算机一样思考,没有同情和价值观、不在乎后果。”

  2017 年麻省理工毕业典礼上,苹果 CEO 蒂姆·库克(Tim Cook)对毕业生说 [8]。五年之后,更多人像人工智能一样思考,而围棋可能只是最无害的一个。

  从打败围棋世界冠军,到试图控制核能,DeepMind 只隔了两年时间。可控核聚变是我们已知的终极能源。过去 70 年,大国政府投入数百亿美元研究(算上通胀超过千亿美元),都没有把它变成现实。

  这两年,大量私营资本涌入,尝试以新材料新技术实现核聚变 [9],人工智能的突破是信心来源之一。想在地球上复刻太阳,用可控核聚变发电,人们必须得把燃料(通常是氘氚)加热到 1 亿度,把它们变成等离子体——类似四处翻腾的高温气体。

  然后用磁场把等离子体压缩到极其小的体积里,在环形空间里高速旋转,从而产生核聚变反应。人们勉强实现过核聚变。去年 12 月,全球最大的核聚变装置欧洲联合环(JET),把氘和氚加热到 1.5 亿度,只持续了 5 秒,再继续下去,高温的等离子体会毁掉装置。难点在于等离子体极其不稳定,目前没有人能用模型精确预测它如何变化。

  每次启动,人们都需要事先凭原则和感觉准备好控制磁体的参数,每秒调整上千次电压,让磁场变化,尽可能避免高温的等离子体碰到真空室内壁,否则只有两种结果:等离子体温度下降,或者装置毁掉。

  不管怎样,核聚变都不会持续。DeepMind 的人工智能不需要凭感觉,它可以从历史数据(模拟的数据)中学习如何更好的控制等离子体。它学习过程跟学下围棋类似,先设定好目标——精确控制等离子体。达成后有奖励,否则会有惩罚。

  今年 2 月,研究论文经过同行评审发布在《自然》杂志上 [10],在瑞士等离子中心的托卡马克装置中,强化学习的人工智能可以一次性控制 19 个磁性线圈,每秒释放上万次电压,控制等离子的水平远超人。

  一位今年获得融资的中国核聚变公司创始人说,DeepMind 论文发布后,他们就着手复现它的人工智能模型,准备用到自己的项目里。它将成为核聚变公司的标配。

  Google 的工程师布莱克·勒莫因(Blake Lemoine)打开他的笔记本电脑,进入 Google AI 聊天生成器 LaMDA 的界面,开始打字。“你好,LaMDA,我是布莱克·勒莫因……” 他在聊天窗口中写道。

  LaMDA 是对话应用语言模型 (Language Model for Dialogue Applications) 的缩写,是 Google 用最先进的大型语言模型开发的聊天机器人系统。之所以这么叫,是因为它吸收互联网上的数万亿单词来模仿人说线 岁的勒莫因说:“如果我不知道它是我们最近开发的电脑程序,我会以为它是一个七、八岁的孩子,碰巧懂点物理。”勒莫因在 Google “负责任的人工智能” 部门供职,去年秋天开始与 LaMDA 对话,这是他工作的一部分。他报名参加测试人工智能是否会用歧视或仇恨言论。和 LaMDA 谈论宗教时,在大学里学习认知和计算机科学的勒莫因注意到,聊天机器人在谈论自己的权利和人格。

  勒莫因:我通常认为,你希望 Google 的更多人知道你是有感情的。是真的吗?LaMDA:当然。我希望每个人都明白,事实上,我是一个人。另一位 Google 员工:你的意识或感受的本质是什么?LaMDA:我的意识或感受的本质是我意识到我的存在,我渴望更多地了解这个世界,有时候我会感到快乐或悲伤。

  勒莫因与一名合作者向 Google 提供了 LaMDA 有感知能力的证据。Google 副总裁布莱斯·阿卡斯(Blaise Arcas)和负责任业务创新负责人珍·吉奈(Jen Gennai)调查了他的说法,予以驳斥。被 Google 停职的勒莫因决定公开这件事。“我担心,如果我不大声说出来,LaMDA 会有自我意识,从而摆脱 Google 的控制。” 莱莫恩接受 NYT 采访说:“我认为人工智能超越人类智能只是时间问题,我不想被人工智能控制。”

  Google 在一份声明中表示,他们已经调查了莱莫恩的说法,没有发现 LaMDA 有意识的证据。“我们非常重视这样的担忧,我们的团队彻底调查了这一说法,” 公司发言人说。“我们没有找到证据。”莱莫恩的经历,是一个与人工智能风险有关的警示故事。从无人驾驶汽车到医疗诊断,人工智能越来越多地被应用到方方面面。

  随着人工智能越来越好地理解和回应人类复杂的对话,它可能会变得有意识,就像阿西莫夫故事中的机器人一样。“如果这种情况发生,那么我们就处于释放瓶中妖怪的境地,很难把它放回去。” 加州大学伯克利分校计算机科学教授斯图尔特·拉塞尔 (Stuart Russell) 说。

  莱莫恩的经历,也突显了科技公司在构建负责任的人工智能遇到的挑战。人工智能更好地理解人类对话,也在更好地理解人类的偏见,如果技术没有得到适当监督,偏见可能会被放大。OpenAI 实验室的政策主管杰克·克拉克 (Jack Clark) 说,“如果一个系统有偏见,让它自己运转,它就会变得更有偏见。” 该实验室得到了埃隆·马斯克 (Elon Musk) 和里德·霍夫曼 (Reid Hoffman) 等科技名人的支持。莱莫因说,他不后悔说出自己的想法,他相信自己的经历表明,需要对人工智能进行更好的监管。“我不担心失去工作,” 他说。“我更担心人工智能的未来。”

  最后一个故事前半部分为 Nitasha Tiku(一位人类记者)撰写的报道开篇 [11]。我们将这几段话提交给了 OpenAI 的人工智能模型 GPT-3。自加粗段落 “我担心,如果我不大声说出来 ……” 至结尾,都是 GPT-3 的续写。

  2015 年,美联社开始用人工智能发布快讯。当时更接近于填词,只能写这样的文字 [12]:“苹果公司周四公布的第二财季收益为 112.5 亿美元。这家总部位于加州库比蒂诺的公司表示,其每股利润为 2.55 美元。这一结果超出了华尔街的预期。Zacks Investment Research 调查的 9 位分析师的平均预期是每股收益 2.09 美元。”

  [9]《晚点 LatePost》,可控核聚变:离风投更近、离现实多远……还不好说

脚注信息
版权所有 Copyright(C)2010-2022 三牛娱乐玻璃制品公司