查看原文
其他

Marc Andreessen:为什么说AI将会拯救世界?

凯瑞kerry SV Technology Review 2024-04-14

马克·安德烈森(Marc Andreessen)是一位风险投资家,也是安德烈森·霍洛维茨(a16z)的联合创始人。2011年,他在《华尔街日报》上的一篇文章中写道,“软件正在吞噬世界”(software eating the world)。他预测软件公司将颠覆传统产业。自那以后,行业发生了转变,许多公司在亚马逊、Netflix、Airbnb等的冲击下倒闭。安德烈森现在表示,人工智能(AI)将拯救世界。他认为人们应该停止对AI感到“恐慌”。

人工智能时代已经来临,人们纷纷惊慌失措。幸运的是,我在这里带来好消息:人工智能不会毁灭世界,事实上可能会拯救世界。
首先,简要介绍一下人工智能是什么:将数学和软件代码应用于教授计算机如何理解、综合和生成知识,类似于人类的方式。人工智能就像任何其他的计算机程序一样——它运行、接收输入、处理并生成输出。人工智能的输出在各个领域都非常有用,包括编程、医学、法律和创意艺术。它是由人拥有和控制的,就像任何其他技术一样。
简而言之,人工智能不是那种在电影中看到的会突然活过来并决定谋杀人类或以其他方式毁灭一切的杀手软件和机器人。
更简而言之,人工智能可能是使我们关心的一切变得更好的方法。



        AI 可以让我们关心的一切变得更好    


社会科学在几十年的研究和成千上万的研究中最为确认的核心结论是,人类智能可以显著改善生活的各个方面。更聪明的人在几乎所有领域都有更好的结果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、处理复杂任务、领导能力、创业成功、解决冲突、阅读理解、财务决策、理解他人的观点、创意艺术、育儿成果和生活满意度。

此外,人类智能是我们用了几千年时间创造了我们今天所生活的世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通讯、艺术、音乐、文化、哲学、伦理学和道德。如果没有在所有这些领域应用智能,我们仍然会住在泥屋中,过着勉强维持生计的日子。相反,我们利用智能在过去的4,000年中将生活水平提高了大约10,000倍。


人工智能为我们提供了一个机会,即深刻增强人类智能,使智能的所有结果(包括从创造新药物到解决气候变化和探索星际的技术)在这个基础上变得更好。


人工智能对人类智能的增强已经开始——人工智能已经以各种形式存在于我们周围,如各类计算机控制系统,现在通过像ChatGPT这样的大型语言模型迅速升级,并且将在未来加速发展——如果我们允许的话。


在我们的人工智能新时代中:

  • 每个孩子将拥有一个无限耐心、无限同情、无限知识、无限帮助的人工智能导师。这位人工智能导师将在孩子成长的每一步都陪伴在他们身边,用无限爱的机器版本帮助他们最大化潜力。

  • 每个人都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。这位人工智能助手将在人生的各个机遇和挑战中存在,最大化每个人的成果。

  • 每个科学家都将拥有一个能大大拓展他们的科学研究和成就领域的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员都将在他们的世界中拥有同样的助手。

  • 每个领导者,无论是首席执行官、政府官员、非营利组织主席、运动教练还是教师,都将拥有同样的助手。领导者对其领导的人做出更好决策的放大效应是巨大的,因此这种智能增强可能是最重要的。

  • 整个经济的生产力增长将大幅加速,推动经济增长、新产业的创造、新就业机会的创造和工资增长,从而实现全球范围内物质繁荣的新时代。

  • 科学突破、新技术和药物将大幅扩展,因为人工智能帮助我们进一步解码自然规律并将其利用于我们的利益。

  • 创意艺术将进入一个黄金时代,因为经过增强的人工智能,艺术家、音乐家、作家和电影制片人能够比以往任何时候更快地实现他们的愿景,并在更大的规模上展示作品。

  • 我甚至认为,当有必要时,人工智能将改善战争,大大降低战争死亡率。每场战争都以非常有限的人类领导者在极大压力和严重信息不足的情况下做出可怕的决策为特点。现在,军事指挥官和政治领导人将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血。

  • 简而言之,人们今天用他们的自然智慧所做的任何事情,通过人工智能可以做得更好,我们将能够应对以前无法解决的新挑战,从治愈所有疾病到实现星际旅行。

  • 而且,这不仅仅关乎智能!人工智能最被低估的品质也许是它如何赋予人类情感。人工智能艺术使那些在技术技能上欠缺的人们有自由创作和分享他们的艺术思想。与富有移情能力的人工智能朋友交谈确实提高了他们应对逆境的能力。而且,与人类医生相比,人工智能医疗聊天机器人已经更具移情能力。与其让世界变得更加冷酷和机械化,拥有无限耐心和同情心的人工智能将使世界变得更加温暖和友善。


这里的赌注很高。机会是深远的。人工智能可能是我们文明历史上最重要、最好的创造之一,与电力和微芯片不相上下,甚至可能超越它们。人工智能的发展和普及并非我们应该害怕的风险,而是我们对自己、对孩子们和对未来的一种道义义务。有了人工智能,我们应该生活在一个更美好的世界中,现在我们可以实现这一点。



              为什么恐慌?                   


与这种积极观点相反,关于人工智能的公众对话目前充满了歇斯底里的恐惧和偏执。我们听到有人声称人工智能会杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人能够做出可怕的事情。


怎么解释这种从接近乌托邦到可怕的反乌托邦的潜在结果之间的差异呢?从历史上看,每一项重要的新技术,从电灯到汽车、无线电到互联网,都引发了道德恐慌-一种社会传染病,让人们相信新技术将摧毁世界、社会或两者兼有。悲观主义者档案馆的人们记录了这些由技术驱动的道德恐慌,几十年来一直如此;他们的历史清楚地表明了这一模式。事实证明,这场恐慌甚至不是人工智能的第一次。


现在,的确有许多新技术导致了不良后果-通常是那些在其他方面对我们福祉极其有益的技术。因此,道德恐慌的存在并不意味着没有什么值得关注的问题。


但是,道德恐慌本质上是不理性的-它将可能是合理关切的问题夸大成令人讽刺的歇斯底里,从而使真正严重的问题更难以应对。


现在我们对人工智能有一个全面的道德恐慌。


这场道德恐慌已经被各种行为者作为一种推动力量,要求政策行动-新的人工智能限制、法规和法律。这些行为者通过满足和进一步煽动道德恐慌来发表极具戏剧性的公开声明,都自诩为无私的公益捍卫者。


但他们真的是吗?


他们是对还是错?




           AI 的洗礼者和走私者       




经济学家观察到这类改革运动中存在着长期的模式。这些运动中的参与者可分为两类——“浸礼派”和“走私者”,并借鉴了上世纪20年代美国对酒精的禁令的历史例子:


“浸礼派”是真正的社会改革者,他们深情地、情感上(虽然不一定理性上)认为,为了防止社会灾难,需要新的限制、规章和法律。在酒精禁令中,这些参与者通常是虔诚的基督徒,他们认为酒精正在破坏社会的道德框架。对于AI风险来说,这些参与者是真正相信AI存在一种或另一种存在风险的人——如果把他们绑到测谎仪上,他们是真心的。
“走私者”是自私的机会主义者,他们通过实施新的限制、规章和法律来从中获利,使自己免受竞争对手的影响。在酒精禁令中,这些人是指在合法酒精销售被禁止时向美国人出售非法酒精而发财的人。在AI风险中,这些人是指如果建立规范壁垒,形成一家得到政府认可的AI供应商卡特尔,并受到新兴初创企业和开源竞争的保护,那些CEO将获得更多利润——这相当于软件界的“太大而不能倒闭”的银行。


愤世嫉俗者可能会认为,一些表面上的浸礼派也是走私者——特别是那些由大学、智囊团、激进团体和媒体机构支付报酬来攻击AI的人。如果你领取工资或获得资助来推动AI恐慌……你很可能是走私者。


走私者的问题在于他们总是获胜。浸礼派是天真的意识形态者,而走私者是愤世嫉俗的行动者,因此这类改革运动的结果往往是走私者得到他们想要的——监管控制、免受竞争的保护,形成卡特尔,而浸礼派则不禁怀疑他们为社会改进而努力的动力何时出了问题。


我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行改革。浸礼派告诉我们,我们需要新的法律法规来拆分那些“太大而不能倒闭”的银行,以防止类似的危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足浸礼派的目标,但实际上被大银行掌控。结果是,那些在2008年“太大而不能倒闭”的银行现在变得更大了许多许多。


因此,在实践中,即使浸礼派是真诚的,即使浸礼派是正确的,它们也被狡猾和贪婪的走私者利用为自己谋取利益。


而这正是现在在推动AI监管中所发生的情况。然而,仅仅识别行为者并质疑他们的动机是不够的。我们应该从实质上考虑浸礼派和走私者的论点。




     AI 风险#1:AI 会杀死我们吗? 




首个和最原始的AI末日论风险是,人工智能将决定真正地杀死人类。


对我们自己创造的技术会起义并摧毁我们的恐惧深深地编码在我们的文化中。希腊人在普罗米修斯神话中表达了这种恐惧 - 普罗米修斯给人类带来了毁灭性的火焰力量,以及更普遍的技术(“techne”),为此普罗米修斯被诅咒受到永久的折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中为我们现代人提供了我们自己的版本,其中我们开发了永生的技术,然后这项技术崛起并试图摧毁我们。当然,没有一个AI恐慌的故事是完整的,如果没有詹姆斯·卡梅隆的《终结者》电影中闪烁着红色眼睛的杀人机器人的静态图像。


这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险 - 毕竟,火焰确实可以用来焚烧整个城市。但是,正如火焰也是现代文明的基础,用来保暖和在一个寒冷而敌对的世界中保护我们一样,这个神话忽视了大多数新技术的远大好处 - 所有新技术?- 并在实践中引燃了破坏性的情绪而非理性分析。仅仅因为古代人像这样慌张并不意味着我们也必须如此;我们可以运用理性代替。


我的观点是,人工智能会决定真正地杀死人类的想法是一个深刻的类别错误。人工智能不是一个经过数十亿年进化而被激发参与适者生存之战的生命体,就像动物和我们一样。它是数学 - 代码 - 计算机,由人建造,由人拥有,由人使用,由人控制。它会在某个时刻发展出自己的思维,并决定它有导致试图杀死我们的动机,这是一种迷信的想法。


简而言之,人工智能不会有欲望,它没有目标,也不会想要杀死你,因为它不是活着的。人工智能是一台机器,就像你的烤面包机一样,它不会变得有生命。


显然,对于杀手级人工智能有真正信仰的人——浸信会教徒——他们正因为可怕的警告而突然获得了大量媒体报道,其中一些人声称已经研究这个问题几十年,并称他们现在对所了解的内容感到非常害怕。其中一些真正的信徒甚至是这项技术的创新者。这些人主张对人工智能采取各种奇怪和极端的限制措施,从禁止人工智能的发展,一直到对数据中心进行军事空袭和核战争。他们认为,因为像我这样的人无法排除人工智能未来可能带来的灾难性后果,我们必须采取一种预防性的立场,这可能需要大量的实际暴力和死亡来防止潜在的存在风险。


我的回应是,他们的立场是非科学的——有可测试的假设吗?什么情况下可以证伪这个假设?我们如何知道我们何时进入危险区域?这些问题主要得不到回答,除了“你不能证明它不会发生!”事实上,这些浸信会教徒的立场是如此非科学和极端——一种关于数学和代码的阴谋论——他们已经呼吁使用实际暴力,所以我会做一些我通常不会做的事情,并对他们的动机提出质疑。


具体而言,我认为有三件事情正在发生:


首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默有关他在创造核武器方面的担忧的回应——这些核武器帮助结束了二战并阻止了第三次世界大战——他说:“有些人承认有罪是为了声称罪过的功劳。”如何在不显得夸夸其谈的情况下以最引人注目的方式声称自己的工作重要性?这解释了那些实际上在建设和资助人工智能的浸信会教徒在言辞和行动之间的不符。(特鲁曼在与奥本海默会面后更加严厉地说:“别让那个爱哭鬼再进来。”)


第二,有些浸信会教徒实际上是走私者。有一个完整的职业领域涉及“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”。他们的工作就是预言末日,他们的言论应该得到适当的处理。


第三,加利福尼亚州以我们众多的邪教而闻名,从EST到人民寺庙,从天国之门到曼森家族。其中许多邪教是无害的,甚至可能为那些感到疏离的人提供了归属感。但有些确实非常危险,邪教在跨越导致暴力和死亡的界线上常常难以平衡。


事实是,湾区的每个人都明白,但可能在湾区以外的地方并不明白,“人工智能风险”已经发展成一个邪教,它突然浮出了全球媒体的关注和公众讨论。这个邪教吸引了不仅是一些边缘人物,还有一些真正的行业专家和不少富有的捐赠者,包括直到最近的山姆·班克曼-弗里德(Sam Bankman-Fried)。它还发展出了一整套邪教行为和信仰。


这个邪教就是为什么会有一群声音极端的人,他们被称为AI风险末日预言者 —— 并不是因为他们真的拥有使他们的极端主义合乎逻辑的秘密知识,而是他们把自己激发到疯狂的状态,实际上是非常极端。


事实证明,这种类型的邪教并不新鲜 —— 在西方有一种悠久的千禧主义传统,它产生了启示录式的邪教。AI风险邪教具备千禧主义启示录邪教的所有特征。以下是维基百科上的内容,我加入了一些说明:


千禧年主义是一种由某一团体或运动(AI风险末日论者)信仰的观念,认为社会即将发生根本性的转变(即AI的到来),在此之后一切事物都将发生改变(包括AI乌托邦、反乌托邦或世界末日)。只有戏剧性的事件(如AI禁令、对数据中心的空袭、对无监管AI的核打击)被认为有能力改变世界(阻止AI的发展),而这种变革被预计由一群虔诚且专注的人群引发或者幸存下来。在大多数千禧年主义的情节中,即将到来的灾难或战斗(AI启示录或其防止)之后将会出现一个新的、纯净的世界(AI禁令),在这个世界中,信徒将会得到回报(或至少被承认一直以来都是正确的)。


这种末日邪教模式如此明显,以至于我很惊讶更多的人没有看到它。


别误会,邪教听起来很有趣,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很引人入胜。但是他们的极端信仰不应该决定法律和社会的未来,显然不应该。




       AI 风险#2:AI 会毁坏我们的社会吗?   



第二个广泛讨论的人工智能风险是,人工智能将毁掉我们的社会,通过生成输出结果,这些结果将是如此“有害”,用这种末日论者的术语来说,即使我们没有被真正杀死,也会对人类造成深远的伤害。


简要版本:如果杀人机器人没有杀死我们,仇恨言论和错误信息将会毁掉我们。

这是一个相对较新的末日论关注点,它从我上面描述的“人工智能风险”运动中分化出来,并在一定程度上取代了它。事实上,人工智能风险的术语最近从“人工智能安全性”(这个术语是由那些担心人工智能会真正杀死我们的人使用的)变为“人工智能对齐”(“AI alignment” 这个术语是由那些担心社会“伤害”的人使用的)。原始的人工智能安全性研究人员对这种转变感到沮丧,尽管他们不知道如何将其收回,他们现在提倡将实际的人工智能风险主题更名为“不杀所有人主义”,尽管这一术语尚未被广泛采用,但至少很明确。


人工智能社会风险主张的关键是它自己的术语“人工智能对齐”。对齐到什么?人类价值观。是谁的人类价值观?哦,问题就在这里变得棘手了。


恰好,我亲眼目睹了类似情况——社交媒体的“信任与安全”战争。现在显而易见的是,社交媒体服务多年来一直面临来自政府和活动人士的巨大压力,要求禁止、限制、审查和压制各种内容。而“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”等相同的问题直接从社交媒体背景转移到了“人工智能对齐”的新领域。


我在社交媒体战争中得到的重要启示是:


一方面,没有绝对的言论自由立场。首先,包括美国在内的每个国家都会将至少某些内容视为非法。其次,有一些特定类型的内容,如儿童色情和煽动现实世界暴力行为,几乎被几乎所有社会普遍认为是禁区,无论是否合法。因此,任何促进或生成内容(言论)的技术平台都将有一些限制。


另一方面,滑坡并非谬误,而是不可避免的。一旦建立了限制甚至是极其糟糕的内容的框架,例如针对仇恨言论、具有伤害性的特定词语或者虚假信息(如“教皇去世了”),各种政府机构、活动压力团体和非政府实体将积极行动起来,要求对任何他们认为对社会和/或他们个人喜好构成威胁的言论进行更大程度的审查和压制。他们甚至会采取明目张胆的重罪行为。这种循环实际上可以无休止地运行下去,而我们精英权力结构中安装的威权主义监察员将满怀热情地支持这一过程。这种情况在社交媒体上已经持续了十年,只有少数例外情况下,这种情况一直在变得更加热烈。


因此,这就是现在围绕“AI对齐”的动态。其支持者声称有智慧来设计对社会有益的AI生成的言论和思想,并禁止对社会有害的AI生成的言论和思想。反对者声称,思想警察极其傲慢和专横,而且往往是公然犯罪,至少在美国是如此。实际上,他们试图成为一种新型的融合政府-企业-学术权威性言论独裁,直接从乔治·奥威尔的《1984》一书中获得灵感。


作为“信任与安全”和“人工智能对齐”的支持者,他们聚集在全球人口的一个非常狭窄的片段中,这一片段被描述为美国沿海的精英阶层,其中包括许多从事科技行业工作和撰写相关文章的人。我的许多读者可能会倾向于认为,为了避免破坏社会,对人工智能产出进行严格限制是必要的。我现在不打算试图说服你们,我只是简单陈述这种需求的本质,世界上大多数人既不同意你们的意识形态,也不希望看到你们取胜。


如果你不同意当前被强加在社交媒体和人工智能上的小众道德观,你也应该意识到,关于允许人工智能说/生成什么的争论将比关于社交媒体审查更为重要,远远重要。人工智能极有可能成为世界上一切事物的控制层。它被允许如何运作可能比任何其他事情都更重要。你应该意识到,一个小而孤立的党派社会工程师团体正在试图在掩盖他们正在保护你的古老借口下,决定这个问题。




 


AI 风险#3:AI 会取代我们所有的工作吗?  





由于各种原因,如机械化、自动化、计算机化或人工智能,人们一直担心失去工作,这已经是几百年来不断出现的恐慌情绪,自从机械织布机等机械设备首次出现以来。尽管历史上每一项重大新技术都带来了更多工作机会和更高工资,但每一波恐慌都伴随着“这一次不同”的说法——这一次终于会发生,这一次终于会对人类劳动力造成重大打击的技术来了。然而,这种情况从未发生过。


在最近的过去,我们经历了两次由技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管许多专家和甚至科技行业高管在这两个十年里一再强调大规模失业即将到来,但在2019年末——就在COVID爆发之前——世界上的就业机会比历史上任何时候都要多,工资也更高。


然而,这个错误的观念仍然存在。


果不其然,它又回来了。


这一次,我们终于拥有了将取代所有工作并使人类工人变得多余的技术——真正的人工智能。当然,这一次历史不会重演,人工智能将引发大规模失业,而不是迅速实现经济、就业和工资增长,对吗?


不,这不会发生,事实上,如果允许人工智能在整个经济中得以发展和普及,它可能引发有史以来最大规模和持续时间最长的经济繁荣,相应地带来创纪录的就业和工资增长——与人们所担心的完全相反。原因如下。


自动化会导致失业的核心错误是所谓的"劳动总量谬误"。这种谬误是一种错误的观念,即经济中的劳动总量在任何特定时间都是固定的,要么由机器完成,要么由人完成——如果由机器完成,人们就没有工作可做了。


"劳动总量谬误"自然地源于天真的直觉,但这里的天真直觉是错误的。当技术应用于生产时,我们会得到生产力增长——即通过减少投入而产生的产出增加。结果是商品和服务价格下降。随着商品和服务价格的下降,我们花费在它们上的费用就减少了,这意味着我们现在有额外的消费能力用于购买其他物品。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——的创造,从而为之前被机器取代的人们创造了新的工作岗位。结果就是一个更大的经济体,拥有更高的物质繁荣程度、更多的产业、更多的产品和更多的工作机会。


然而,好消息并不止于此。我们还能获得更高的工资。这是因为在个体劳动者的层面上,市场根据劳动者的边际生产力来确定补偿水平。科技融入业务的劳动者比传统行业的劳动者更具生产力。雇主要么会支付更多的工资给这个劳动者,因为他的生产力提高了,要么其他雇主出于自身利益会这样做。结果是,引入技术进入一个行业通常不仅会增加行业中的就业机会,而且会提高工资水平。


总之,科技使人们更有生产力。这导致现有商品和服务的价格下降,工资上升。这反过来促进了经济增长和就业增长,同时激发了新工作岗位和新产业的创造。如果允许市场经济正常运作,如果允许自由引入技术,这就是一个永不终止的持续向上循环。正如弗里德曼(Milton Friedman)所观察到的,“人类的欲望和需求是无穷无尽的” - 我们总是想要比我们拥有的更多。科技融入的市场经济是我们接近能够提供每个人可以想象的一切的方式,但永远不会完全实现。这就是为什么技术不会摧毁工作岗位,也永远不会。


对于那些没有接触过这些想法的人来说,这些都是令人震惊的观点,可能需要一些时间来理解。但我发誓这些不是我凭空编造的 - 事实上,你可以在标准经济学教材中读到所有这些观点。我推荐亨利·哈兹利特(Henry Hazlitt)的《经济学一课》中的“机械的诅咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)讽刺性的《烛光制造商的请愿书》,该书涉及烛光与照明行业的不公平竞争,并将其现代化应用于我们的时代。


但你可能会说,这次不同。这次,有了人工智能,我们有能够替代全部人类劳动的技术。


但是,根据我上面描述的原理,想象一下如果所有现有的人类劳动都被机器替代会意味着什么。


这意味着经济生产力增长的起飞速度将是绝对的天文数字,远远超过任何历史先例。现有商品和服务的价格将全面降至接近零。消费者福利将飙升。消费者购买力将激增。经济中的新需求将爆发式增长。创业者将创建令人眼花缭乱的新行业、产品和服务,并尽可能快地雇佣尽可能多的人员和人工智能来满足所有新需求。


假设人工智能再次取代了劳动力?循环将重复,推动消费者福利、经济增长、就业和工资增长更上一层楼。这将是一种直线式的上升螺旋,达到亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。


我们应该如此幸运。




   AI 风险#4:AI 会导致严重的不平等吗?   



关于人工智能取代工作的担忧直接过渡到下一个所声称的人工智能风险,作为人工智能的所有者获得所有的经济回报,而普通人一无所获,这难道不会导致巨大而严重的财富不平等吗?


事实上,这种观点的核心主张,即生产资料的所有者——资产阶级——必然会从真正劳动的人民手中夺取所有社会财富。无论现实如何一次次地证明这个观点是错误的,这个谬论似乎就是无法消亡。但无论如何,我们还是要彻底驳斥它。


这个理论的缺陷在于,作为一种技术的所有者,你并不希望将其私藏,相反,你有兴趣将其卖给尽可能多的客户。任何产品在全球范围内的最大市场都是全世界的80亿人。因此,在现实中,每一种新技术——即使最初只销售给高薪大公司或富有的消费者——都会迅速传播,直到它落入尽可能多的大众手中,最终覆盖全球的每个人。


这个经典的例子是埃隆·马斯克在2006年提出的所谓“秘密计划”——他自然而然地公开发布了——针对特斯拉的计划。


步骤1,制造一辆【昂贵的】跑车步骤2,用这笔钱来制造一辆价格实惠的汽车步骤3,用那笔钱再制造一辆更加实惠的汽车…这当然正是他所做的,结果成为了世界上最富有的人。


最后一点至关重要。如果今天他只向富人销售汽车,那他会更富有吗?不会。如果他只为自己制造汽车,他会更富有吗?当然不会。他通过向全球最大可能的市场销售来最大化自己的利润。


简而言之,每个人都可以得到这个东西 - 正如我们在过去看到的,不仅是汽车,还有电力、无线电、计算机、互联网、手机和搜索引擎。这些技术的制造者极具动力,将它们的价格降低到全球所有人都能负担得起。这正是人工智能已经发生的事情 - 这就是为什么你今天可以以低成本甚至免费使用最先进的生成式人工智能,例如Microsoft Bing和Google Bard,而且这种情况将继续发生。这并不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪 - 他们希望最大化市场规模,从而最大化利润。


因此,发生的情况恰恰与技术推动财富集中相反 - 技术的个体客户,最终包括全球所有人,反而获得了更多的权力,并获得了大部分创造的价值。与以前的技术一样,构建人工智能的公司 - 假设它们必须在自由市场中运作 - 将竞相努力使这成为现实。


这并不是说不平等不是我们社会的一个问题。它确实存在,只是它不是由技术推动,而是由经济中对新技术最抵触、政府干预最多以阻止采用人工智能等新技术的部门推动,具体包括住房、教育和医疗保健。人工智能和不平等的实际风险不是人工智能会导致更多不平等,而是我们不允许人工智能用于减少不平等。




     AI 风险#5:AI 会导致人们做坏事吗?  



现在让我们来讨论第五个风险,这是我实际上同意的:人工智能将使坏人更容易做坏事。


从某种意义上说,这是一个重言式。技术是一种工具。从火和石头开始,工具可以用于做好事——烹饪食物和建造房屋——也可以用于做坏事——烧伤人和殴打人。任何技术都可以用于好或坏。没错。人工智能将使罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。


这导致一些人提出,好吧,既然如此,我们就不要冒这个风险,让我们在这种事情发生之前禁止人工智能。不幸的是,人工智能不是一种像钚那样难以获得的神秘物质。相反,它是世界上最容易获得的材料——数学和代码。


人工智能显然已经脱离了束缚。你可以通过成千上万的免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现不断涌现。人工智能就像空气一样——它将无处不在。要抓捕它所需的极权压制程度将如此严酷——一个监视和控制所有计算机的世界政府?黑色直升机中的军警突击队员抢夺流氓GPU?那样的话,我们将没有社会可以保护。


因此,我们有两种非常直接的方法来解决人工智能被坏人用于坏事的风险,而这正是我们应该关注的。


首先,我们已经有法律规定,将几乎所有可能通过人工智能进行的恶意行为定为犯罪。入侵五角大楼?那是犯罪。从银行盗取钱财?那是犯罪。制造生物武器?那是犯罪。进行恐怖主义行为?那也是犯罪。我们可以专注于在有可能的情况下预防这些犯罪,并在无法预防时予以起诉。我们甚至不需要新的法律 - 我不知道有哪个实际的坏用途的人工智能是非法的。如果发现新的不良用途,我们将禁止该使用。


但是你可能注意到了我刚才提到的 - 我说我们应该首先着手在事件发生之前预防利用人工智能犯罪 - 那难道这不意味着禁止人工智能吗?其实还有另一种方式可以预防这些行为,那就是将人工智能作为防御工具使用。使人工智能在坏人手中具有危险性的能力,也使其在善良目标下的善良人手中变得强大 - 具体来说,这些人的工作就是防止坏事发生。


例如,如果你担心人工智能生成虚假的人和视频,答案是构建新系统,让人们可以通过加密签名验证自己和真实内容。在人工智能出现之前,数字内容的真实与虚假的创建和修改就已经存在;答案不是禁止文字处理器、Photoshop或人工智能,而是利用技术构建一个真正解决问题的系统。


因此,第二点,让我们大力推动将人工智能用于善良、合法和防御性的目的。让我们将人工智能应用于网络防御、生物防御、反恐追踪,以及我们为了保护自己、社区和国家所做的一切。


当然,政府内外已经有许多聪明人正在做着这件事情-但是如果我们将目前无谓地将精力和智慧用于禁止人工智能,转而利用人工智能来防范坏人做坏事,我相信毫无疑问,一个注入人工智能的世界将比我们今天生活的世界更加安全。




                  应该怎么做?               



我提出一个简单的计划:


  • 大型人工智能公司应该被允许尽可能快速和积极地构建人工智能,但不得允许它们实现监管的捕获,不得建立一个因为错误的人工智能风险声称而免受市场竞争影响的政府保护卡特尔。这将最大限度地发挥这些公司令人惊叹的能力在技术和社会上的回报,它们是现代资本主义的宝贵财富。


  • 初创的人工智能公司应该被允许尽可能快速和积极地构建人工智能。它们既不应该面临政府授予大公司的保护,也不应该接受政府援助。它们应该只被允许进行竞争。如果初创公司没有成功,它们在市场中的存在也将不断激励大公司做得更好,无论是哪种方式,我们的经济和社会都是受益的。


  • 开源人工智能应该被允许自由扩散并与大型人工智能公司和初创公司竞争。对于开源来说,不应该存在任何监管障碍。即使开源无法击败公司,它的广泛可用性也是全世界想要学习如何构建和使用人工智能成为技术未来一部分的学生们的福音,并且将确保不管他们是谁,有多少钱,每个人都能从中受益。


  • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作,应该积极参与潜在风险的每个领域,利用人工智能来最大化社会的防御能力。这不应局限于人工智能风险,还包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以成为解决问题的非常强大的工具,我们应该将其视为如此。



更多阅读:

一个大学生如何在6个月内,通过开发AI工具,获得每月64000美元收入?

Stability AI 的 Emad Mostaque,为什么马斯克和贝佐斯会见他?

Midjourney创始人大卫·霍尔兹

科技狂人OpenAI CEO萨姆奥特曼的梦想世界

马斯克、奥特曼和OpenAI秘史

如果您也在从事AI相关工作,欢迎扫码添加小编微信(pkcapital2023),和一群对创业和投资有热情的小伙伴一起交流

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存