Page 8 - 1518b
P. 8
8 第 1518 期 2025 年 11 月 21 日 星期五
分析:人工智能或是对澳大利亚民主制度的终极考验
科幻作家威廉·吉布森(William Gibson)曾说过,未 感觉澳大利亚尤其对此有些措手不及,并不是因为我们 找出方法修复这些问题。
来已降临,只是尚未均匀地分布。而我今天想说的是,未来 没有世界顶尖的科学家和技术专家在研究人工智能,我们的
就在旧金山,一场现代淘金热正在这里上演。因为在这座城 确有,而是因为人工智能问题还没有像它应该的那样成为公 以澳大利亚禁止儿童访问社交媒体平台的法律为例。这
市,人工智能已经成为了人们的日常。 众讨论的焦点。 是世界首部此类法律,我认为我们应该为此感到自豪。但这
项法律实施过程中遇到的种种复杂问题表明,要为现有系统
我们都听到过各种炒作宣传。埃里克·施密特(Eric 对于像澳大利亚这样的民主国家来说,人工智能会构成 添加社会保障措施是多么困难。这种“末日循环”——即我
Schmidt)说,这是人类历史上最重要的技术。斯蒂芬·霍 诸多风险。它可能会进一步恶化我们的信息环境,并有可能 们倾向于只寻找并接受我们想要的信息,而不是我们需要的
金(Stephen Hawking)则认为,这是自电力发明以来最 侵犯我们的公民自由。它破坏了雇佣劳动的概念。它甚至威 信息——在人工智能领域可能比在社交媒体领域更为严重。
具变革性的技术。谷歌母公司 Alphabet 的首席执行官桑达 胁到人类本质的稳定,甚至可能动摇或质疑人之所以为人的 这是我们为什么必须现在就采取行动,以免为时过晚。
尔·皮查伊(Sundar Pichai)表示,人工智能的重要性将 根本属性。在某种程度上,人工智能本身可以被描述为一种
超过火。但直到我在旧金山坐上一辆自动驾驶的捷豹——一 具有非自由主义倾向的技术——它有利于专制政权,甚至有 社交媒体也体现了另一种现象:作为“技术接受者”,
辆 Waymo 出租车——我才真正意识到即将到来的变革有多 可能催生专制政权。 澳大利亚和其他国家通常表现出一种无力感。由于奉行新自
么巨大以及它将如何从根本上改变一切。 由主义的开放市场政策,澳大利亚被动地接受了社交媒体等
澳大利亚不是一个大国。我们永远无法仅凭计算能力取 消费技术,然后发现即使采取监管措施,也覆水难收了。如
起初我有些紧张,但当我看着方向盘几乎难以察觉地 胜。首先,我们无法像超级大国那样在人工智能领域投入巨 果澳大利亚能够摒弃这种被动态度,积极努力地塑造人工智
自动转向时——就像一连串的驾校教练都没能教会我的那 资。美国每年在人工智能上的投入高达 2300 亿澳元。但在 能市场,就能展现出一种不同的模式。
样——我竟然觉得这种体验比普通出租车好多了。所有的人 澳大利亚,亿万富翁的数量较少,而且他们目前还无法掌控
为可变因素都烟消云散。司机昨晚睡得好吗?万一他突然开 一切。我们仍然是一个强大的民主国家,我们信仰每个人都 总而言之,美国已经认定自己在人工智能领域正与中国
始大放厥词怎么办?我讨厌这首歌。请不要绕远路。 这感觉 被公正对待。 展开一场生死存亡的较量。它正在不择手段地扫清障碍,以求
既安全又轻松。 取胜。但在澳大利亚这里,情况却截然不同。我们需要清醒认
这是为什么澳大利亚有机会成为一座灯塔。我们可以清 识到人工智能的能力和风险,避免重蹈社交媒体和互联网的覆
在车里,我经过了一家人工智能初创公司的广告牌。上 醒认识到人工智能的风险和回报,尤其是在工作领域。然后, 辙。人工智能的风险是什么?我们需要监管哪些方面,又需要
面写着:停止给予人类他们讨厌的工作。人工智能真的会像 与其追求少数人的最大利润,我们可以确保人工智能安全且 避免哪些问题?我们很容易陷入对最坏情况的设想。但我们的
广告里说的那样,带来一个后资本主义的乌托邦吗?自从那 人道地融入社会——按照我们自己的方式。 社会和国家正在经历的种种正是我今天想向大家展示的。
次旅行之后,我的心情一直在一阵阵的疯狂乐观和认为机器
人最终会毁灭我们所有人之间摇摆不定。 不过,在深入探讨这些要点之前,我需要先从宏观角度 对民主的独特威胁
出发,给大家介绍一下大背景。我需要谈谈目前正在进行中
这两种情况显然都属于极端例子,但我敢打赌,这种想 的争夺人工智能霸权的地缘政治竞争。 我们大多数人通过大语言模型与人工智能互动。驱
法你可能并不陌生。总体而言,民意调查显示,公众对人工 动这些模型所需的“计算”能力极其庞大。每当我们向
智能的悲观情绪远大于乐观情绪——甚至可以说我们对它感 新世界秩序 Perplexity 或 ChatGPT 提出任何问题时,模型给出的答案
到恐惧。这项技术的发展和最终普及似乎不可避免。为什么 会消耗五滴水,且耗电量几乎是谷歌搜索的十倍。运行人工
我们大家对人工智能感到如此无能为力呢?我认为很大一部 “新世界秩序”正在形成,并取决于美国和中国在人工 智能数据中心的环境成本将需要大量廉价的绿色能源。
分原因是,谈论人工智能真的很难。 智能领域的胜负。这是前 OpenAI 开发者利奥波德·阿申布
伦纳(Leopold Aschenbrenner)的观点。阿申布伦纳对 此外,还有所需的矿产开采和排放。据估计,到 2026 年,
在提出一些原因之前,我想先快速明确一下我在这里所 这项技术利害关系的看法非常具有影响力——许多美国技术 数据中心的电力需求将大致相当于日本的电力消耗量。这些
说的人工智能的含义。人工智能是一个统称,指的是那些旨 专家以及美国政府如今都认同这一观点。 环境成本将影响到世界各地的每一个人。
在模仿人类能力的各种技术。我们大多数人至少熟悉其中一
种人工智能——生成式人工智能,比如 ChatGPT——但还 特朗普总统经常谈到要在“人工智能竞赛”中“击败” 然而,对于民主国家而言,人工智能将如何应用会带来
有其他类型,例如机器学习。 中国。这种说法有些奇怪,因为我们并不知道终点线在哪 一些额外的风险。根据模型的使用方式以及它们是否缺乏监
里,但特朗普的意图很明确:他将人工智能视为地缘政治竞 管,人工智能可能会破坏民主实践、规范和法治。
自 20 世纪 40 年代诞生以来,人工智能已经贡献了许多 争的一柄利器。事实上,美国内政部长道格·伯古姆(Doug
“狭义”系统,这些系统可以在特定情况下完成一些有用的 Burgum)最近甚至表示,我们应该忘记气候变化——它并 首先,人工智能将对信息格局产生影响。专家警告称,
任务。然而这些系统始终无法达到“无所不能”的宏伟目标。 不重要。伯古姆说,美国正在与中国进行一场人工智能的“军 人工智能宣传工厂已经出现——借助廉价且可下载的模型,
大型语言模型——一种生成式人工智能——或许有所不同, 备竞赛”,以“拯救地球”。 任何人都能在家中构建一套完整的说服框架。这种情况前所
但人们对它们抱有诸多合理的怀疑。随着新模型的发布和实 未有,且极具破坏性。而且这种影响难以轻易消除。
际表现堪属平平,这种怀疑与日俱增,以至于现在有人开始 为了拯救地球并在与中国的竞争中胜出,特朗普政府已
谈论人工智能泡沫。 经着手废除前总统拜登对人工智能行业的所有监管规定。 另一方面,人工智能也有可能培养出更知情的公民。澳
大利亚首席政治学家苏珊·弗利博士(Susan Foley)指出,
这或许是人们难以谈论人工智能的第一个原因——它的 取消这些限制正是亚马逊、谷歌、微软和 Meta 等公司 15 世纪印刷术的发明也伴随着类似的担忧——而最终,印刷
发展轨迹充满了不确定性。 一直在游说的。这也是为什么这些公司的首席执行官们纷纷 术引发了一场社会革命,并推动了教育的民主化。
前往华盛顿庆祝特朗普就职。他们希望不惜一切代价加速人
这引出了第二个相关的原因:少数几家大型科技公司控 工智能的发展——全然不顾对公众的危害。 即便信息安全风险最终被证明是夸大其词,人工智能系
制着我们对人工智能的认知。与原子弹、互联网、雷达或太 统对民主构成的独特威胁也远不止于此。
空探索不同,人工智能是现代史上第一个从真正意义上来说 当然,创新与监管之间的二元对立是虚假的。人工智能
并非由政府开发的重大技术。它一直被局限在私营部门。由 在全球范围内都面临着消费者的信任危机。埃隆·马斯克的 人工智能正在造成权力失衡,重新分配原本属于个人的
于这些公司想要巩固对人工智能生态系统的寡头垄断,我们 Grok 聊天机器人“幻觉性”支持新纳粹就是一个尤为恶劣 权力,并将其潜在地交给国家,但更重要的是,交给那些未
不得不不断地分辨哪些是事实,哪些是炒作。 的例子,但所有生成式人工智能模型都容易出现不可靠且怪 经选举的科技高管。越来越多的企业控制着数据、算法和负
异的内容。这种不信任使得消费者难以接受人工智能,即便 责处理的基础设施。他们要求员工签署范围广泛的保密协议,
但即便讨论人工智能很困难,也不意味着我们必须屈从 我们不断听到它有多么出色。 并对任何离职者采取强硬的封口手段。
于它或者任何会对人类造成危害的技术。科技公司有责任向
消费者阐明人工智能到底能为我们做些什么。然后就是我们 我们以前也见过这种现象——即我们应该相信那些向我 这种保密旨在阻止我们对那些被告知不可避免的事情提
作为公民有责任就人工智能的使用达成共识。 们兜售新奇产品的人。互联网及其发展就是一个警示。科技 出过多疑问。它也分散了我们对机器学习的注意力,让我们
企业家们“行动迅速,打破常规”,然后我们其他人不得不 无暇顾及我们早已身陷其中的困境。聊天机器人无处不在。

