Page 7 - 1393a
P. 7

A  7
             第 1393 期 2023 年 6 月 2 日 星期五




                                                                                                               他给BBC举了一个“噩梦场景”一般的例子:“想

                                                                                                           象一下,例如,像(俄罗斯总统)普京这样的糟糕参与
                                                                                                           者决定赋予机器人能力,创造自己的子目标。”


                                                                                                               他警告说,这些机器最终可能会“创造出‘我需要
                                                                                                           更多权力’这样的子目标”,这将带来“生存风险”。


                                                                                                               但欣顿表示,在短期内,他认为人工智能带来的好

                                                                                                           处要比风险大得多,“所以我认为我们不应该停止开发
                                                                                                           这种东西。”他说。

                                                                                                           灭绝还是不朽



                                                                                                               “人工智能的全面发展可能意味着人类的终结,”
                                                                                                           他在2014年告诉BBC,也就是他去世前四年。


                                                                                                               他说,具有这种智能水平的机器“将自行发展,并

              “随着2024年美国大选临近,像推特和其他重要平                    部电影中,机器发动了一场毁灭人类的核战争。                            以越来越快的速度重新设计自己”。
         台解雇了他们的人工智能道德和安全团队,我更担心这
                                                                                                           纳米机器人与永生
         一点。”                                                 普林斯顿大学的计算机科学家纳拉亚南(Arvind
                                                          Narayanan)此前曾告诉BBC,科幻般的灾难场景是不
                                                                                                               未来主义发明家兼作家库兹韦尔(Ray  Kurzweil)
              美国政府承认潜在的威胁。白宫在5月4日的一份声                     现实的:“目前的人工智能还远远不足以让这些风险成
                                                                                                           是人工智能的最大爱好者之一,他是谷歌的人工智能研
         明中称:“人工智能是我们这个时代最强大的技术之                          为现实。最后,它分散了人们对人工智能短期危害的注
                                                                                                           究员,也是硅谷奇点大学的联合创始人。
         一,但为了抓住它带来的机遇,我们必须先降低它的风                         意力。”

         险。”
                                                                                                               库兹韦尔认为,人类将能够使用超级智能的人工智
                                                              虽然对于机器是否真的能获得人类拥有的那种广泛
                                                                                                           能来克服生物障碍。
              美国国会曾传唤OpenAI首席执行官山姆·阿尔特                    的智能,尤其是在情商方面,存在很多争论,但这是那
         曼(Sam Altman)回答有关ChatGPT的问题。                     些认为我们即将实现通用人工智能的人最担心的事情之
                                                                                                               2015年,他预测,到2030年,因为纳米机器人(非
                                                          一。
                                                                                                           常小的机器人)在我们体内工作,能够修复和治愈任何
              在参议院听证会上,阿尔特曼表示,随着人工智能
                                                                                                           损伤或疾病,人类将实现永生。
         的发展,政府对他的行业进行监管是“非常重要的”。                             最近,所谓的“人工智能教父”杰弗里·欣顿
                                                          (Geoffrey  Hinton)警告,我们可能即将达到这一里程
                                                                                                           人工智能管理
              生命未来研究所的公共政策研究员古铁雷斯(Car-                    碑。欣顿是教授机器从经验中学习的先驱。
         los Ignacio Gutiérrez)对BBC解释,人工智能带来的巨
                                                                                                               “想象一下这样的未来:一个实体拥有地球上每个
         大挑战之一是,“没有一个由专家组成的联合机构来决                             “我认为,现在(机器)并不比我们聪明。但我认
                                                                                                           人及其习惯的大量信息(因为互联网搜索),它可以用
         定如何监管它,就像政府间气候变化专门委员会                            为他们可能很快就会这样,”他刚刚从谷歌退休,今年
                                                                                                           我们无法意识到的方式控制我们。”他说。
         (IPCC)那样。”                                       75岁。

                                                                                                               “最糟糕的场景并不是人类与机器人之间的战争。
              这就把我们带到了人工智能的第三个也是最后一个                          欣顿在发给《纽约时报》的一份宣布离开谷歌的声
                                                                                                           最糟糕的是,我们没有意识到自己被操纵了,因为我们
         阶段。                                              明中表示,他现在对自己所做的工作感到后悔,因为他
                                                                                                           与一个比我们聪明得多的实体分享这个星球。”
                                                          担心“糟糕的参与者”会利用人工智能做“坏事”。
         3. 超人工智能



              这是一种理论,当我们到达第二阶段时,我们将很
         快进入最后阶段:“超人工智能”。当人工智能超过人
         类智能时,就会出现这种情况。


              牛津大学哲学家、人工智能专家博斯特罗姆(Nick
         Bostrom)将超智能定义为“在几乎所有领域,包括科
         学创造力、一般智慧和社交技能,都远远超过最优秀的
         人类大脑的智能”。



              “人类要成为工程师、护士或律师,必须学习很长
         时间。通用人工智能的问题在于……它可以在我们做不
         到的时候不断改进自己,”古铁雷斯解释说。


              这个概念让人想起了电影《终结者》的情节,在这
   2   3   4   5   6   7   8   9   10   11   12