Page 10 - 1385b
P. 10

10         第 1385 期 2023 年 4 月 7 日 星期五





          人工智能监管呼声日涨:全球暂停键能否按下?究竟应如何监管?




                                                                                                         一些专家对人类的集体未来感到担忧。甚至OpenAI的首
                                                                                                         席技术官米拉·穆拉蒂(Mira  Murati)也建议,应该对人
                                                                                                         工智能进行监管。



                                                                                                             一些学者认为,过度的监管可能会阻碍和干扰人工智
                                                                                                         能的全部潜力。有的理论认为,为了使创新蓬勃发展,必
                                                                                                         须打破长期存在的规范和做法。



                                                                                                             同样,多年来,商业团体一直在推动灵活的监管,并
                                                                                                         将其限制在目标应用上,以便不妨碍竞争。而行业协会则
                                                                                                         呼吁进行道德“指导”,而不是监管,它们认为人工智能
                                                                                                         的发展速度太快,而且是开放式的,无法充分监管。



                                                                                                             但民众似乎主张进行更多的监督。根据Bristows和毕
               上周,人工智能领域的专家和业界高管等人联署公开                    害经济增长或成为国家安全风险,但当局目前尚未采取任                      马威(KPMG)的报告,约有三分之二的澳大利亚人和英
           信,呼吁各大人工智能实验室立即暂停开发比GPT-4更强                    何行动。                                           国人认为人工智能行业应该受到监管并被追究责任。
           大的人工智能系统的训练,至少停止6个月。
                                                              欧盟在人工智能监管方面处于领先地位,它正在努力                    下一步是什么?

               这份来自生命未来研究所(Future of Life Institute)      制定一项《人工智能法(Artificial Intelligence Act)》。
           的公开信称,具有“人类竞争性智能”的人工智能系统可                      这项拟议的法律将划分与人工智能有关的三个风险类别,                          暂停开发先进的人工智能系统六个月,可以为人工智
           能成为人类的主要威胁。在这些风险中,人工智能有可能                      包括造成     “不可接受的风险”的应用程序和系统将被禁                  能“军备竞赛”提供喘息机会,而这场军备竞赛似乎并没
           胜过人类的智慧,淘汰人类,并控制文明。                            用,被认为是“高风险”的应用程序将受到特定法律的约                      有放松。然而,到目前为止,还没有有效的全球努力来有
                                                          束,以及其它的应用程序将在很大程度上不受监管。                        意义地监管人工智能。世界各地的努力是断裂的、拖延

               信中强调,有必要制定一套全面的协议来管理人工智                                                                   的,总体上是松懈的。
           能的发展和部署。信中指出这些协议应确保遵守它们的系                          尽管一些团体认为欧盟的做法将会扼杀创新,但澳大
           统是安全的,而这并不意味着总体上暂停人工智能开发,                      利亚应该对此密切关注,因为它在提供可预测性和保持人                          全球暂停将很难执行,但并非不可能。这封公开信提
           只是从危险竞赛中后退一步。                                  工智能的发展步伐这两者间取得了平衡。                             出了关于政府作用这一问题,对能力极强的人工智能工具
                                                                                                         的潜在危害,各政府基本上保持沉默。

               通常情况下,监管之争会使政府和大型技术公司相互                        中国应对人工智能的做法侧重于针对具体的算法应
           对立。但最近的公开信——迄今已有5000多名签名者,包                    用,并制定法规解决其在某些情况下的部署。虽然这种方                          如果要改变现状,政府以及国家和超国家的监管机构
           括推特和特斯拉首席执行官伊隆·马斯克(Elon                        法提供了针对性,但有可能制定的法规会赶不上快速发展                      将需要带头确保问责制和安全。正如信中所说,有关人工
           Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克                       的技术。                                           智能的社会层面的决定,不应掌握在“未经选举产生的技
           (Steve      Wozniak)和OpenAI科学家约纳斯·卡萨                                                          术领导者”手中。

           (Yonas Kassa)——似乎表明各方最终会站在一起。                  利与弊
                                                                                                             因此,各国政府应与业界合作,共同制定一个全球框
               我们真的可以制定实施一个精简的全球人工智能监管                        对于谨慎推动对人工智能的控制,支持和反对的声音                    架,制定出管理人工智能发展的综合性规则。这是保护免
           框架吗?如果可以的话,它会是什么样的?                            都有。一方面,人工智能因能够生成各种形式的内容、处                      受有害影响和避免逐底竞赛的最佳方式,也避免了政府和

                                                          理普通单调的工作和用于检测癌症等而受到赞扬。另一方                      科技巨头为争夺人工智能未来主导权而出现的不理想局
           已存在哪些监管?                                       面,它可以欺骗、延续偏见、剽窃,而且——当然——让                      面。


               在澳大利亚,政府已经建立了国家人工智能中心,旨
           在帮助发展人工智能和数字生态系统。  该中心下设负责任
           的人工智能网络,目的是推动负责任的做法,并提供法律

           和标准方面的领导。


               然而,目前还没有关于人工智能和算法决策的具体法
           规。政府采取的做法是广泛接受负责任的人工智能的概

           念,但没有设定参数以确保其实现。


               同样,美国也采取了不干涉的策略。立法者依靠现有
           法律来规范其使用。美国商会(US  Chamber  of  Com-
           merce)最近呼吁对人工智能进行监管,以确保它不会损
   5   6   7   8   9   10   11   12   13   14   15