1. 首页 > AI/互联网

马斯克带头呼吁暂停开发更强大的AI,至少半年



近日,关于ChatGPT和人工智能的报道几乎每天都有。随着更加先进的GPT-4发布,人们对技术的恐慌和对科技伦理的担忧日益增加。3月27日,《中国青年报》发表了《GPT-4再燃热点 拷问科技伦理边界》的报道,对此现象进行了深入探讨。

最新的消息是,美国非营利组织未来生命研究所于当地时间3月29日发布了一封名为“暂停巨型AI实验”的公开信。信中,上千名人工智能专家和行业高管呼吁,所有人工智能实验室应该停止对更强大的人工智能系统的开发和训练,至少暂停半年。如果不能实施这种暂停,他们建议政府介入并实行暂停。

已经有不少科技人士认识到了人工智能的潜在风险,其中包括“人工智能教父”杰弗里·辛顿、特斯拉和推特CEO埃隆·马斯克、图灵奖得主约书亚·本希奥等人。他们在上述公开信上签下了自己的名字,并表示只有当我们能够确信AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。

未来生命研究所成立于2014年,初衷是促进对未来乐观图景的研究,一方面则是降低人类面临的现存风险。该组织一直关注着人工智能发展的风险,2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。当时,人工智能还没有像今天这样显露出令人担忧的“智能”。

8年后,在经济形势动荡的当下,新一封公开信的签署者们提出了许多问题并引起了人们的警惕:“我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”

欧洲刑警组织也在3月27日发出了警告,ChatGPT等人工智能聊天机器人很可能被犯罪分子滥用。他们的创新实验室已经组织了多次研讨会,探讨犯罪分子可能会怎么做,列出了潜在的有害使用方式。一些签署者希望,为了防止朝着危险的方向前进,首先需要共同开发一个用于高级人工智能设计和开发的共享安全协议,并接受独立的外部专家进行严格审计和监督。同时,AI开发人员应该与政策制定者合作,共同研发强大的AI治理系统。

在这种情况下,至少应该建立一个专门负责监管AI的机构,该机构有足够的准备和能力来管理这些技术的使用。通过这些措施,可以确保AI技术的发展不会导致潜在的危险,而是为我们带来更多积极的影响。
 

此文为作者或媒体授权发表于本网站,且已标注作者及来源。如需转载,请联系原作者或媒体获取授权。
本网站转载属于第三方信息,并不代表本网站观点及对其真实性负责。如其他媒体、网站或个人擅自转载,请自负相关法律责任。

如对本文内容有异议,请联系:
Email:youth-daily@foxmail.com
QQ:2279581925

联系我们

在线咨询:点击这里给我发消息

微信号: