来源:感知中国
人工智能的发展足够迅速,它可能带来的危险也足够明显,以至于OpenAI的领导层认为,世界需要一个类似于管理核能的国际监管机构--而且要快,但不要太快。在公司博客的一篇文章中,OpenAI的创始人Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever解释说,人工智能的创新速度如此之快,以至于我们不能指望现有的机构能够充分地控制这项技术。
虽然这里有某种拍马屁的性质,但任何公正的观察者都清楚,这项技术,最明显的是OpenAI的爆炸性流行的ChatGPT对话机器人,代表了一种独特的威胁,也是一种宝贵的资产。
(资料图片)
文章在细节和承诺方面比较轻描淡写,但也承认人工智能不会自己管理自己:
我们需要在领先的开发工作中进行某种程度的协调,以确保超级智能的发展以一种既能让我们保持安全又能帮助这些系统与社会顺利整合的方式进行。
我们最终可能需要一个类似于[国际原子能机构]的机构来开展超级智能工作;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。
IAEA是联合国在核电问题上进行国际合作的官方机构,就像核不扩散监管一样,建立在这种模式上的人工智能管理机构可能无法进入并打开不良行为者的开关,但它可以建立并跟踪国际标准和协议,这至少是一个起点。
OpenAI的帖子指出,跟踪用于人工智能研究的计算能力和能源使用情况是相对较少的客观措施之一,可以而且可能应该被报告和跟踪。虽然可能很难说人工智能应该或不应该被用于哪些领域,但说用于人工智能的资源应该像其他行业一样受到监督和审计可能是有价值的。(该公司也建议较小的AI公司可以豁免监管,以避免扼杀创新的绿芽)。
领先的人工智能研究员和评论家Timnit Gebru今天在接受《卫报》采访时说了类似的话:"除非有外部压力要求做一些不同的事情,否则公司是不会自我监管的。我们需要监管,我们需要比单纯的利润动机更好的模式。"
OpenAI明显接受了后者,这让许多希望它名副其实的人感到惊愕,但至少作为市场领导者,它也在呼吁在治理方面采取真正的行动--除了最近的听证会,参议员们排队发表连任演讲,文稿大多以问句结束。
虽然该建议相当于"也许我们应该,比如,做一些事情",但它至少是行业内的一个对话启动器,表明世界上最大的单一人工智能品牌和供应商支持做一些事情。迫切需要公共监督,但"我们还不知道如何设计这样一个机制"。
虽然该公司的领导人说他们支持踩刹车,但现在还没有计划这样做,因为他们不想放弃"改善我们的社会"(更不用说底线)的巨大潜力,也因为有一种风险,即坏的行为者已经把他们的脚放在油门上。
关键词:
天天时讯:意媒:2022年7月1日至12月31日,米兰实现盈利980万欧
意媒:2022年7月1日至12月31日,米兰实现盈利980万欧,米兰,欧元,意媒,铁甲钢拳
即时焦点:武汉诸相网络科技有限公司
1、武汉诸相网络科技有限公司于2017年06月30日成立。2、法定代表人黄伟,公司经营范围包括:计算机软硬件的
鹿晗献唱《蜘蛛侠·纵横宇宙》主题曲,重新演唱ost的鹿晗有多帅? 世界微动态
重新得到电影ost演唱机会的鹿晗太帅气,一头红发搭配白色T恤,简直将意气风发刻在骨子里。随着蜘蛛侠系列电
怎么把手机字体变大 小米怎么把手机字体变大
1、在手机设置界面中,点击显示和亮度。2、在显示和亮度界面中,点击字体大小与粗细。3、在字体大小与粗细
观点:首次对外 颁发官方证书 GOTC2023实施和管理开源合规计划培训研讨会来啦
开源软件已经成为现代软件开发的一个重要组成部分。它提供了许多好处,如成本效益、灵活性和社区支持。然而
关于我们 加入我们 联系我们 商务合作 粤ICP备2022077823号
中国创氪网 www.chuanganwang.cn 版权所有
投稿投诉联系邮箱:317 493 128 @qq.com