欢迎来到进口食品商务网!

“赌注非常高两名前OpenAI员工谈保护举报人的必要性

2024-06-29 09:27 来源:本站编辑

对威廉·桑德斯来说,这可能是一次代价高昂的采访。今年2月,这位前安全研究员从OpenAI辞职,和许多其他离职员工一样,他签署了一份非贬低协议,以保留出售公司股权的权利。尽管他说,OpenAI后来告诉他,它不打算执行该协议,并做出了类似的公开承诺,但他仍然冒着风险说出来。他对《时代》杂志说:“跟你说话,我可能永远无法获得价值数百万美元的既得股权。”“但我认为,更重要的是,就这些人工智能公司正在发生的事情进行公开对话。”

其他人也有同样的感觉。周二,OpenAI和谷歌DeepMind的13名现任和前任员工呼吁,在开发先进人工智能的公司加强对举报人的保护,他们担心强大的新技术可能会危险地失控。在一封公开信中,他们敦促实验室同意给予员工“警告”监管机构、董事会成员和公众安全问题的“权利”。

在这封信之前,OpenAI出现了一系列引人注目的离职,其中包括首席科学家伊利亚·苏斯克维尔(Ilya Sutskever),他在去年11月投票解雇了萨姆·奥特曼(Sam Altman),但最终被公司排挤出局。Sutskever没有对这些事件公开发表评论,他离开的原因也不得而知。另一位高级安全研究员简·雷克(Jan Leike)于5月辞职,称OpenAI的安全文化在发布新产品时已经“退居其次”。

他们并不是最近唯一辞职的人。这封公开信背后的前雇员之一丹尼尔·科科塔伊洛(Daniel Kokotajlo)于今年4月辞职,并在网上写道,他已经失去了信心,认为如果实验室创造了通用人工智能(AGI),他就不会负责任地行事。通用人工智能是所有顶级人工智能实验室都在尝试开发的一种推测性技术,它可以比人类更好地执行有经济价值的任务。离职后,科科塔伊洛拒绝签署公司要求离职员工签署的非贬低协议。他认为自己失去了OpenAI数百万美元的股权。在Vox发表了一篇关于非贬低条款的报道后,OpenAI收回了这一政策,称不会从批评该公司的员工那里收回股权。

OpenAI在一份声明中同意,围绕先进人工智能的公开辩论至关重要。OpenAI发言人林赛·赫尔德在接受《纽约时报》采访时表示:“我们为自己提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们解决风险的科学方法。”“我们同意,考虑到这项技术的重要性,严格的辩论是至关重要的,我们将继续与世界各地的政府、民间社会和其他社区合作。”OpenAI拒绝就这篇报道中的说法向《时代周刊》提供进一步评论;谷歌DeepMind没有对公开信发表公开评论,也没有回应时代周刊的置评请求。

但在接受《时代》杂志采访时,OpenAI的两名前员工——在公司治理团队工作的kokotajlo和超级联盟团队的研究员Saunders表示,即使除了非贬损协议,领先的人工智能实验室中定义广泛的保密协议也会让员工公开谈论他们的担忧带来风险。两人都表示,他们预计人工智能系统的能力将在未来几年内大幅提高,这些变化将对社会产生根本性的影响。Kokotajlo说:“赌注高得令人难以置信。

在金融等受监管的行业,举报人在举报各种违法行为时享有美国政府的保护,甚至可以期望从一些成功的罚款中分得一杯羹。但由于没有针对先进人工智能开发的具体法律,人工智能行业的举报人没有这样的保护,并且可能因违反保密或不贬低协议而面临法律风险。科科塔伊洛说:“之前存在的举报人保护在这里并不适用,因为这个行业没有真正的监管,所以对公司可能做的许多潜在危险的事情没有规定。”

桑德斯说:“人工智能实验室并不真正对任何人负责。“问责制要求,如果某个组织做错了什么,相关信息可以共享。但现在情况并非如此。”

桑德斯说,当他在2021年加入OpenAI时,他希望公司能够解决一系列难题:“如果有一台机器可以做你所做的有经济价值的工作,那么你在一个社会中真正拥有多大的权力?”如果人们工作之外还有其他选择,我们还能拥有民主社会吗?”但在2022年11月发布ChatGPT之后,OpenAI开始转型为一家完全不同的公司。它的估值达到了数百亿美元,其高管们竞相击败竞争对手。桑德斯说,他希望OpenAI能够解决的问题,现在似乎“被推迟了,让位于发布下一个闪亮的新产品。”

在公开信中,桑德斯、科科塔伊洛和其他现任和前任员工呼吁人工智能实验室停止要求员工签署非贬低协议;建立员工向董事会成员、监管机构和监督组织提出关切的程序;并培养一种“公开批评的文化”。公开信称,如果一名举报人在试图通过这些渠道提出担忧但未能成功后公开举报,人工智能公司应承诺不对他们进行报复。

至少有一名OpenAI现任员工在社交媒体上批评了这封公开信,他认为,员工公开表示对安全的担忧,将使实验室更难解决高度敏感的问题。OpenAI的研究科学家约书亚·阿奇亚姆(Joshua Achiam)在X上的一篇帖子中写道:“如果你想让OpenAI的安全有效运作,就需要建立一个基本的信任基础,让与我们一起工作的每个人都知道我们会为他们保密。”X以前被称为Twitter。“这封信是这个基础上的一个巨大裂缝。”

然而,这一论点在一定程度上取决于OpenAI领导层的负责任行为——最近的事件引起了人们的质疑。桑德斯认为,公司首席执行官奥特曼从根本上抵制问责制。他说:“我确实认为,尤其是山姆·奥特曼,他对监督和问责制感到非常不安。”“我认为这说明,每一个可能对他进行监督的组织,包括董事会和安全保障委员会,萨姆·奥特曼都觉得有必要亲自上任——没有人能拒绝他。”

(去年11月,奥特曼被OpenAI前董事会解雇后,威尔默黑尔律师事务所(WilmerHale)对当时的情况进行了调查,发现“他的行为不足以让人罢免他”。OpenAI的新董事会后来对奥特曼在公司的领导能力表示了“充分的信心”,并在3月份将奥特曼的董事会席位还给了他。“我们发现奥特曼在所有相关问题上都非常乐于助人,并始终与他的管理团队合作,”两位新董事会成员拉里•萨默斯(Larry Summers)和布雷特•泰勒(Bret Taylor)最近在《经济学人》(Economist)上写道。

对桑德斯来说,问责制至关重要,如果人工智能公司在没有外部监管机构和机构的情况下单独行动,问责制就不可能存在。他说:“如果你想要一个真正为公众利益服务的人工智能开发者,并达到建立安全和有益的人工智能的理想,就应该有一个监督和问责制度,让组织真正实现这一理想。”“然后,在一个理想的世界里,谁担任首席执行官并不重要。如果世界必须决定这些人工智能公司的首席执行官中谁的道德品质最好,这是非常有问题的。这不是一个很好的情况。”

更多时间

中国进口商网声明:未经许可,不得转载。
热门产品招商