欢迎来到进口食品商务网!

为什么古代法律原则也适用于人工智能:从汉谟拉比到DeepSeek和ChatGPT

2025-04-19 07:26 来源:本站编辑

公元前1754年,巴比伦国王汉谟拉比在石头上刻下了一个激进的思想:责任。他的法规规定,如果建筑商的疏忽导致房屋倒塌,导致屋主死亡,建筑商将面临后果。本周(2025年2月10日至11日),当政策制定者齐聚巴黎讨论人工智能监管时,他们应该被提醒一下这个有着4000年历史的原则:法律回应责任在于那些开发、部署和受益于人工智能的人。

回到法律基础

汉谟拉比的法典与房屋无关;这是关于人类的责任。罗马法、拿破仑法典和现代立法都印证了这一真理:法律规范人与人之间的关系,而不是工具本身。当马彻底改变19世纪的生活时,我们并没有发明“马法”。相反,法院将财产、责任和合同规则适用于使用马匹的人之间的纠纷。同样的逻辑也适用于互联网。正如法律学者弗兰克·伊斯特布鲁克(Frank Easterbrook)在1996年所打趣的那样,不存在“马的法律”,因此,也就不需要“互联网法”。

这种逻辑也适用于人工智能。如果一个算法诽谤了某人,现行的诽谤法将适用。如果自动驾驶汽车出现故障,产品责任规则会让制造商承担责任。问题不在于缺乏法律,而在于缺乏将法律应用于人工智能的意愿。

关键问题是230条款的免疫屏蔽

人工智能监管的关键问题是法律异常的精神:1996年美国《通信规范法》(Communications Decency Act)第230条。这项旨在保护初出茅庐的互联网平台的法律,几乎赋予了它们对用户生成内容的完全豁免权。想象一下,如果汉谟拉比的建造者可以通过声称“房子是自己建造的”来逃避指责。这正是第230条所允许的:平台逃避对社交媒体内容的责任,如今,对人工智能生成的深度伪造、骚扰或欺诈在其系统上托管的责任。

恢复问责制——让公司对部署有害的人工智能负责——将在没有新法规的情况下解决大多数问题。

长期风险:保持警惕,而不是歇斯底里

人工智能监管的支持者经常引用世界末日的场景:流氓算法对人类的生存构成威胁。但恐惧是一个糟糕的政策制定者。只有在风险极有可能发生时才采取行动的预防原则应该指导我们。最近通过控制人工智能系统的“处理能力”来应对人工智能长期风险的尝试已经失败。DeepSeek是一个与ChatGPT等巨头竞争的紧凑型人工智能模型,它证明了人工智能硬件和算法的法律限制是徒劳的。相反,要关注具体的危害:利用现有法律惩罚人工智能带来的歧视、欺诈或版权盗窃。

讨论道德,但关注法律

人工智能伦理行业已经爆发,企业、政府和国际组织采用了1000多条道德准则、宣言和指导方针。虽然道德讨论本身并没有害处,但它们可能会分散人们的注意力。法律是可强制执行的最低限度的道德规范——任何哲学辩论都无法取代它的牙齿。

人工智能的伦理框架就像纵火犯的安全研讨会:善意但没有后果。首先关注法律。当人工智能造成伤害时,不要问“这个算法合乎道德吗?”而是“谁触犯了法律?”

例外地执行现有的和发明新的人工智能规则

Jovan Kurbalija,人工智能治理金字塔

把人工智能监管想象成一个金字塔:在它的底层是硬件和算法——对于人工智能对社会的影响来说太远了,而且很难监管。别管他们。中间层?数据。在这方面,我们已经拥有强大的工具:执行现有的隐私法,如GDPR。更好的做法是,打击人工智能平台在未经许可的情况下收集受版权保护的书籍、艺术或音乐来训练人工智能系统——知识产权法已经禁止了这种行为。

真正紧迫的是:人工智能的公共影响。当算法在招聘中存在歧视、扭曲市场或传播诽谤时,现有的框架——消费者权利、反偏见法规、侵权法——就绰绰有余了。需要适应吗?让法院将现有规则应用于人工智能,就像它们在过去三十年中处理互联网案件一样。

人类统治,机器跟随

人工智能是一种工具,就像锤子或马一样。汉谟拉比没有规范锤子;他要求建筑商承担责任。我们不需要“人工智能法律”,因为法律已经约束了机器背后的人类。如果我们抛弃第230条被误导的豁免权的逻辑,重新致力于永恒的原则——责任、透明度和正义——我们就能很好地管理人工智能。毕竟,4000年的法律智慧不可能出错。

中国进口商网声明:未经许可,不得转载。