- +1
生成式人工智能:是破產界的效率利劍還是挖坑神器?
2025年10月,美國阿拉巴馬州杰克遜醫(yī)院(Jackson Hospital & Clinic)破產案中使用生成式人工智能偽造案例的鬧劇終于落幕。
在該案例中,債權人代理律師凱西·普雷斯通(Cassie Preston)向阿拉巴馬中區(qū)破產法院提交的法律文件中,使用了人工智能生成的文本,其中包含有偽造的案例。普雷斯通律師供職于戈登·里斯律師事務所(Gordon Rees Scully Mansukhani LLP)。該律所在全美所有州都開設有分所,供職律師超過1800人,年收入在美國律所中能躋身百強。豪門出丑事,自然更容易引起關注。
近年來,隨著生成式人工智能的迅速發(fā)展,法律界使用人工智能生成文本且被發(fā)現偽造案例的新聞,在全球不同國家都有案例出現,已經有點見怪不怪。但在破產法領域,這樣的事件還是引起業(yè)界的反思。
在這之前,就有類似情況出現:2025年7月18日,美國伊利諾伊北區(qū)破產法院法官邁克爾·斯萊德(Michael Slade)法官做出裁令,向西姆拉德律師事務所(Semrad Law Firm)開出5500美元罰單,并強制要求該所律師托馬斯·尼爾德(Thomas Nield)和另一位高級合伙人參加“全國破產法官會議”上的人工智能倫理培訓課。
在該事件中,尼爾德在代理一起第13章個人債務重整程序時,被發(fā)現在法律文件中引用了4個并不存在的案例。尼爾德坦承其使用ChatGPT完成法律推理。他認為這個人工智能應用值得信任,所以在準備材料時第一次使用人工智能助手,未預料到人工智能會給其挖坑,更沒有在完稿后予以核查。
杰克遜醫(yī)院破產案中負面新聞的結局是:普雷斯通和另一位同事退出代理。律所出面向法官和其他相關方道歉,改進所內使用人工智能的政策,強化引用核查,承諾接受法院科處的任何處罰。此外,戈登·里斯律師事務所與相關債權人、債務人達成和解協(xié)議,承擔相關方律師費共計5.5萬美元。
在判例法國家使用人工智能生成的虛假判例,已經成為威脅法律文檔可信度的頭號殺手,破產界概莫能外。
前述斯萊德法官公開反對律師執(zhí)業(yè)中對人工智能的過度依賴,“人工智能可以像斯蒂芬·金一樣寫作,可以像斯威夫特·泰勒一樣唱歌,但它不能完成律師業(yè)務。ChatGPT沒有接入法律專業(yè)數據庫,不能核驗,不能評估并分析其結果,不能決定哪個結果靠譜,更不能形成一份精準且符合‘藍寶書’引用格式的正確案例”,“任何律師都不能不去核驗其結果,而直接使用ChatGPT或者其他生成式人工智能來完成工作”。
我國不是判例法國家,律師使用人工智能生成虛假案例的概率大大降低,甚至也不用特別擔心實務工作者使用人工智能生成的虛假案例。但在其他方面,比如使用人工智能生成虛假數據、虛假官方文件、虛假學術文獻等情況,就目前情形來看恐怕不會是少數。最近筆者個人不止一次碰到破產法相關文獻中出現涉嫌使用人工智能生成偽造資料的情況:
比如,偶然檢索到一篇與跨境破產有關的論文,其中寫道,“隨著實踐的發(fā)展,最高人民法院于2020年發(fā)布《關于審理跨境破產案件若干問題的規(guī)定》,對跨境破產案件的相關問題作出了系統(tǒng)性的規(guī)范,標志著中國跨境破產法律制度進入成熟發(fā)展階段。”論者言之鑿鑿,但最高人民法院從未在2020年公開發(fā)布過這樣一份有關跨境破產的文件。
再比如,前幾天評閱的一篇論文中,赫然出現這樣一個文獻:“中國政法大學破產法研究中心:《重整企業(yè)信用狀況調查報告(2022年)》”。中國政法大學不存在破產法研究中心;即便“中國政法大學破產法與企業(yè)重組研究中心”,也從未在2022年發(fā)布過這樣一份涉及重整企業(yè)信用狀況調查的報告。
上述兩個事例,都出自專業(yè)性寫作,而非法律文件中。就這個趨勢來看,破產實務領域不太可能自外于生成式人工智能流行的洪流。
人工智能技術發(fā)展日新月異,的確可以高質量完成大量重復性勞動,并將人類從部分重復性、基礎性工作中解脫出來。對于破產界同行來說,在日常工作中善于使用人工智能,讓業(yè)務的發(fā)展搭上技術突飛猛進的東風,不全是壞事。
但生成式人工智能是一把雙刃劍,用好了是效率利劍,用不好就是挖坑神器。對于人工智能生成文本在破產業(yè)務中的使用,還是應該有一定的警惕:
第一,人工核查是使用生成式人工智能文本絕對必須的生命線。對于任何使用人工智能生成文本的主體,在借助人工智能完成基礎性工作的同時,一定要確保人工核查。在效率上,人類智能可能不如人工智能,但在專業(yè)信息真?zhèn)闻袛嗌先祟愔悄苓h勝人工智能。相關法律文件或者專業(yè)文獻的署名作者,應該成為復核人工智能生成文本可靠與否的第一責任人。
第二,破產實務人員所在供職機構和行業(yè)協(xié)會,應該出臺人工智能生成文本使用的基本倫理規(guī)則,尤其是規(guī)范和紀律角度強化人工智能復核環(huán)節(jié),并以此環(huán)節(jié)的有無,作為將來界定使用人工智能生成虛假文本責任的重要考量因素。另外,相關供職機構和行業(yè)協(xié)會對于已經發(fā)現的使用人工智能生成虛假文本的行為,應該視情節(jié)嚴重程度及危害嚴重程度,事先確定批評、罰款、解職、除名等處罰規(guī)則并嚴格執(zhí)行。
第三,行政機構、法院等官方機構,應該對使用人工智能生成文本設定監(jiān)管標準。一方面,行政機構在業(yè)務監(jiān)管層面應該允許和鼓勵對人工智能的使用,但在業(yè)務領域什么環(huán)節(jié)能使用、在多大程度和范圍內使用,應該有個指引。另一方面,在管理人報酬確定等問題上,司法機構審查時應與其專業(yè)能力、人工智能使用投入和實際投入勞動量掛鉤。對于過度依賴人工智能生成文本、相關法律文件有較多人工智能生成虛假文本或者錯漏信息的機構和個人,應該予以降低報酬、公示、解職、除名等處罰規(guī)則。
使用人工智能生成偽造資料的歪風,正在席卷破產界。對此,我們不應該當笑話看,而是應該未雨綢繆,確立指導規(guī)則,規(guī)范使用紀律,構建科學合理的“使用+復核”雙重保險機制。
(作者陳夏紅為中國政法大學破產法與企業(yè)重組研究中心研究員)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業(yè)務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




