文/林吉祥
最近,知名的 AI 新創公司 Anthropic 與美國國防部之間陷入僵局,起因是軍方希望將 Claude 模型應用於「全自動武器系統」。面對政府的壓力甚至制裁威脅,Anthropic 執行長阿莫迪(Dario Amodei)畫下了底線:他拒絕讓自家 AI 成為那些「無需人類干預就能取人性命」的武器大腦。
很多人傾向於將這看作是矽谷英雄式的道德覺醒—一家現代科技公司勇敢向軍工產業鏈說「不」。但現實往往比電影更複雜。Anthropic 並非全然的和平主義者,他們的模型早已在多個層面提供給國防部使用。阿莫迪的猶豫與其說是出自絕對的非暴力信仰,倒不如說是一種「務實的恐慌」。他深知技術尚未成熟、風險高不可測,而這種對戰爭型態的劇烈改變,理應經過國會公聽會的審議,而非在閉門合約中草率決定。
然而,即便阿莫迪的初衷是基於法律責任與技術風險,而非純粹的靈魂昇華,這場對峙仍完美體現了古老佛教哲學中的警示。它向我們展示了當矽谷捲入戰爭生意時,會陷入怎樣的困局。
「正命」的滑坡效應
兩千五百年前,佛陀提出了「正命」的概念,明確指出「武器貿易」是一種會腐蝕心靈並帶來痛苦的職業。佛教認為,你不可能「只沾一點點」戰爭生意,而不被其因果業力所纏繞。
Anthropic 現今的困境,正是忽視這一原則的必然結果。當科技公司開始向軍方提供「非殺傷性」或「後勤支援」的 AI 基礎設施時,就已經進入了灰色地帶。國防部現在要求將 Claude 用於全自動武器,並準備在公司猶豫時祭出懲罰,這證明了一件事:一旦你踏入軍工供應鏈的大門,戰爭機器就會無止盡地索求更多。以為公司可以幫軍隊造工具卻能保持雙手潔淨,這種幻覺正在破滅。
自動化的業力與對法律責任的恐懼
阿莫迪要求在部署「致命自主武器系統」(LAWS)前必須經過國會監督,這反映了一個巨大且未解的責任危機。在佛教中,業力的產生源於「思」,也就是「意圖」。
如果一個缺乏意識與意圖的 AI 執行了殺戮指令,這份道德與業力的重量並不會憑空消失,反而會被放大並散佈。它會降落在工程師、將軍與政策制定者的頭上。阿莫迪理所當然地對這種「演算法式的責任稀釋」感到恐懼。要求國會聽證會,其實是一種絕望的嘗試,試圖分擔那種「將殺戮意圖外包給黑盒演算法」所帶來的沉重道德與法律責任。
慈悲心的底線
儘管 Anthropic 的立場是出於務實考量,但它點出了一個令人恐懼的哲學臨界點。傳統戰爭雖然殘酷,但最終仍需要一個「人」來扣動扳手。在那個人性的間隙裡,存在著微弱的「慈悲」可能—或許是士兵那一瞬間的遲疑,或是對共同人性的突然感悟。
全自動武器從數學上徹底抹除了戰場上的慈悲心。阿莫迪的拒絕,無論是出於倫理還是自保,都延遲了一個沒有慈悲心成分的系統被部署到世界上。
「三毒」的演算法優化
國防部對 Anthropic 的制裁威脅,不只是政策分歧,更暴露了佛教所謂「貪、嗔、癡」三毒的運作機制。推動全自動武器的根源在於「癡」—妄想打造更聰明、更快的殺戮機器能保證長久的和平與安全。這種幻覺餵養了對技術霸權與龐大國防合約的「貪」,這正是當初誘惑矽谷跳入火坑的誘餌。最後,當像阿莫迪這樣的 CEO 試圖煞車時,軍工體系便展現出「嗔」與強迫手段,動用制裁來逼迫就範。
將 AI 整合進這個循環,並不是讓戰爭變得更「聰明」或更精準;我們只是在利用尖端的演算法,來優化人類最古老、也最致命的毒素。
終極的道德外包
Anthropic 的僵局並非「聖者鬥惡龍」的神話,而是一個關於妥協的警世寓言。它揭示了我們正快速走向一個道德上的不歸路。當我們在爭論 AI 是否已經「準備好」自動扣動扳手時,佛教的視角提出了一個更令人不寒而慄的問題:當人類社會習慣了「殺戮不再需要靈魂參與」時,我們會變成什麼樣子?
當我們把殺人的決定交給 AI,就等於把「扣下板機那一刻」內心會有的猶豫、掙扎跟罪惡感給徹底拿掉了。這麼做的風險是,我們可能會把戰爭變成一個「乾乾淨淨、只求最高效率」的電腦算力問題。對那些躲在後方寫程式的人來說,殺人不過就是跑跑數字、優化一下程式碼而已。當毀滅生命被簡化為一種演算法輸出時,最終的悲劇不只是現實中的斷垣殘壁,更是我們為了讓這一切發生,而選擇在心靈上徹底變得麻木。
3/8/2026