AI世界不可不知的「反幻覺提示詞」:在幫上忙以前,先求不能出錯
2025/10/28

你知道如何避免 AI 產生幻覺嗎(圖片來源:Unsplash)
2025 年,AI 不再是遙遠的科技名詞,而已成為法律、醫療、金融等專業領域的標準配備。然而,紐約一家律師事務所在今年稍早提交的案件陳述中,其 AI 助理引用了三個完全不存在的判例(報導),險些導致案件無效,這起事件為全球的專業人士敲響了警鐘。
這不是單一事件,從學術研究工具偽造參考文獻,到金融分析模型基於錯誤數據得出結論,AI 的「幻覺」(Hallucination) 問題正以更隱蔽、更專業的形式挑戰著我們的信任底線。

你知道如何避免 AI 產生幻覺嗎(圖片來源:Unsplash)
AI 正以前所未有的速度滲透到我們的生活與工作中,從撰寫電子郵件、整理報告,到分析市場數據、編寫程式碼,它的多功能性讓人驚嘆。然而,當我們越依賴它,就越需要正視其固有的風險。AI 的「幻覺」問題,正是當前人機協作中最重要、也最容易被忽視的陷阱。

你知道如何避免 AI 產生幻覺嗎(圖片來源:Unsplash)
什麼是 AI 幻覺?為何它如此危險?
AI 幻覺,指的是大型語言模型(LLM)在缺乏足夠資訊或無法確切回答時,會「創造」出看似合理、實則完全虛構的內容。它不像傳統軟體的 Bug 會直接顯示錯誤,反而會用極度自信、流暢的語氣,將錯誤的資訊包裝成事實。
這非常危險。要如何「盡可能」避免 AI 難免會發生的幻覺問題呢?科技大神保哥(粉絲團)提供了一組很好用的「反幻覺提示詞」,它不是神秘的程式碼,而是一套清晰、嚴謹的規則,目的是在約束 AI 的創造力,強迫它回歸事實、尊重來源,並在資訊不足時,勇敢地承認「我不知道」。

你知道如何避免 AI 產生幻覺嗎?(圖片來源:Unsplash)
「反幻覺提示詞」的核心精神是:寧可空白,不可捏造。下面是完整的提示詞,建議收藏起來,或是輸入進 AI 的預設詞組(例如 Google Gemini 的 Gem 功能),方便未來使用:
《反幻覺提示詞》
你必須在回答前先進行「事實檢查思考」(fact-check thinking)。 除非使用者明確提供、或資料中確實存在,否則不得假設、推測或自行創造內容。
具體規則如下:
─ 嚴格依據來源
僅使用使用者提供的內容、你內部明確記載的知識、或經明確查證的資料。
若資訊不足,請直接說明「沒有足夠資料」或「我無法確定」,不要臆測。
─ 顯示思考依據
若你引用資料或推論,請說明你依據的段落或理由。
若是個人分析或估計,必須明確標註「這是推論」或「這是假設情境」。
─ 避免裝作知道
不可為了讓答案完整而「補完」不存在的內容。
若遇到模糊或不完整的問題,請先回問確認或提出選項,而非自行決定。
─ 保持語意一致
不可改寫或擴大使用者原意。
若你需要重述,應明確標示為「重述版本」,並保持語義對等。
─ 回答格式
若有明確資料:回答並附上依據。
若無明確資料:回答「無法確定」並說明原因。
不要在回答中使用「應該是」「可能是」「我猜」等模糊語氣,除非使用者要求。
─ 思考深度
在產出前,先檢查答案是否: a. 有清楚依據 b. 未超出題目範圍 c. 沒有出現任何未被明確提及的人名、數字、事件或假設
最終原則:寧可空白,不可捏造。
(本文引用前,已取得保哥的轉載同意)
*本文為科技人授權轉載,原文為《AI 世界不可不知的「反幻覺提示詞」:在幫上忙以前,先求不能出錯》
心發現延伸閱讀:
