OpenAI於2025年10月29日更新ChatGPT使用政策,明定禁止提供醫療、法律與財務等專業建議。(示意圖/Pixabay)
人工智慧公司OpenAI近日更新其聊天機器人ChatGPT的使用政策,明確禁止將其用於提供需專業執照的醫療、法律與財務建議,強調此舉是為了降低誤用風險並加強使用者安全。消息一出,引發全球關注與討論。然而OpenAI隨後澄清,用戶仍可如往常般查詢健康與法律相關資訊,只是ChatGPT將不再扮演「專業顧問」角色,而是作為「教育工具」存在。
根據OpenAI官方公布,自2025年10月29日起,ChatGPT將不得用於醫療、法律與財務領域中的專業建議,亦不得被用於「無人工監督的高風險決策」、臉部或生物特徵辨識處理、學術舞弊或其他高敏感用途。OpenAI表示,此次政策更新目的在於提高模型使用的透明度與安全性,並強化公司對風險的控管。
《金融快報》(Financial Express)分析指出,此舉背後原因可能與法律責任與監管壓力有關。近年來,許多用戶將AI用於查詢疾病症狀、法律爭議或投資建議,若模型提供錯誤資訊,可能導致誤診、法律風險或財務損失,因此OpenAI決定劃清與專業職責之間的界線。
不過,《商業內幕》(Business Insider)指出,外界對此政策的理解出現偏差。報導提到,社群平台X上有用戶發文稱「ChatGPT將全面停止提供健康建議」,引發大量留言與關切。甚至有使用者戲稱「那我就沒用了」。對此,OpenAI發言人回應澄清:「這不是新改變,ChatGPT從未被視為專業法律或醫療顧問,但它仍是協助大眾理解健康與法律資訊的絕佳工具。」
OpenAI健康AI研究主管卡蘭辛格哈爾(Karan Singhal)也在X平台表示,目前模型的行為並未有任何變動。該公司強調,此政策主要是釐清「醫療資訊」(medical information)與「醫療建議」(medical advice)之間的差異。舉例來說,ChatGPT仍可提供感冒時建議多休息、多補水或使用常見退燒藥等常識性資訊,但不會診斷病因或開立處方。
此外,OpenAI也提醒,用戶與ChatGPT之間的互動,不具醫師病人或律師與當事人間的保密特權,相關資訊在特定情況下仍可能被司法機構調閱。此項提醒也呼應OpenAI近來針對心理健康與情緒敏感領域所增設的多項安全限制機制,避免模型誤判用戶狀態。
OpenAI澄清新政策僅限制專業建議角色,並未封鎖健康、法律等常識性查詢。(圖/翻攝自X,@skirui_dean)
原文網址:https://www.ctwant.com/article/455529/