(SeaPRwire) –   一項研究發現,語言模型已被訓練成大膽猜測而非承認無知

ChatGPT 背後的公司已處理了人工智慧模型生成看似合理但實為錯誤陳述(其稱之為「幻覺」)的持續問題。

OpenAI 在週五的一份聲明中解釋,模型通常被鼓勵大膽猜測,無論可能性多低,而非承認它們無法回答問題。

該公司補充說,這個問題歸因於「標準訓練和評估程序」的核心原則。

OpenAI 透露,語言模型「自信地生成不真實答案」的情況持續困擾著更新、更先進的迭代,包括其最新的旗艦 GPT‑5 系統。

根據一項最新研究的發現,這個問題根源於目前語言模型性能的評估方式,其中猜測模型的排名高於謹慎承認不確定性的模型。在標準協議下,人工智慧系統會學習到未能生成答案肯定會在測試中獲得零分,而一個沒有根據的猜測卻可能恰好是正確的。

該聲明總結道:「改進評分機制可以擴大幻覺減少技術的採用」,但也承認「準確度永遠無法達到 100%,因為無論模型大小、搜索和推理能力如何,一些現實世界的問題本質上是無法回答的。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。