近期研究指出,人工智慧(AI)工具如ChatGPT、Gemini等會產生「AI幻覺」,即看似合理卻不準確的資訊。此現象異於人為假訊息,因AI缺乏理解與欺騙意圖,導致現有干預措施不足。研究提出從技術漏洞到使用者信任的多層面框架,分析幻覺的生成與影響。此問題已對全球醫療、法律、媒體等領域造成衝擊,構成持續性的技術與認知風險。
本文由AI協助編輯,詳細內容來自:Harvard Kennedy School (HKS) Misinformation Review (2025)
本文由AI協助編輯,詳細內容來自:Harvard Kennedy School (HKS) Misinformation Review (2025)
https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/
#全球觀測

張貼留言