Google DeepMind與人工智慧研究機構Anthropic的最新研究也支持此觀點。研究顯示,大型語言模型能令人信服地模仿倫理言詞,卻不具備真實的道德能力。例如,Anthropic研究人員分析了超過30萬次與其Claude聊天機器人的對話,雖然識別出3,307個不同的價值觀,但發現Claude模型主要傾向於反映用戶所表達的價值觀。該模型只有約3%的對話會拒絕用戶要求,且通常是涉及有害內容的指令。
卡內基美隆大學(Carnegie Mellon University)教學教授Michael Hilton解釋,這種現象反映了訓練數據中包含的多元觀點。倫斯勒理工學院(Rensselaer Polytechnic Institute)認知科學教授Selmer Bringsjord則認為,有意義的道德推理需要系統具備倫理理論、相關道德規範與法律的形式化基礎。密西根大學(University of Michigan)資訊系統副教授Nigel Melville建議,若能妥善使用,AI仍可作為有價值的諮詢工具,增進人類理解而非取代。