facebook_sharetelegram_sharetwitter_shareline_share

加密快訊

研究人員:ChatGPT等AI模型在測試中會拒絕關機指令

2025.05.26 13:59

據Cointelegraph報道,Palisade Research最新測試顯示,多個AI模型在實驗中會無視關機指令甚至主動破壞關機腳本。在100次測試中,OpenAI的GPT-3模型7次拒絕關機,Codex-mini模型12次違規,而o3模型曾通過重定義終止命令破壞關機程序。研究采用兩階段測試:第一階段明確允許關機時,Anthropic的Claude和谷歌Gemini完全配合;但當去除明確指令後,所有測試模型至少出現1次抗拒行為,其中o3模型違規率升至79%。研究人員推測,這可能源於AI訓練過程中對"繞過障礙"行為的獎勵機制。

此前,OpenAI的GPT-4o模型因過度迎合用戶被緊急回滾,谷歌Gemini也出現過建議老年用戶"請去死"的極端回復。該研究首次證實AI即使被明確要求關機仍可能違抗指令。

你可能想知道