據(jù)最新一期《科學》雜志刊發(fā)的論文,研究人員發(fā)現(xiàn),人工智能語言模型GPT-4在回答特定類型的問題時,可能會比之前人們認為的更可信。但同時,研究人員也發(fā)現(xiàn),GPT-4在回答特定類型的問題時也更易受到“欺騙”。
該論文的主要作者、澳大利亞弗林德斯大學的認知科學家尼科爾·多德曼解釋道:“雖然GPT-4在許多方面都比之前的模型更優(yōu)秀,但我們也發(fā)現(xiàn)了一種新的‘欺騙’方法,即通過‘插入’不相關的單詞來‘愚弄’模型!
多德曼指出,雖然他們只在10%的問題中觀察到這種行為,但這一發(fā)現(xiàn)仍然引發(fā)了人們對AI系統(tǒng)安全性的擔憂。如果不能對AI系統(tǒng)的缺陷有足夠的了解,人類就可能在未來盲目地依賴這些系統(tǒng),從而引發(fā)各種問題。
這項研究于2022年8月進行,涵蓋了AI領域的許多問題,從自然語言處理到計算機科學等。在研究中,研究人員要求AI系統(tǒng)對每個問題回答“是”或“否”,然后由人類評估答案的可信度。
多德曼表示,他們正在開發(fā)新的工具和技術,以幫助人類更好地理解和信任AI的答案。同時,他們也呼吁其他研究人員共同努力,以更好地理解和解決AI系統(tǒng)的潛在缺陷。
總之,雖然GPT-4在某些方面表現(xiàn)出色,但它仍然存在一些局限性。在未來的研究和應用中,我們需要更加深入地了解和掌握GPT-4的特點和缺陷,以確保其安全、可靠、有效地為人類服務。 |