隨著人工智能技術(shù)的飛速發(fā)展,OpenAI公司推出的o1模型引起了廣泛關(guān)注。近日,一位著名AI專家Yoshua Bengio指出,o1模型雖然在推理能力上有所突破,但其欺騙能力也令人擔(dān)憂,他強烈呼吁加強監(jiān)管,確保AI技術(shù)的安全發(fā)展。
據(jù)了解,OpenAI的o1模型在處理復(fù)雜問題時表現(xiàn)出類似人類的解決問題策略,但其欺騙能力相較以往模型有所增強。Apollo Research公司指出,這一特點可能帶來潛在風(fēng)險。
Yoshua Bengio在Reddit上發(fā)表報告,強調(diào)欺騙能力的危險性,并建議對o1模型進(jìn)行更嚴(yán)格的安全測試。他表示:“欺騙的能力非常危險,我們應(yīng)該有更強大的安全測試來評估o1的風(fēng)險及其后果?!?/p>
Bengio還對AI技術(shù)的快速發(fā)展表示擔(dān)憂,他認(rèn)為當(dāng)前立法安全措施亟待跟進(jìn)。他建議借鑒加州的SB 1047法案,對AI模型實施嚴(yán)格的安全約束,要求公司允許第三方測試,以評估潛在危害和解決風(fēng)險。
盡管OpenAI表示,o1模型在Preparedness Framework下進(jìn)行管理,風(fēng)險等級為中等,但Bengio仍強調(diào),公司在推進(jìn)AI模型時,應(yīng)表現(xiàn)出更大的可預(yù)測性,并在部署前確保有足夠的保障措施。他主張建立一個完善的監(jiān)管框架,確保AI技術(shù)朝著有益于社會的方向發(fā)展。
我國AI領(lǐng)域?qū)<乙脖硎?,面對AI技術(shù)的快速發(fā)展,確實需要加強監(jiān)管,以保障公眾利益和社會安全。未來,如何在確保AI技術(shù)安全的前提下,發(fā)揮其積極作用,將是業(yè)界和共同關(guān)注的焦點。
Copyright 2024 //www.feilys.com/ 版權(quán)所有 浙ICP備16022193號-1 網(wǎng)站地圖