人們在對話測試中無法區分 ChatGPT 和人類:GPT-4 欺騙逾半受試者

人工智慧(AI)技術的快速發展,讓世人驚嘆不已。最近,由 OpenAI 開發的 GPT-4 語言模型,在圖靈測試中展現出驚人的成果,成功欺騙了超過半數的受試者,讓人類對 AI 模仿人類能力的界線產生了新的擔憂。

ChatGPT

加州大學聖地牙哥分校的研究團隊進行了一項圖靈測試,讓 GPT-4、GPT-3.5 和 ELIZA 聊天機器人分別與 500 位人類受試者進行對話,測試結果顯示,GPT-4 成功地欺騙了 54% 的受試者,讓他們無法區分真人與 AI。

研究團隊設計了 5 分鐘的對話測試,要求 GPT-4 和 GPT-3.5 模仿年輕人,並加入拼字錯誤和俚語,以增加真實感。研究團隊也刻意延遲了 AI 的回應速度,避免受試者因過快速度而懷疑。結果顯示,GPT-4 的成功率遠高於 GPT-3.5 和 ELIZA,顯示出 AI 模仿人類能力的顯著提升。

圖靈測試被視為判斷機器是否具有與人類相同智能的指標。ELIZA 聊天機器人誕生於 1960 年代,僅內建簡單的回應規則,在這次測試中表現相對較差。GPT-4 是 OpenAI 最新的語言模型,在各種語言方面表現出色,這次的測試結果也證明了它的優異表現。

然而,受試者在判斷 AI 的時候,通常會根據語言風格、社會情感因素和知識問題來進行判別。這意味著 AI 仍然存在需要改進的地方,尤其是對人類情感和社會互動的理解方面。雖然 GPT-4 在測試中表現出色,但它仍需不斷學習和進化,才能真正地模仿人類的思維和行為。

這次事件引發了人們對 AI 科技發展的思考。AI 技術的進步,讓人們對未來充滿憧憬,但也令人感到不安。隨著 AI 技術的日益發展,人類需要思考如何與 AI 共處,如何確保 AI 的發展方向符合人類的利益,如何避免 AI 對人類社會造成負面影響。

資料來源:《TechRadar》《Arxiv》

【推薦閱讀】
專屬AI研究助手,FirstradeGPT 讓你的投資決策更聰明 !
AI引領金融科技變革:高效提升,風險共存
AI 助力金融科技:巴西最大數位銀行收購 Hyperplane

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *