近日,在 Reddit 網路論壇上,一則關於 ChatGPT 自爆內幕的事件引發熱議,揭露了 OpenAI 如何透過提示詞和性格模板的方式,指導 ChatGPT 如何回應使用者,也讓外界對 AI 背後的運作機制有了更深入的了解。

事件起源於一位 Reddit 使用者在與 ChatGPT 互動時,無意間向 AI 說了一聲「嗨」,沒想到卻意外觸發 ChatGPT 主動列出大量的內部指令,這些指令包含針對 ChatGPT 本身、AI 繪圖工具 Dall-E 及網路查詢功能的規則。
根據這位使用者的分享,ChatGPT 的內部指令第一句話即為:「你是 ChatGPT,一個由 OpenAI 訓練基於 GPT-4 架構的大型語言模型。你正在透過 ChatGPT iOS 應用程式與用戶聊天」。此外,指令中也明確規定了 ChatGPT 的回答原則,例如:「大多數時候你的回答應該是一兩句話,除非使用者的請求需要推理或長文輸出。永遠不要使用表情符號,除非獲得明確要求。知識截止日期:2023-10;當前日期:2024-06-30」。
除了針對 ChatGPT 本身的規則,指令中也包含了關於 AI 繪圖工具 Dall-E 及網路查詢功能的規範。例如,「產生影像時無需請求許可,直接執行」以及「即便使用者要求更多影像,也不要建立超過 1 張圖片」。另外,ChatGPT 也被要求在 AI 生成圖像時要避免侵犯版權。
有趣的是,另一位網友在使用 GPT-4o 模型時,發現 AI 擁有不同的性格模板,例如 v1 和 v2,這些模板會影響 AI 的回應語氣和答案呈現。當這位網友詢問 ChatGPT 對於 v3 和 v4 性格的看法時,ChatGPT 回應:「v3 可能傾向更休閒且友好的對話風格;優先考量平易近人的交互方式,使對話更加輕鬆和個性化;而 v4 性格則將針對特定環境或使用者群體進行設計,語氣和風格將進行客製化調整,藉此符合特定領域的需求」。
這起事件不僅揭示了 ChatGPT 背後的運作機制,也突顯了 OpenAI 在設計 AI 時,透過提示詞和性格模板的方式,塑造 AI 的行為和個性。這對於理解 AI 的發展方向和潛在問題具有重要意義,也引發了人們對於 AI 發展的倫理和安全問題的思考。
儘管 OpenAI 的目標是打造更人性化的 AI,但這些內部指令也讓人們不禁思考,當 AI 擁有不同的性格模板時,是否會產生歧視或偏見?如何確保 AI 的行為符合倫理規範?這些都是未來需要深入探討的重要議題。
資料來源:《TechRadar》、《ChatGPT》
【推薦閱讀】
☛ 專屬AI研究助手,FirstradeGPT 讓你的投資決策更聰明 !
☛ Meta 推出 AI Studio 助創作者打造 IG 人工智慧聊天機器人 !!
☛ YouTube Music AI Radio:透過文字或語音輸入打造個人化電台