(相關(guān)資料圖)
熱門聊天機器人(300024)ChatGPT背后的人工智能研究公司OpenAI表示,該公司正在努力減少系統(tǒng)中的偏見,并將允許用戶在一系列關(guān)于其結(jié)果中的不當交互和錯誤的報告后自定義其行為。
該公司在一篇博客文章中表示:“我們正在投資于研究和工程,以減少ChatGPT在回應(yīng)不同輸入時存在的明顯和微妙的偏見。在某些情況下,ChatGPT目前拒絕了它不應(yīng)該拒絕的輸出,在某些情況下,它不會在應(yīng)該拒絕的時候拒絕。”
OpenAI正在回應(yīng)有關(guān)ChatGPT本身關(guān)于偏見、不準確和不當行為的報告,以及對微軟(MSFT.US)和谷歌(GOOG.US)正在測試的基于聊天機器人的新搜索產(chǎn)品的更廣泛批評。據(jù)報道,微軟在周三的一篇博客文章中詳細介紹了它了解到的基于OpenAI技術(shù)的新必應(yīng)(Bing)聊天機器人的局限性,此外,谷歌已經(jīng)要求員工花時間手動改進其Bard系統(tǒng)的答案。
最后,總部位于舊金山的OpenAI還表示,該公司正在開發(fā)ChatGPT的更新,允許每個用戶進行有限的定制,以適應(yīng)他們的品味、風格和觀點。
OpenAI周四寫道:“我們認為,人工智能應(yīng)該是對個人有用的工具,因此每個用戶都可以在社會規(guī)定的限度內(nèi)進行定制。這將意味著允許其他人(包括我們自己)可能強烈反對的系統(tǒng)輸出。在這方面取得適當?shù)钠胶鈱⑹且粋€挑戰(zhàn),因為將定制化做到極致可能會使惡意使用我們的技術(shù)和阿諛奉承的人工智能,從而盲目地放大人們現(xiàn)有的信念。因此,系統(tǒng)行為總會有一些界限。”
關(guān)鍵詞: 人工智能 阿諛奉承 系統(tǒng)輸出