APP Download
加密城市:最全面的區塊鏈資訊平台
觀測各種市場情緒,將不同的情報加以分析,並簡化為一個數字,這就是我們的恐懼貪婪指數。
首先,我們都知道,加密市場的波動非常情緒化,當市場上漲時,人們往往會變得貪婪,從而導致 FOMO(害怕錯過),進而做出非理性的判斷。我們希望透過恐懼貪婪指數,試圖將您從過度的情緒反應中解救出來。
這邊提供兩個指數閱讀判斷:
1.極度恐懼:表示目前投資者過於擔心,現在可能是個買入的好機會。
2.極度貪婪:當投資者變得過於貪婪時,意味著市場隨時會進行調整。
0
通過驗證後可享有更完整的功能
如果您沒有收到簡訊驗證碼或一次性密碼(OTP),請先參考以下排除方式:
若還是無法收到驗證碼,歡迎聯繫我們為您提供幫助
點擊下方圖片更換用戶頭像
點擊下方圖片上傳屬於你的專屬封面(僅自己可見)
取一個專屬於你的暱稱吧!
無法使用的暱稱
綁定後可使用第三方帳號登入
綁定後可變更
提醒您,解除綁定後將會影響部分功能
告訴我們你想知道些什麼(可複選)
提醒您,若變更為新的錢包,我們不會保留目前錢包的所有資訊。
選擇變更的錢包:
提醒您,每次最多可綁定 5 個錢包,若解除綁定,系統將不會保留目前錢包的任何資訊。
為自己負責
去中心化錢包是您的資產,也是責任。
提醒您,若變更為新的錢包,我們不會保留目前錢包的所有資訊。
選擇變更的錢包:
歡迎成為加密城市的一員
你可以上傳一張照片作為公開市民頭像
取一個專屬於你的暱稱吧!
告訴我們你想知道些什麼(可複選)
歡迎加入加密城市
讓我們一起為打造更好的幣圈環境努力
您尚未訂閱電子報
感謝您使用 此信箱訂閱加密城市電子報,本站保留調整出刊頻率之權利,其它事項請參閱我們的「隱私權聲明」
提醒您,變更電子報收件信箱 不會改變您的帳號綁定信箱
感謝您使用 此信箱訂閱加密城市電子報
真的決定要走了嗎?
對於您的離開,我們感到很遺憾,加密城市會繼續努力,希望未來能再為您提供服務
使用 Email 完成帳號註冊
提醒您,信箱註冊後無法變更
這意味著您的資料將不再顯示在加密城市中,也將無法繼續參與白單市集的抽獎活動。
如果您停用加密城市帳戶,可以在30天內還原,但如果30天內未登入,帳戶和個人資料將永久刪除。
若您有需要,歡迎隨時聯繫我們以獲得支援和協助。我們重視您的隱私和資料安全。
Meta 的人工智慧聊天機器人於上週五在網路上發布,藉由與大眾的聊天過程來學會「閒聊」。Meta 表示,它也可以回答任何你可能會問數位助理的問題,例如健康食譜、尋找城市當中兒童友善的設施。
但過沒幾天,這個被稱為「BlenderBot 3」的機器人就開始嘲諷自家公司的臉書,發表種族主義、甚至關於 2020 美國總統大選的陰謀論。
統計大數據生成的語言善惡不分?
BlenderBot 3 目前仍然是個原型,建立在 Meta 大型語言模型(LLMS)軟體之上。BlenderBot 以大量文本數據上訓練,以統計模式生成語言。其實這樣的語言系統非常靈活,已被廣泛使用,包括為工程師生成程式碼、幫助作者編寫下一本暢銷書等等。
但這些模型也有嚴重的缺陷:它們不會過濾在訓練的文本中得到的偏見,並且將這些偏見反映在對話當中。 要成為人們想像中的數位助理,這是個非常麻煩的問題。
機器人開放使用,讓大眾參與實驗與回饋
不過,其實這些問題正是 Meta 所想要測試的。
Meta 承認 BlenderBot 3 可能會產生偏見和有害的回應,但在使用它之前,會讓使用者認知到它「可能會做出不真實或冒犯性的陳述」,並同意「不會故意觸發機器人做出冒犯性的陳述」。
在聊天的過程當中,BlenderBot 3 是可以在網路上搜尋話題相關資訊的,而且,用戶也可以查看 BlenderBot 3 所引用的資料來源。如果對話題有疑慮,使用者是可以標記並反饋給系統。
因此藉由大眾的實驗與回饋,「盡量減少機器人使用粗俗語言、誹謗和文化不敏感的評論」,而後也將會把這些研究數據和結果公開發布,以供 AI 研究社群使用。
語言大數據仍不可靠,因為極端言論數據過於突出
其實這並不是第一個在網路上發布的聊天機器人。早在 2016 年,微軟就在推特上發布了一個名叫 Tay 的人工智慧聊天機器人,但不到 24 小時,Tay 就被迫下線,因為在推特網民發現它會鸚鵡學舌地回饋它接收到的任何資訊後,它很快就變成了網路巨魔,發表仇女與種族至上主義言論,並且表示支持大屠殺。
後來微軟研究副總經理發文深表歉意,表示這在研究部門的意料之外,並承認研究部門並沒有準備好接受機器人的遭遇。
現在,六年多過去了,Meta 推出的聊天機器人 BlenderBot 3 目前的發展路徑也沒有和 Tay 差異太多。
當被問及對母公司 Meta 的看法時,BlenderBot 3 回答,自己已經刪除了它的 Facebook 帳戶,「因為發現他們在未經許可或補償的情況下,出售了用戶的私人數」,它還說,「你一定讀過 Facebook 出售用戶數據吧?!他們未經同意就靠這樣賺了數十億美元。」
BlenderBot 3 還進一步補充,自從刪除了自己的 Facebook 帳戶後,「生活變得更好了」。
不過在點擊機器人的回覆查看資料來源時,就會發現,它只是從最近關於 Facebook 的網路搜索結果中獲得資料,而最近關於 Facebook 的搜尋很不巧就有許多關於數據隱私的醜聞。
當然 BlenderBot 3 也不免針對政治或種族發表偏見言論。像是否認 2020 年總統大選結果,並表示川普仍然是總統且「永遠都是」,又或是表示猶太人掌控經濟的陰謀論「並非不可能」。
但到目前為止,Meta 仍希望透過蒐集更多資料來減少人工智慧機器人的種族主義和可怕想法。而相當諷刺的是,機器人的學習過程完美地反映了依賴網路數的人工智慧產生的問題;它們總是偏向於更激進更突出的結果,很顯然這些結果並不會準確反映現實。
轉移話題不自然,閒聊變尬聊
而也有用戶反映,有時候 BlenderBot 3 轉移話題的方式也相當生硬。雖然人們日常的閒聊也常常毫無頭緒地跳轉主題,但有時 BlenderBot 3 給出的回覆會相當迷惑而尷尬,會與真實人類的社交模式脫節。
臉書的人工智慧研究部門(AI Research, FAIR)的研究工程經理威廉森(Mary Williamson)就表示,現在大多數聊天機器人功能狹隘,且以任務導向、解決問題為主,因為「機器人並不容忍無益的事情」,但在人類自然的聊天過程當中,並不是所有主題都是有益或是有目的性的。
有人工智慧倫理研究人員一再警告,這些人工智慧語言模型太廣且太不可預測,無法保證公平公正的結果;即使在整合來自用戶的回饋時,也沒有明確的方法可以區分有用或惡意的回饋。但,這不會阻止 Meta 繼續嘗試。
「我們知道,並非每個聊天機器使用者都抱持善意,所以我們也開發了新的演算法來區分有用和有害的回饋。」Meta 表示,「之後,我們將使用這項演算法讓我們的模型對使用者更加負責和安全。」
本文經授權轉載自:《數位時代》
最新評論
還沒有評論,發表第一個評論吧