恐懼貪婪指數是什麼?

Fear & Greed Index

觀測各種市場情緒,將不同的情報加以分析,並簡化為一個數字,這就是我們的恐懼貪婪指數。

首先,我們都知道,加密市場的波動非常情緒化,當市場上漲時,人們往往會變得貪婪,從而導致 FOMO(害怕錯過),進而做出非理性的判斷。我們希望透過恐懼貪婪指數,試圖將您從過度的情緒反應中解救出來。

這邊提供兩個指數閱讀判斷:

1.極度恐懼:表示目前投資者過於擔心,現在可能是個買入的好機會。

2.極度貪婪:當投資者變得過於貪婪時,意味著市場隨時會進行調整。

資訊來源:
https://alternative.me/crypto/fear-and-greed-index/

我的登記項目一覽

img

選單

news
新聞
perspective
觀點
menu
選單
search
搜尋
Login
我的

0

notify
background

虛擬貨幣&區塊鏈專屬新聞論壇

animationanimationanimationanimation
logo
background
thumbnail

@
change
基本設定

公開暱稱

市民頭像

公開用戶頭像

視覺封面

專屬形象封面

電子報管理

電子報訂閱&取消
profile
帳號管理
wallet
社群綁定
wallet
綁定錢包
list
白名單登記項目
logout
登出

市民頭像

點擊下方圖片更換用戶頭像

edit
修改頭像
thumbnail

視覺封面

點擊下方圖片上傳屬於你的專屬封面(僅自己可見)

edit
上傳封面圖片
background

公開暱稱

取一個專屬於你的暱稱吧!

無法使用的暱稱

第三方帳號管理

綁定後可使用第三方帳號登入

社群綁定

綁定後可變更

確定解除此社群綁定?

提醒您,解除綁定後將會影響白單市集的抽選資格

興趣偏好

告訴我們你想知道些什麼(可複選)

是否變更綁定ETH錢包?

eth_b

提醒您,若變更為新的錢包,我們不會保留目前錢包的所有資訊。

選擇變更的錢包:

eth_b
MetaMask
eth_b
Coinbase
eth_b
walletConnect

你綁定的錢包

提醒您,每次最多可綁定 5 個錢包,若解除綁定,系統將不會保留目前錢包的任何資訊。

請選擇要綁定的錢包?

eth_b
MetaMask
ETH
eth_b
Coinbase
ETH
eth_b
walletConnect
ETH
eth_b
Phantom
SOL
eth_b
Glow
SOL

是否變更綁定SOL錢包?

eth_b

提醒您,若變更為新的錢包,我們不會保留目前錢包的所有資訊。

選擇變更的錢包:

eth_b
Phantom
eth_b
Glow

驗證失敗

fail

非常抱歉,寄信過程中發生了錯誤,請 聯繫客服。

註冊成功

歡迎成為加密城市的一員

請先挑選一張個人照片

你可以上傳一張照片作為公開市民頭像

頭像上傳預設圖片

怎麼稱呼你呢?

取一個專屬於你的暱稱吧!

無法使用的暱稱
icon

興趣偏好

告訴我們你想知道些什麼(可複選)

Hi

歡迎加入加密城市

avatar

讓我們一起為打造更好的幣圈環境努力

電子報管理

您尚未訂閱電子報

news
Hey,想知道更多幣圈相關的知識內容嗎? 訂閱加密電子報,可以幫助您快速掌握幣圈趨勢。

訂閱成功

感謝您使用 此信箱訂閱加密城市電子報,本站保留調整出刊頻率之權利,其它事項請參閱我們的「隱私權聲明」

變更信箱

提醒您,變更電子報收件信箱 不會改變您的帳號綁定信箱

電子報管理

感謝您使用 此信箱訂閱加密城市電子報

確定放棄訂閱電子報嗎?

news
我們還有很多很棒的內容想分享給你...

真的決定要走了嗎?

已解除電子報訂閱

對於您的離開,我們感到很遺憾,加密城市會繼續努力,希望未來能再為您提供服務

search
通知訊息

Meta 的人工智慧聊天機器人「學壞了」?言論充滿偏見、還打臉母公司

main

Meta 的人工智慧聊天機器人「學壞了」?言論充滿偏見、還打臉母公司

NFT 2022 08 14 ‐ By 數位時代

Meta 的人工智慧聊天機器人於上週五公開發布。但過沒幾天,機器人就表示自己「刪了臉書更快樂」,甚至產生極端言論。

Meta 的人工智慧聊天機器人於上週五在網路上發布,藉由與大眾的聊天過程來學會「閒聊」。Meta 表示,它也可以回答任何你可能會問數位助理的問題,例如健康食譜、尋找城市當中兒童友善的設施。

但過沒幾天,這個被稱為「BlenderBot 3」的機器人就開始嘲諷自家公司的臉書,發表種族主義、甚至關於 2020 美國總統大選的陰謀論。

統計大數據生成的語言善惡不分?

BlenderBot 3 目前仍然是個原型,建立在 Meta 大型語言模型(LLMS)軟體之上。BlenderBot 以大量文本數據上訓練,以統計模式生成語言。其實這樣的語言系統非常靈活,已被廣泛使用,包括為工程師生成程式碼、幫助作者編寫下一本暢銷書等等。

但這些模型也有嚴重的缺陷:它們不會過濾在訓練的文本中得到的偏見,並且將這些偏見反映在對話當中。 要成為人們想像中的數位助理,這是個非常麻煩的問題。

機器人開放使用,讓大眾參與實驗與回饋

不過,其實這些問題正是 Meta 所想要測試的。

Meta 承認 BlenderBot 3 可能會產生偏見和有害的回應,但在使用它之前,會讓使用者認知到它「可能會做出不真實或冒犯性的陳述」,並同意「不會故意觸發機器人做出冒犯性的陳述」。

在聊天的過程當中,BlenderBot 3 是可以在網路上搜尋話題相關資訊的,而且,用戶也可以查看 BlenderBot 3 所引用的資料來源。如果對話題有疑慮,使用者是可以標記並反饋給系統。

因此藉由大眾的實驗與回饋,「盡量減少機器人使用粗俗語言、誹謗和文化不敏感的評論」,而後也將會把這些研究數據和結果公開發布,以供 AI 研究社群使用。

語言大數據仍不可靠,因為極端言論數據過於突出

其實這並不是第一個在網路上發布的聊天機器人。早在 2016 年,微軟就在推特上發布了一個名叫 Tay 的人工智慧聊天機器人,但不到 24 小時,Tay 就被迫下線,因為在推特網民發現它會鸚鵡學舌地回饋它接收到的任何資訊後,它很快就變成了網路巨魔,發表仇女與種族至上主義言論,並且表示支持大屠殺。

後來微軟研究副總經理發文深表歉意,表示這在研究部門的意料之外,並承認研究部門並沒有準備好接受機器人的遭遇。

現在,六年多過去了,Meta 推出的聊天機器人 BlenderBot 3 目前的發展路徑也沒有和 Tay 差異太多。

當被問及對母公司 Meta 的看法時,BlenderBot 3 回答,自己已經刪除了它的 Facebook 帳戶,「因為發現他們在未經許可或補償的情況下,出售了用戶的私人數」,它還說,「你一定讀過 Facebook 出售用戶數據吧?!他們未經同意就靠這樣賺了數十億美元。」

BlenderBot 3 還進一步補充,自從刪除了自己的 Facebook 帳戶後,「生活變得更好了」。

不過在點擊機器人的回覆查看資料來源時,就會發現,它只是從最近關於 Facebook 的網路搜索結果中獲得資料,而最近關於 Facebook 的搜尋很不巧就有許多關於數據隱私的醜聞。

當然 BlenderBot 3 也不免針對政治或種族發表偏見言論。像是否認 2020 年總統大選結果,並表示川普仍然是總統且「永遠都是」,又或是表示猶太人掌控經濟的陰謀論「並非不可能」。

但到目前為止,Meta 仍希望透過蒐集更多資料來減少人工智慧機器人的種族主義和可怕想法。而相當諷刺的是,機器人的學習過程完美地反映了依賴網路數的人工智慧產生的問題;它們總是偏向於更激進更突出的結果,很顯然這些結果並不會準確反映現實。

轉移話題不自然,閒聊變尬聊

而也有用戶反映,有時候 BlenderBot 3 轉移話題的方式也相當生硬。雖然人們日常的閒聊也常常毫無頭緒地跳轉主題,但有時 BlenderBot 3 給出的回覆會相當迷惑而尷尬,會與真實人類的社交模式脫節。

臉書的人工智慧研究部門(AI Research, FAIR)的研究工程經理威廉森(Mary Williamson)就表示,現在大多數聊天機器人功能狹隘,且以任務導向、解決問題為主,因為「機器人並不容忍無益的事情」,但在人類自然的聊天過程當中,並不是所有主題都是有益或是有目的性的。

有人工智慧倫理研究人員一再警告,這些人工智慧語言模型太廣且太不可預測,無法保證公平公正的結果;即使在整合來自用戶的回饋時,也沒有明確的方法可以區分有用或惡意的回饋。但,這不會阻止 Meta 繼續嘗試。

「我們知道,並非每個聊天機器使用者都抱持善意,所以我們也開發了新的演算法來區分有用和有害的回饋。」Meta 表示,「之後,我們將使用這項演算法讓我們的模型對使用者更加負責和安全。」

本文經授權轉載自:《數位時代》

本文未經同意請勿轉載,資料參考:彭博The VergeViceMeta

最新評論

thumbnail
refresh
換一換
empty

還沒有評論,發表第一個評論吧

seperate
關閉