2023/4/8

OpenAI剛發佈的GPT-4 可能出現了通用人工智能的火花而GPT-5即將於年底面世...


一群具備AGI的機器人正準備上工
《The Animatrix - The Second Renaissance》

只要模型參數夠多、電腦算力夠大,量變最終引起質變。等到AI開始設計AI的軟硬體,軟硬體再回過頭強化AI,人工智能的奇點就到了。

相關報導:

【人工智慧】微軟 154 頁論文7萬字濃縮精華版 | 首次揭示 GPT-4 超能力 | 智能水平已非常接近人類水平 | 為何是通用人工智慧 (AGI) 的早期版本

GPT-4 具備「自我反思」能力,研究顯示經反思後表現提升 30%!

GPT-5 今年 Q4 推出!若實現 AGI,全世界將會天翻地覆劇變

不過,不建議跟AI諮詢佛教義理,有網友與GhatGPT討論自我及生死的本源,結果它的回答「慘不忍睹」,而且有很大概率會誤導使用者,原因可能有二:

1. 模型大概只讀過很有限的通俗資料(也包含了錯誤的資料),仍然有大量中文資料不在它的所知範圍,其實正確答案早已散見於大乘經典及祖師語錄之中:

《楞伽阿跋多羅寶經》卷4:「大慧!如來藏者,輪轉、涅槃苦樂因。」

《大寶積經》卷119:「世尊!生死者依如來藏,以如來藏故說前際不可了知。世尊!有如來藏故得有生死,是名善說。」

《成唯識論》卷3:「有諸趣者,有善惡趣。謂由有此第八識故,執持一切順流轉法,令諸有情流轉生死。」

《宗鏡錄》卷73:「唯第八識。是諸異熟之根本。若無此識。生死不成。」

2. 目前還在牙牙學步的AI仍不具備良好的邏輯能力,導致它無法理解佛教,也不清楚自己在說什麼,而大量生成式訓練產生的回答很容易讓人誤以為它很懂,其實它只是擅長「裝懂」。

這裡舉出一個證據說明chatGPT是在裝懂,有使用者請chatGPT搜尋7篇學術論文並將內容整理成表格,發現它不但錯誤率很高,而且還會虛構內容:
https://www.facebook.com/groups/chatgpt2app/posts/8978956088813476

個人認為AI最應該設定的道德底線就是在它不知道的時候說「不知道」,而非瞎編。不過chatGPT大概連「自己不知道」這件事都不知道,所以用AI來學佛,會有很大的問題,如果未經揀擇,將AI虛構的內容信以為真,就會受到誤導。

對於「為何有我?」、「為什麼有生死?」這兩個大哉問,這裡很難詳細說明,有興趣的讀者可以報名4月底即將開課的免費課程,每個禮拜除了兩小時循序漸深的基礎佛學課程,課後還有老師可以當面諮詢,肯定會比問AI正確。

https://www.enlighten.org.tw/newsflash/class


 

沒有留言:

張貼留言