Deepmind一直在人工智慧強化學習上,
有很驚人的表現,
2016年在AlphaGo,
後來在海綿體模擬,
現在還會在遊戲中發脾氣,
結果因此贏了。
#人工智慧
AIoT數位轉型在中小製造企業的實踐 博客來購買:https://www.books.com.tw/products/0010898976
AIoT數位轉型策略與實務 博客來購買:https://www.books.com.tw/products/0010875914
AIoT的現在與未來Ted演講:https://www.youtube.com/watch?v=lCXRPlaUk0s&t=4s
中華亞太智慧物聯發展協會協助企業數位轉型 https://www.facebook.com/APAC.AIOT/
昱創企管顧問有限公司 https://rich4innovation.com/
https://technews.tw/2021/08/12/is-deepminds-new-reinforcement-learning-system-a-step-toward-general-ai/
同時也有1部Youtube影片,追蹤數超過8萬的網紅范琪斐,也在其Youtube影片中提到,唯一戰勝 Google 旗下 Deep Mind 公司開發的人工智慧 AlphaGo 的南韓棋王李世乭,宣布將要退休,因為他認為人類永遠沒辦法擊敗人工智慧。 不過演算法不是只會越來越強大,為什麼 AlphaGo 會錯判輸給李世乭呢? 因為AlphaGo 有個叫『隨機森林』的算法,可以預測對手可能...
alphago強化學習 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答
Google AI 設計晶片速度大勝人類!不到 6 小時完成平面圖
作者 林 妤柔 | 發布日期 2021 年 06 月 11 日 12:26 |
Google 聲稱,新 AI 設計晶片的速度比人類還快,能在不到 6 小時內設計出人類至少要花數個月才能完成的晶片設計,論文刊登在《自然》期刊。
AI 已用於開發 Google 最新一代 TPU 加速器,這項突破將對半導體產業有著重大影響。換言之,Google 正在使用 AI 設計晶片,這些晶片能用來創造更複雜的人工智慧系統。
Google 的新 AI 能繪製晶片的「平面圖」,這涉及繪製 CPU、GPU 和內存等組件在晶片的相對位置,這些位置將影響晶片的功耗和處理速度,且在功耗、性能、晶片面積等關鍵參數指標,都優於人類設計的平面圖。
一般來說,人類晶片設計師通常以整齊的線條排列組件,並花數個月的時間改進這些平面圖設計,但 Google 的 AI 則使用更分散的方法設計晶片,並藉由深度強化學習系統 6 小時內完成。
2016 年,南韓棋王李世乭代表人類出戰 AlphaGo,以一勝四敗成績輸給 AlphaGo,震驚全世界;這狀況 AI 的演算法訓練為移動棋子,增加棋局獲勝的機會。研發晶片部分,AI 訓練找出組件的最佳組合,盡可能提高運算效率,AI 系統會植入 10,000 張晶片平面圖,以便學習哪些有效、哪些無效。
《自然》期刊認為,Google 的研究可說是重要突破,有助於加快供應鏈速度,但這項技術必須廣泛分享共用,以確保 Google 生態系統全球化,此外產業也要確保節省時間的技術不會趕走擁有核心技術的人才。
資料來源:https://technews.tw/2021/06/11/google-uses-a-i-to-design-chips-faster-than-humans/?fbclid=IwAR3rE_KhmcAaLuL-LGA4XfV9osYScugR7uxMRHvC8LXN4lyRUF0_Rs0cXrQ
alphago強化學習 在 Nutanix 台灣 Facebook 的最佳貼文
【AI 再次打破人類紀錄!攻破史上最難遊戲 QWOP】
繼AlphaGo之後,AI又再次打破人類玩家的紀錄,攻破一款13年前曾經風靡一時的超高難度小遊戲QWOP。數據分析師Liao利用多種強化學習算法,甚至邀請全球排名前二的玩家進行教學。
#Nutanix #nutanixTW #AI #QWOP #Liao #Kurodo #AlphaGo
➡️立即加入Nutanix LINE@:https://line.me/R/ti/p/%40sqz5036h
alphago強化學習 在 范琪斐 Youtube 的精選貼文
唯一戰勝 Google 旗下 Deep Mind 公司開發的人工智慧 AlphaGo 的南韓棋王李世乭,宣布將要退休,因為他認為人類永遠沒辦法擊敗人工智慧。
不過演算法不是只會越來越強大,為什麼 AlphaGo 會錯判輸給李世乭呢?
因為AlphaGo 有個叫『隨機森林』的算法,可以預測對手可能會下哪一步,但李世乭這一步下在 AlphaGo 認為對方不可能會去下的那一步,李世乭當時下完這步棋,Alphago 還認為自己的贏面超過八成,繼續往後下了十手之後,Alphago 自己有一個勝率的表,突然開始下降,發現自己處於弱勢了,開始慌張了,於是 Alphago 就開始亂下險棋,出現了連業餘選手都不會犯的錯,想賭李世乭會出錯,最後就輸了。
但 AlphaGo 也從敗給李世乭找到自身弱點,再次強化學習能力。像 AlphaGo 的孿生兄弟 AlphaGo Zero,就是完全不靠任何人類經驗訓練的神經網路,它就是不斷跟自己對戰學習,結果在自學 3 天後,就以 100:0 打敗了舊版 AlphaGo ,自學 40 天後,就擊敗了曾經戰勝中國棋手柯潔的 AlphaGo Master,成為世界上最強的圍棋程式!
雖然未來人類可能再也贏不過AI,不過AI 的加入反而讓圍棋有了更多玩法,這時候 AI 的功能,是在擴展人類棋手的思路,和人類合作一起探索圍棋還未被發掘的領域。
因為圍棋是世界上最複雜的遊戲!是看哪個顏色的棋子,圈出的空間最多,誰就獲勝。聽起來規則很簡單,但實際上卻複雜到不行。
圍棋的棋盤是 19X19,通常一步會有 200 種下法,圍棋變化位置的排列組合一共有10 的 170 次方種可能性,比整個宇宙的原子數ㄅ10 的 80 次方還要多更多!人類通常都只能憑經驗跟感覺判斷,但判斷才是最困難的。剛有說嘛,圍棋的勝負是由最終局時,雙方控制地盤的多寡決定,但棋局進行到一半,雙方的地盤都還沒封閉,怎麽判斷形勢呢?很多職業棋手之間微妙的差異,就是體現在這個判斷能力上。
但就連開發 AlphaGo 的團隊都坦言,AlphaGo 面前的最大問題,和人類棋手是一樣的,就是圍棋太難了,還有規則中的規則,例如優勢、虧損、打劫,雖然 AlphaGo 的勝利或失敗,完全取決於這些機率的估計是否準確,但計算力還遠遠達不到『最優解』的程度。目前AlphaGo 團隊的做法是,讓AlphaGo學習像人類棋手一樣,去選點和判斷。
當機器把一件事情做得比人類好時,我們還能做什麼?
你對棋王退休有什麼看法?快和我們一起分享!
---------
《#范琪斐ㄉ寰宇漫遊》每週四晚間十點在寰宇新聞播出,沒跟上的也沒關係,歡迎訂閱我們的 YouTube 頻道 🔔#范琪斐ㄉ寰宇漫遊 🔔https://reurl.cc/ZvKM3 十點半準時上傳完整版!