#Adobe 財報優於預期,ARR(annualized recurring revenue)增加4.6億美金,同比增長24%,盤後大漲 2% 以上,股價突破到 510 美金。
👉https://rayskyinvest.org.in/ADBE-2020財報
-
自從看了 2018 年的 Sneak Peeks 發表會後,我決定開始關注 #Adobe ,理由很簡單,當時正好研究所就是在做 AI ,同時對這間公司所掌握的 AI 技術產生極大的興趣,因此就一邊蒐集資料、一邊研讀相關論文,不知不覺兩年就過去了......
2019 年 11 月,我在分享自己關注並投資 #ADBE 的理由,當時股價才 280 左右,如今已經上漲到 510 了!
記得不少人當時說想等它跌下來再進場,也有人說已經漲到 380 了下次再關注,但像這種具有強大護城河、擁有技術城牆的公司來說,長期來看只會繼續突破新高,大多數人所期待的「回跌再買」這件事往往很難實踐。
最近看到很多人開始討論 Adobe,因此就把之前整理的資料分享出來,主要都是和 AI 技術有關的,有興趣的人可以自行拿去參考!
也歡迎大家在下面留言分享,你對 Adobe 這支股票的看法及心得囉!
-
【Adobe 擁有的 AI 技術 (蒐集時間:2018-2020)】
「回溯 PS 後的圖片技術」:也就是把修過的圖片,還原成本來狀態(技術上,是將 ResNet 做變型) https://buzzorange.com/techorange/2019/06/20/ai-reverse-photoshop/
「研發出 CNN 的平行不變性」:簡單說,CNN是AI在圖片處理上一個很重要的技術,主要是過去有「只要圖像一平移,CNN就認不出來了」的問題,如今已被解決!
https://bangqu.com/49Shk9.html
「2D 圖轉換成 3D圖技術」:這是由一位實習生(現已任職Google)開發,使用了Mask R-CNN 的模型做變化,最後做出相當了不起的應用!
https://bangqu.com/ow6411.html
「精細截圖技術」:如果說你今天有一張狗狗的照片,你要如何將狗狗的身形從照片中擷取下來呢,並且連毛髮都精細截圖?
https://bangqu.com/y2Cvud.html
「修圖、影像剪輯上的應用」
https://www.uisdc.com/adobe-new-technology
https://technews.tw/2019/09/17/adobe-premiere-pro-auto-reframe/
「在 AR 上的應用,拿既有素材製作成AR影像並發表」
https://www.adobe.com/tw/products/aero.html
「打擊不實合成圖! Adobe發表AI工具 可偵測出「修圖」痕跡」
https://newtalk.tw/news/view/2019-11-07/322702
-
【加入Telegram 與 Line 群】
漫談美股吃鮪魚
👉https://t.me/joinchat/L9lTJRvlVybefGlNDHDd3w
雷司紀小道投資免費訂閱
👉https://t.me/rayskyinvestment
漫談美股群(美股、ETF交流)
💪 https://rayskyinvest.org.in/Line漫談美股群
resnet論文 在 DeepBelief.ai 深度學習 Facebook 的最讚貼文
使用FP16替代FP32是常見的加速策略,但後遺症是精度的喪失,但是現在ReActNet可以在最極端的二值化網路下取得比fp32 Resnet更好的精確度,可以說是里程碑等級的論文
https://mp.weixin.qq.com/s/GKcP3buzUl24qlGRzSFWYA
resnet論文 在 工研院巨量資訊科技中心 - ITRI Facebook 的最讚貼文
DeepMind 從完全 Zero Knowledge (零知識) 訓練出史上最強的圍棋程式 AlphaGo Zero, 真的是非常偉大的成就, 絕對是歷史性的. 試想若很多應用問題也可以是從 "零" 開始呢? 這至少開啟了一頁新的研究領域.
不過這裡, 我想來探討一個大眾比較沒有關注到的問題, 甚至常常被 misleading 的問題, 那就是 AlphaGo Zero 背後的計算資源問題. 雖然 AlphaGo Zero 已經比 AlphaGo Lee 版本乾淨俐落, 效率高, 但是其計算量實際上仍是非常驚人,
我們的估計至少用了千顆 TPU!!!
附上的兩個連結, 他們也估計 AlphaGo Zero 大約用了數千顆 TPU.
https://groups.google.com/forum/…
https://www.reddit.com/…/alphago_zero_learning_fr…/dokj1uz/…
許多媒體報導(包括 搜狐, 鏡報, ...) 「AlphaGo Zero在三天的時間用4個TPU,和自己對打490萬場棋,最後以100比0擊敗了他的哥哥AlphaGo;但AlphaGo用48個TPU,花了數個月時間學習3,000萬場棋局,才打敗人類。」 這似乎是說用 4 個TPU和自己對打490萬場棋, 就可以了. 這與我們的了解差距很大.
那千顆 TPU以上 是甚麼概念呢?
由於TPU一般人尚無法使用到, 我就用大家比較熟悉且CP值非常高的 GPU, GTX 1080 Ti, 來比較, 這也是我們 CGI 使用的 GPU, 我們的估算是:
約等同於使用萬顆1080Ti以上.
首先, 這裡透露一下, AlphaGo Zero 用的 resnet 與 我們 CGI 用的幾乎一樣, 因此我們可以從我們的數據推估:
DeepMind 用的 20-block, 模擬一個盤面約 2.2毫秒 (2.2 ms / simulation)
DeepMind 用的 40-block, 模擬一個盤面約 4.4毫秒 (4.4 ms / simulation)
依據論文, 整個訓練最主要的 bottleneck 在於自我對弈的計算, 總計算量如下:
* 20-block版本對弈了490萬盤 (4.9M game), 40-block版本對弈了2900萬盤 (29M game)
* 每盤棋保守假設平均200手 (200 moves/game)
* 每一手棋需要模擬1600次 (1600 simulations/move)
* 每次模擬時間: 2.2 ms (20-block版本), 4.4 ms (40-block版本) 如上.
其實大家簡單換算一下就可以得到以下數據:
AlphaGo Zero 的 20-block 版本:
若用一顆 1080 Ti, 總時間是 4.9M*200*1600*2.2/1000 ~= 34億秒 ~= 40000天 ~= 109年
若用100顆, 需要約 1.1年
若用1000顆, 需要約 40天
AlphaGo Zero 的 40-block 版本:
若用一顆 1080 Ti, 總時間是 29M*200*1600*4.4/1000 ~= 409億秒 ~= 470000天 ~= 1294年
若用100顆, 需要 13年
若用1000顆, 需要 15月 (466天)
從上述分析, 也可以得到以下結論:
1. 從另外一個角度看, DeepMind 僅40天就可以把 40-block 版本練起來, 換算一下, DeepMind 等於用了約12000顆 1080 Ti.
2. 若以上的分析沒有錯誤, 我們預計在今年 12 月的圍棋比賽(只剩下50天左右), 騰訊的絕藝幾乎是絕對的贏家, 因我們相信除了騰訊以外, 似乎沒有其他參賽者能擁有這麼多的GPU (DeepZenGo雖不少, 但也沒有這麼多). 因此, 除非有人發想出更好的 optimization 演算法或除非有其他大公司冒出來, 騰訊的絕藝必然奪冠, 不太有懸念!
以上若有任何錯誤, 歡迎指正. 謝謝!
吳毅成
resnet論文 在 ResNet论文解读 的推薦與評價
这篇论文主要用于解决网络层数加深时,模型的训练问题. 深度网络的退化问题. 如下图所示,为历年ISLVRC竞赛中取得冠军的各个网络结构,观察该图片可知, ... ... <看更多>