新課上架🔥 資料探勘,「真正有用」的數據在這!
現正早鳥優惠 👉 https://bit.ly/3pzSR9Q
🎯你知道資料探勘無所不在嗎❓
✔找出最佳投資法
✔金融市場變化趨勢
✔消費者行為分析
✔新客戶開發
✔洞察經營狀況
✔預測天氣
💭但是…
資料來源太多,完全抓不住重點❓
資料太雜亂,無將資訊好好傳達❓
統整好資料,卻又不知道該如何應用❓
🎯不怕學不會!特製 50 題評量幫助你回顧課程概念
🎯一次掌握多種實用工具模組與回歸分析
🔸Pandas / NumPy / SKLearn
🔸購物籃分析
🔸線性迴歸 / 羅吉斯迴歸
🔸決策樹
🔸K-means / DBSCAN
🎯找出數據間的相關性,創造更大收益
🔹預測消費者心理
🔹找出疾病與體適能
🔹分類預測資料
🔹進行用戶分群
資料探勘速成攻略,輕鬆駕馭資料分析與實務應用
現正早鳥優惠 👉 https://bit.ly/3pzSR9Q
#12個精華模組
#50題評量
#資料探索實作_視覺化實例
#關聯分析實作_購物籃分析
同時也有1部Youtube影片,追蹤數超過3萬的網紅孫在陽,也在其Youtube影片中提到,「孫在陽」直播-數據科學與雲遄運算1.using the data 「孫在陽」直播-數據科學與雲遄運算2.Data cleaning up 大數據分析-統計分析從資料取得,資料清理到視覺化分析。如何做大數據分析? 孫在陽老師主講,[email protected] 範例、講義下載:h...
「羅吉斯迴歸」的推薦目錄:
- 關於羅吉斯迴歸 在 緯育TibaMe Facebook 的最佳貼文
- 關於羅吉斯迴歸 在 緯育TibaMe Facebook 的最佳解答
- 關於羅吉斯迴歸 在 Mina 安米娜 Facebook 的最讚貼文
- 關於羅吉斯迴歸 在 孫在陽 Youtube 的最佳貼文
- 關於羅吉斯迴歸 在 [問題] 卡方和羅吉斯迴歸得到不同的結果(己解決) - 看板Statistics 的評價
- 關於羅吉斯迴歸 在 羅吉斯迴歸分析(Logistic regression)-統計說明與SPSS操作 的評價
- 關於羅吉斯迴歸 在 Two-Class 羅吉斯回歸 - GitHub 的評價
- 關於羅吉斯迴歸 在 多元迴歸分析 - 第 805 頁 - Google 圖書結果 的評價
- 關於羅吉斯迴歸 在 SQL Server資料採礦與商業智慧-適用SQL Server 2014/2012(電子書) 的評價
- 關於羅吉斯迴歸 在 道路交通事故特性與對策比較研究(1/2) - 第 xx 頁 - Google 圖書結果 的評價
- 關於羅吉斯迴歸 在 Excel 2013 資料採礦完全手冊 - 第 13-1 頁 - Google 圖書結果 的評價
- 關於羅吉斯迴歸 在 財金統計學: 使用R語言 - 第 375 頁 - Google 圖書結果 的評價
羅吉斯迴歸 在 緯育TibaMe Facebook 的最佳解答
🧠#AI趨勢不可逆 你必知的機器學習
「機器學習(Machine Learning),是人工智慧發展的一環。
指的是讓機器『自主學習』並『增強』的演算法。」
🧠#你該學會機器學習的4大理由 ➡https://bit.ly/36t5uNn
Bain顧問公司研究結果顯示,採用機器學習和分析技術的企業:
❶ 可增加 2 倍以資料分析結果作為依據的決策數量
❷ 決策速度比競爭對手更快的機率可提升 5 倍
❸ 可加快 3 倍原來上述決策的執行速度
❹ 可增加 2 倍原來獲得理想財務回報的機會
想加速決策效率、獲得理想回報?那麼推薦您學習:
【機器學習好簡單,輕鬆讓你一手掌握資料科學實作 10 大技巧】
🧠12 章節X 4.1 小時教學全面解密 #機器學習必備十大技巧
❶線性迴歸 ❷羅吉斯迴歸 ❸決策樹 ❹隨機森林 ❺支援向量機 SVM
❻樸素貝葉斯 ❼集成學習 ❽K-Means ❾階層式分群 ❿密度式分群
🧠#豐富實作
這門課,除了幫助你認識完整的機器學習概念外
還可以實作出超豐富的機器學習應用,如:
「房屋價格預測、股票分析預測、產品品質管理」等類似實作
更多應用請見➡https://bit.ly/36t5uNn
💗貼心提醒:即日起至12/21止,早鳥享8折優惠價1,264元
羅吉斯迴歸 在 Mina 安米娜 Facebook 的最讚貼文
😇很榮幸受邀到 women in data science 2020 演講😇
題目:在網路聲量定產品好壞的年代,我們需要好的機器學習來翻轉👌🏻
在電商時代趨勢下,消費者在購物前習慣透過商品歷史客戶評價(Customer Reviews)來進行選購,就像我在淘寶買衣服之前,一定會看其他消費者穿搭照片一樣,有時候會瞬間滅火,有些衣服在模特身上是玲瓏有緻,穿在一般老百姓身上就是灌香腸。
或是某些客戶習慣A商品頁面攻擊B商品,或是趁機打其他商品廣告,試圖把潛在客戶引開。
客戶評價以往大多採用人工的方式進行審核,但在評價數量與日俱增,我們需要機器學習演算法來簡化人類的工作量🤗,透過演算法的方式針對商品評價進行篩選,不僅可減少人力支出,更可以有效的進行模型優化。
◽️分析工具:
SQL database🐬
python pandas scikit-learn 🐍
◽️實務分析流程:
整理特徵-->處理樣本不平衡-->特徵選擇-->羅吉斯迴歸-->評估指標(recall rate)-->決定臨界值-->結合多模型成就最終版數學模型
◽️白話文:
Customer Reviews是由購買和使用過該產品的顧客對產品進行的評論。
一個新的 評價 進來,丟入最終版數學模型後,模型會給此 評價 一個分數,此時若算出來的 分數>0.75 我們就會直接將這條 評價 放到 電商平台網站上,若 分數< 0.75 則會進一步交由人工小組審查,若通過人工小組審查則放上網站,反之移除。
🍊有趣的小常識:
此次用到的演算法叫羅吉斯回歸(Logistic regression)
,很多朋友都在問為什麼要叫做regression呢?
從前從前英國科學家想要研究“身高都很高的夫妻,是否會生下更高的兒女?”,於是發現父母特徵的確會遺傳給後代,但是並不會產生極端身高的族群。當父母的身高已經遠離平均身高時,生下的兒女身高並沒有持續「遠離」平均,而會稍微「靠近」平均,也就是相對矮了一點。
把這個「極端」往「平均」移動的現象稱為「 regression to the mean 」,很有趣吧🙈🙈
🐶Mina IG : https://reurl.cc/8GZZjb
----------
最後謝謝
讀書會 Republic of AI Developer
研討會 Women in Data Science Taipei
還有週末被我逼迫聽我rehearsal 的朋友們 😆😆
羅吉斯迴歸 在 孫在陽 Youtube 的最佳貼文
「孫在陽」直播-數據科學與雲遄運算1.using the data
「孫在陽」直播-數據科學與雲遄運算2.Data cleaning up
大數據分析-統計分析從資料取得,資料清理到視覺化分析。如何做大數據分析?
孫在陽老師主講,[email protected]
範例、講義下載:https://goo.gl/ytzRxT
時間軸
00:00 簡介
03:40 數據科學
09:30 大數據分析與統計分析的差別
13:35 AI是什麼
14:52 圖靈測試 Turing test
17:35 機器學習
20:47 建模
21:58 用線性迴歸做預測
26:46 用羅吉斯迴歸做分類
28:54 其他機器學習
31:28 研究目的
33:21 數據來源的差別
42:58 取得 Azure API for FHIR 數據
01:10:00 資料清理
01:19:48 如何展開資料
01:37:40 描述性統計:樣本個數
羅吉斯迴歸 在 羅吉斯迴歸分析(Logistic regression)-統計說明與SPSS操作 的推薦與評價
Jan 1, 2020 - 羅吉斯迴歸主要用於依變數為二維變數(0,1)的時候,以下將詳細說明其原理及SPSS操作。 一、使用狀況羅吉斯[…] ... <看更多>
羅吉斯迴歸 在 Two-Class 羅吉斯回歸 - GitHub 的推薦與評價
Two-Class 羅吉斯回歸模組. 本文描述Azure Machine Learning 設計工具中的模組。 您可以使用此模組來建立羅吉斯回歸模型,以用來預測兩個(以及只有兩個) 的結果。 ... <看更多>
羅吉斯迴歸 在 [問題] 卡方和羅吉斯迴歸得到不同的結果(己解決) - 看板Statistics 的推薦與評價
感謝熱心的版友協助
目前已解決這個問題, 謝謝大家哦^^
大家好, 我是統計新手,如果問了很白目的問題
請大家見諒。
我針對一個DV和一個IV同時做了卡方和羅吉斯回歸
卻得到不同的結果,現在我不知道要如何去解讀這個差異
卡方的結果是無顯著差異
羅吉斯卻顯示有組別差異
想請問大家,為什麼有這樣的差異?要如何去解讀呢?
在此先謝謝大家的意見:)
使用的軟體為R
結果複製貼上在下方
Pearson's Chi-squared test
data: acc_frame$value and i
X-squared = 5.4701, df = 4, p-value = 0.2424
Call:
glm(formula = value ~ LanGroup, family = binomial(logit), data = acc_frame)
Deviance Residuals:
Min 1Q Median 3Q Max
-3.0214 0.2343 0.2343 0.2433 0.2520
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 4.5539 0.4496 10.130 <2e-16 ***
LanGroupME_E -1.0487 0.5250 -1.997 0.0458 *
LanGroupME_L -0.9725 0.5303 -1.834 0.0666 .
LanGroupMT_E -0.9725 0.5303 -1.834 0.0666 .
LanGroupMT_L -1.1199 0.5205 -2.152 0.0314 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Null deviance: 561.15 on 2399 degrees of freedom
Residual deviance: 554.60 on 2395 degrees of freedom
AIC: 564.6
Number of Fisher Scoring iterations: 7
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 92.225.98.215
謝謝JeanYCY的提醒,已補上(其實我真的不知道也要看Null deviance 和 Residual
deviance...汗顏)
謝謝yhliu的解答,但可以請您再解釋清楚一點嗎?謝謝^^
在熱心的JeanYCY版友的解說+ google大神, 發現可以用
anovo(glm(variable), test="Chisq") 做整體差異的檢定
以我的例子來說,得到值是和卡方差不多的
提供給日後有需要的版友做參考囉:)
謝謝大家
※ 編輯: sleepingbaby 來自: 92.225.101.143 (11/29 11:09)
... <看更多>