從Alpha—GO到無人駕駛,人工智能AI結合大數據發揮出驚人功效的場景越來越多。如何從零開始真正入門這個領域?人工智能、大數據與復雜系統一月特訓班可以幫到您!
混沌巡洋艦講師團
來自巴黎高師,中科院,北師大等世界著名高校及機構的混沌巡洋艦導師團,為大家在人工智能,大數據與復雜系統的知識海洋里揚帆領航。
課程目錄:
第 1 講復雜系統
1.1物理預測的勝利與失效
1.2預測失效原因
1.3復雜系統引論
1.4生活實例與本章答疑
第 2 講大數據與機器學習
2.1大數據預測因為噪聲失效
2.2大數據與機器學習
第 3 講人工智能的三個階段
3.1規則階段
3.2機器學習階段發展至連接主義階段
3.3課間答疑
3.4連接主義階段發展至深度學習階段
3.5三個階段總結分析
3.6人工智能的應用(一)
3.7人工智能的應用(二)
3.8課間答疑
3.9課程大綱(一)
3.10課程大綱(二)
第 4 講高等數學—元素和極限
4.1實數的定義(一)
4.2實數的定義(二)
4.3實數的定義(三)
4.4實數的元素個數(一)
4.5實數的元素個數(二)
4.6自然數個數少于實數個數(一)
4.7自然數個數少于實數個數(二)
4.8無窮大之比較(一)
4.9無窮大之比較(二)
4.10級數的收斂
4.11極限的定義
4.12極限的四則運算
4.13極限的復合
4.14連續性
第 5 講復雜網絡經濟學應用
5.1用網絡的思維看經濟結構
5.2復雜網絡認識前后
5.3從網絡結構看不同地區(一)
5.4從網絡結構看不同地區(二)
第 6 講機器學習與監督算法
6.1什么是機器學習
6.2機器學習的類型
6.3簡單回歸實例(一)
6.4簡單回歸實例(二)
6.5簡單回歸實例(三)
第 7 講阿爾法狗與強化學習算法
7.1人工智能的發展
7.2強化學習算法(一)
7.3強化學習算法(二)
7.4強化學習算法(三)
7.5Alphago給我們的啟示
7.6無監督學習
第 8 講高等數學—兩個重要的極限定理
8.1元素與極限的知識點回顧
8.2第一個重要極限定理的證明(一)
8.3第一個重要極限定理的證明(二)
8.4夾逼定理
8.5第二個重要極限定理的證明
第 9 講高等數學—導數
9.1導數的定義
9.2初等函數的導數
9.3反函數的導數(一)
9.4反函數的導數(二)
9.5復合函數的導數
9.6泰勒展開
9.7羅爾定理
9.8微分中值定理和柯西中值定理
9.9洛比塔法則
9.10泰勒展開的證明
第 10 講貝葉斯理論
10.1梯度優化(一)
10.2梯度優化(二)
10.3概率基礎
10.4概率與事件
10.5貝葉斯推理(一)
10.6貝葉斯推理(二)
10.7貝葉斯推理(三)
10.8辛普森案件
10.9貝葉斯推理深入
10.10貝葉斯于機器學習(一)
10.11貝葉斯于機器學習(二)
10.12貝葉斯決策(一)
10.13貝葉斯決策(二)
10.14貝葉斯決策(三)
第 11 講高等數學—泰勒展開
11.1泰勒展開
11.2展開半徑
11.3歐拉公式
11.4泰勒展開求極限(一)
11.5泰勒展開求極限(二)
第 12 講高等數學—偏導數
12.1偏導數的對稱性
12.2鏈式法則
12.3梯度算符、拉氏算符
第 13 講高等數學—積分
13.1黎曼積分
13.2微積分基本定理
13.3分部積分(一)
13.4分部積分(二)
第 14 講高等數學—正態分布
14.1標準正態分布
14.2中心極限定理
14.3誤差函數
14.4二維正態分布
14.5多維正態分布
第 15 講樸素貝葉斯和最大似然估計
15.1蒙特卡洛分析(一)
15.2蒙特卡洛分析(二)
15.3貝葉斯先驗
15.4先驗到后驗的過程
15.5樸素貝葉斯(一)
15.6樸素貝葉斯(二)
15.7算法設計
15.8TF-IDF(一)
15.9TF-IDF(二)
15.10樸素貝葉斯(三)
15.11最大似然估計(一)
15.12最大似然估計(二)
第 16 講線性代數—線性空間和線性變換
16.1線性代數概述
16.2線性代數應用方法論
16.3線性乘法的可交換性和結合律
16.4線性空間
16.5線性空間八條法則(一)
16.6線性空間八條法則(二)
16.7線性空間八條法則(三)
16.8連續傅立葉變換
16.9離散傅立葉變換
16.10非常規線性空間
16.11線性相關和線性無關
16.12秩
第 17 講數據科學和統計學(上)
17.1課程Overview
17.2回顧統計學(一)
17.3回顧統計學(二)
17.4回顧統計學(三)
17.5回顧數據科學(一)
17.6回顧數據科學(二)和教材介紹
17.7R和RStudio等介紹(一)
17.8R和RStudio等介紹(二)
17.9隨機變量(一)
17.10隨機變量(二)
17.11換門的概率模擬計算(一)
17.12換門的概率模擬計算(二)
17.13換門的概率模擬計算(三)
第 18 講線性代數—矩陣、等價類和行列式
18.1線性代數知識點回顧
18.2矩陣表示線性變化
18.3可逆矩陣表示坐標變化
18.4相似矩陣
18.5相似矩陣表示相同線性變化
18.6線性代數解微分方程
18.7矩陣的運算—轉秩(一)
18.8矩陣的運算—轉秩(二)
18.9等價關系
18.10等價類
18.11行列式(一)
18.12行列式(二)
18.13行列式(三)
第 19 講Python基礎課程(上)
19.1Python介紹(一)
19.2Python介紹(二)
19.3變量—命名規范
19.4變量—代碼規范
19.5變量類型—數值類型
19.6變量類型—bool類型
19.7變量類型—字符串類型(一)
19.8課間答疑
19.9變量類型—字符串類型(二)
19.10變量類型—字符串類型(三)
19.11變量類型—列表類型(一)
19.12變量類型—列表類型(二)
19.13變量類型—列表類型(三)
19.14變量類型—元組類型、字典類型(一)
19.15變量類型—字典類型(二)
第 20 講線性代數—特征值與特征向量
20.1線性代數知識點回顧
20.2例題講解(一)
20.3例題講解(二)
20.4例題講解(三)
20.5特征值與特征向量的物理意義
20.6特征值與特征向量的性質(一)
20.7特征值與特征向量的性質(二)
20.8本征值的計算(一)
20.9本征值的計算(二)
20.10線性代數核心定理
20.11對偶空間(一)
20.12對偶空間(二)
20.13歐氏空間與閔氏空間
20.14厄米矩陣
第 21 講監督學習框架
21.1經驗誤差和泛化誤差
21.2最大后驗估計
21.3正則化
21.4lasso回歸
21.5超參數(一)
21.6超參數(二)
21.7監督學習框架(一)
21.8監督學習框架(二)
21.9KNN(K最近鄰)算法(一)
21.10KNN(K最近鄰)算法(二)
21.11KNN(K最近鄰)算法(三)
21.12線性分類器
21.13高斯判別模型(一)
21.14高斯判別模型(二)
第 22 講Python基礎課程(下)
22.1條件判斷(一)
22.2條件判斷(二)
22.3循環(一)
22.4循環(二)
22.5課間答疑
22.6循環(三)
22.7循環(四)
22.8函數(一)
22.9函數(二)