日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

前言

如果嫌麻煩,你可以直接跳到正題觀看~

最近無論是在工作中的交談,還是在日常刷屏的新聞,鋪天蓋地的都是大模型。我橫豎是看不明白,費(fèi)了大勁終于從字縫里看到了兩個(gè)字,玄學(xué)。仿佛回到了我的學(xué)生時(shí)代。

還記得6年前剛進(jìn)入研究生實(shí)驗(yàn)室時(shí),師兄興奮的對(duì)我說:小伙子,歡迎來到我們的修仙世界!——當(dāng)時(shí)學(xué)校跟英偉達(dá)合作,剛剛從英偉達(dá)那里弄了500塊Tesla顯卡,供各個(gè)實(shí)驗(yàn)室申請(qǐng)使用。這,是我們嶄新的煉丹爐。經(jīng)過3年的研究生生涯,我對(duì)深度學(xué)習(xí)的理解,僅僅到能夠使用深度學(xué)習(xí)模型的程度。期間也有一些小成績,包括一篇CCF B類會(huì)議論文和一篇KBS期刊(影響因子8.038) ,文章內(nèi)容主要是使用LSTM對(duì)用戶興趣偏好和用戶興趣遷移建模,以此來搭建一個(gè)推薦算法模型。

我們通過對(duì)各種神經(jīng)網(wǎng)絡(luò)模型的堆疊以及反復(fù)的對(duì)比實(shí)驗(yàn),確實(shí)發(fā)現(xiàn)LSTM模型的能夠在準(zhǔn)確率、召回率等指標(biāo)上有比較突出的效果。但是有一個(gè)很大的問題攔在我面前:我如何去解釋它?確實(shí),我們沒法從直觀定性的角度去解釋,也沒有數(shù)學(xué)邏輯能解釋。索性我們當(dāng)時(shí)就套用了大家統(tǒng)一的口徑,解釋說LSTM具有長短時(shí)記憶能力,因此能夠歸納隨著時(shí)間軸變化的數(shù)據(jù)規(guī)律。還好當(dāng)時(shí)的審稿人并沒有對(duì)我們的解釋提出質(zhì)疑,也可能不只是我一個(gè),而是大家的論文都沒有很好的解釋它。

無論是簡單的FC、CNN、RNN、LSTM這些模型,還是當(dāng)下最火的所謂的大模型依賴的Transformer模型,都是基于梯度下降和反向傳播進(jìn)行訓(xùn)練,至于為什么通過這樣的訓(xùn)練就能讓模型中參數(shù)自動(dòng)自洽,到如今也沒有人能夠證明。我們只是知道通過這樣去構(gòu)造模型確實(shí)行之有效。

相反,很多傳統(tǒng)的機(jī)器學(xué)習(xí)算法,要么有嚴(yán)格的數(shù)學(xué)證明,要么是直觀就能觀察到算法的過程。相比于深度學(xué)習(xí)模型,我認(rèn)為能夠提出這些傳統(tǒng)機(jī)器學(xué)習(xí)算法的前輩們更加值得敬佩。因此,本文主要是簡單的分享一個(gè)所謂「傳統(tǒng)機(jī)器學(xué)習(xí)算法」在實(shí)際業(yè)務(wù)中的使用場景。當(dāng)然,我再次聲明我對(duì)深度學(xué)習(xí)的理解尚淺,如有表述不當(dāng)之處,可以互相交流。

正題

在計(jì)劃域中,有很多很有意思的問題需要解決,包括如何制定中長期采購計(jì)劃?如何制定短期補(bǔ)貨計(jì)劃?倉庫庫存偏倉怎么辦,如何配平,是否需要調(diào)撥?我能預(yù)測一下未來一段時(shí)間某個(gè)貨能賣多少嗎?解決每一個(gè)問題,都能給供應(yīng)鏈的效率和損益帶來巨大價(jià)值。

那我們以調(diào)撥計(jì)劃為例,看看這些算法是怎么優(yōu)雅地解決這個(gè)問題的——這里說到的算法,都是傳統(tǒng)的機(jī)器學(xué)習(xí)算法。

?模型定義:如何用數(shù)學(xué)模型定義一個(gè)調(diào)撥業(yè)務(wù),并將業(yè)務(wù)目標(biāo)變成模型目標(biāo)函數(shù)

為了降低問題的復(fù)雜度,便于大家理解,這里我們的對(duì)問題的定義進(jìn)行了一定的簡化,比如不考慮未來銷售可能存在的波動(dòng)、偏倉造成的銷售機(jī)會(huì)損失、貨物在運(yùn)輸途中存在損毀概率等等。并且,下面的案例只給了一個(gè)調(diào)出倉、一個(gè)調(diào)入倉。實(shí)際業(yè)務(wù)中問題更復(fù)雜,定義約束也更多,求解的模型可能會(huì)不一樣。算法大佬們輕噴~

  • 前置知識(shí)

偏倉:在倉庫存在全國各個(gè)倉分布不均衡,是否均衡的判斷標(biāo)準(zhǔn)是該倉覆蓋范圍內(nèi)潛在的購買量和倉庫已有庫存量是否匹配

調(diào)撥:將貨物從A倉集中搬運(yùn)到B倉

發(fā)貨:從倉庫出庫+運(yùn)輸+末端派送至消費(fèi)者

跨區(qū)發(fā)貨:消費(fèi)者所在區(qū)域的倉缺貨需要換倉從其他大區(qū)的倉發(fā)貨給消費(fèi)者

  • 業(yè)務(wù)分析
  1. 當(dāng)在倉庫存偏倉的時(shí)候,會(huì)造成跨區(qū)發(fā)貨,跨區(qū)發(fā)貨的快遞成本比非跨區(qū)發(fā)貨高

  2. 如果能提前通過集中調(diào)撥的方式將貨物配平(即批量的將貨物先配送到用戶所在的地區(qū)的倉),且滿足:單件集中調(diào)撥成本+單件發(fā)貨成本 < 單件跨區(qū)發(fā)貨成本

  3. 倉庫的出庫能力、收貨能力、干線運(yùn)輸能力有上限限制

  4. 調(diào)出倉需要優(yōu)先滿足本倉覆蓋范圍內(nèi)的潛在消費(fèi)者

  • 建模

業(yè)務(wù)目標(biāo):我們要最小化貨物從倉庫到消費(fèi)者手中的物流成本

成本函數(shù):發(fā)貨成本

  1. 假設(shè)有N個(gè)貨品貨品
  2. 調(diào)出倉A
  3. 調(diào)入倉B
  4. 約束1:對(duì)任意一個(gè)貨品,從A倉調(diào)出量小于A倉庫存-A倉自身需求量,即,其中表示貨品從A倉的調(diào)出至B倉的量。表示貨品在A倉的庫存,在倉庫A覆蓋范圍內(nèi)的預(yù)計(jì)售賣量表示貨品
  5. 約束2:對(duì)任意一個(gè)貨品,調(diào)入B倉的量小于B倉覆蓋范圍內(nèi)的預(yù)計(jì)售賣量-B倉已有的在倉庫存,即,字符含義同上。
  6. 約束3:一次調(diào)撥的量,要小于A倉到B倉的干線運(yùn)輸能力,即

    ,其中是一個(gè)常量,表示最大的干線運(yùn)輸能力

  7. 目標(biāo)函數(shù): 其中是個(gè)常量,表示貨品通過跨區(qū)發(fā)貨到消費(fèi)者手中的發(fā)貨成本,是個(gè)常量,表示貨品從A倉調(diào)撥到B倉的調(diào)撥成本,表示提前將貨品從A倉調(diào)撥到B倉,避免跨區(qū)發(fā)貨而節(jié)省的成本。因此,我們要「最小化貨物從倉庫到消費(fèi)者手中的物流成本」,即,最大化節(jié)省的金額。

宗上所述,模型定義如下:

到這里,整個(gè)建模過程就結(jié)束了。實(shí)際上我們忽略了很多細(xì)節(jié),但是并不影響我們理解這個(gè)調(diào)撥模型。至于模型怎么求得每一個(gè)調(diào)撥量以保證最大化收益,就要對(duì)這個(gè)模型進(jìn)行求解了。

?模型求解:怎么才能算出目標(biāo)函數(shù)最優(yōu)時(shí)的參數(shù)解

  • 明確求解目標(biāo)

既然要求解,我們就要明確到底要求解什么?即,在上面定義的數(shù)學(xué)模型中要明確哪些是常量哪些是變量。

很明顯,我們需要求解的變量是,即每個(gè)貨品需要從A倉調(diào)撥多少件到B倉。這里為了方便解釋,我們就假設(shè)一共就兩個(gè)貨品,相應(yīng)的我們需要求解的變量就。

  • 求解算法

根據(jù)約束條件看,解空間就在坐標(biāo)軸圈定的陰影范圍內(nèi)。實(shí)際上,最簡單的求解方法就是暴力枚舉所有可能的結(jié)果,然后求出函數(shù)值最大時(shí)對(duì)應(yīng)的參數(shù)即可。

當(dāng)然了,現(xiàn)實(shí)的問題中求解的參數(shù)量一定是遠(yuǎn)遠(yuǎn)大于2個(gè)的,因此參數(shù)求解的時(shí)間復(fù)雜度呈指數(shù)級(jí)上升,以當(dāng)前的算力,可能直到生命的盡頭可能都得不到答案。生命是寶貴的,對(duì)于這種問題,有沒有快速的解法呢?有,這里我們就要引出一個(gè)算法概念——啟發(fā)式搜索算法,這是一種算法理念的統(tǒng)稱,具體的實(shí)現(xiàn)有很多種,比如模擬退火算法、遺傳算法、蟻群算法等。宗旨就是在有限的時(shí)間內(nèi),得到一個(gè)近似的最優(yōu)解。

這里以遺傳算法為例,我們來學(xué)習(xí)它的求解過程:

遺傳算法(G.NETic Algorithm)遵循『適者生存』、『優(yōu)勝劣汰』的原則,是一類借鑒生物界自然選擇和自然遺傳機(jī)制的隨機(jī)化搜索算法。遺傳算法模擬一個(gè)人工種群的進(jìn)化過程,通過選擇(Selection)、交叉(Crossover)以及變異(Mutation)等機(jī)制,在每次迭代中都保留一組候選個(gè)體,重復(fù)此過程,種群經(jīng)過若干代進(jìn)化后,理想情況下其適應(yīng)度達(dá)到近似最優(yōu)的狀態(tài)。算法具體邏輯可參考:https://zhuanlan.zhihu.com/p/460368294這類算法不僅很有效,而且是可理解可證明的。記得多年前,第一次接觸到這種算法類型的時(shí)候,深深地感受到了前人的智慧。

在實(shí)際應(yīng)用中,我們可以使用一些現(xiàn)成的算法求解器,例如cplex。至此,通過問題定義、建模、求解。調(diào)撥模型中,從A倉到底要調(diào)撥多少量到B倉才能節(jié)省更多的成本的問題就解決了。

展望

面對(duì)一個(gè)需要優(yōu)化的業(yè)務(wù)問題,傳統(tǒng)的思路是從問題定義、建模再到求解。而深度學(xué)習(xí)模型的思路是:

  1. 向量化:無論什么類型的數(shù)據(jù),文字、圖片、視頻、聲音,首先是將數(shù)據(jù)向量化,比如文字可以使用word2vec轉(zhuǎn)換成一串01向量。

  2. 將訓(xùn)練數(shù)據(jù)的目標(biāo)結(jié)果也向量化:一般來說輸入的數(shù)據(jù)和目標(biāo)結(jié)果是同一種數(shù)據(jù)類型,也可以不一樣。

  3. 選定目標(biāo)函數(shù):一般來說目標(biāo)函數(shù)針對(duì)不同的任務(wù)類型有其固定的目標(biāo)函數(shù)。比如常見的RMSE、Cross-Entropy、Categorical-Cross-Entropy等等。

  4. 訓(xùn)練模型:將模型輸出的結(jié)果向量與目標(biāo)結(jié)果向量代入目標(biāo)函數(shù),計(jì)算loss。同時(shí)計(jì)算梯度值,調(diào)整模型參數(shù)。直到在訓(xùn)練集上的loss足夠小或者每次迭代的loss不再變低為止,訓(xùn)練結(jié)束。

可以理解為,無論什么問題只要將數(shù)據(jù)向量化,就可以通過深度學(xué)習(xí)模型求解。其中建模的過程可以省略,模型求解也是固定的范式。然后問題就解決了,我對(duì)這種神經(jīng)網(wǎng)絡(luò)模型也大為震撼。

人類的很多發(fā)明創(chuàng)造,都是從自然中學(xué)來的。比如機(jī)翼模仿的是鳥的翅膀,讓上下兩側(cè)的氣流速度不一樣來形成向上的氣壓差;疏水材料模仿的是荷葉表面紋理仿制的。前面提到的啟發(fā)式搜索算法,也是對(duì)自然界動(dòng)植物等的模擬衍生出來的算法,原來很多問題在沒有數(shù)學(xué)的時(shí)候,就能夠通過生物本能的解決這個(gè)問題。同理,現(xiàn)在的深度學(xué)習(xí)模型,大家都說這是對(duì)人腦神經(jīng)元與神經(jīng)突觸的模擬,同樣的,我們接觸的聲音、視覺畫面、文字等等都是通通轉(zhuǎn)換成電信號(hào),經(jīng)過重重神經(jīng)元之后,變成了我們可以理解的一個(gè)個(gè)具象的東西——一首歌、一部電影、一只小狗...... 神經(jīng)網(wǎng)絡(luò)模型跟這確實(shí)也有異曲同工之妙。

所以我并不覺得神經(jīng)網(wǎng)絡(luò)模型不對(duì),只是我們對(duì)模仿的本體——大腦的科學(xué)認(rèn)知都不夠,那么通過模仿出來的神經(jīng)網(wǎng)絡(luò)模型讓人更加不可理解,不可證明、也不可證偽?;蛟S,現(xiàn)在所謂的神經(jīng)網(wǎng)絡(luò)模型壓根就是錯(cuò)誤的?或許等我們的腦科學(xué)有更大進(jìn)步的時(shí)候,會(huì)有一種全新的能夠科學(xué)證明的神經(jīng)網(wǎng)絡(luò)模型出現(xiàn)?

現(xiàn)在很多人把深度學(xué)習(xí)當(dāng)做一個(gè)框,什么都往里裝,以為深度學(xué)習(xí)就是萬能解藥,特別是一些神奇的大V發(fā)的文章,看多了總歸有些不適。我們現(xiàn)在使用大模型的過程,就像三體里的火雞科學(xué)家一樣,在黑夜中不斷摸索規(guī)律。至于這個(gè)規(guī)律是真理還是深坑,不得而知。大模型能發(fā)展到什么地步,那就要看后人的智慧了。

團(tuán)隊(duì)介紹

我們是大淘寶技術(shù)-品牌供給技術(shù)部,目前主要負(fù)責(zé)消費(fèi)電子、家裝家居、天貓優(yōu)品等行業(yè)的供應(yīng)鏈業(yè)務(wù)。團(tuán)隊(duì)致力于解決采購、調(diào)撥、倉儲(chǔ)、履約等多環(huán)節(jié)的業(yè)務(wù)優(yōu)化問題,為平臺(tái)商家和集團(tuán)自營業(yè)務(wù)提供極致的供應(yīng)鏈體驗(yàn)。將仿真優(yōu)化、運(yùn)籌學(xué)、機(jī)器學(xué)習(xí)和智能AI算法與實(shí)際業(yè)務(wù)場景相結(jié)合,為供應(yīng)鏈降本提效、提升消費(fèi)者物流體驗(yàn)提供一站式解決方案。

分享到:
標(biāo)簽:算法
用戶無頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績?cè)u(píng)定