<input id="ohw05"></input>
  • <table id="ohw05"><menu id="ohw05"></menu></table>
  • <var id="ohw05"></var>
  • <code id="ohw05"><cite id="ohw05"></cite></code>
    <label id="ohw05"></label>
    <var id="ohw05"></var>
  • 摘要: 分布式機器學習:模型平均MA與彈性平均EASGD(PySpark) SSGD算法由于通信比較頻繁,在通信與計算比較大時(不同節點位于不同的地理位置),難以取得理想的加速效果。模型平均方法(MA)中,每個工作節點會根據本地數據對本地模型進行多輪的迭代更新,直到本地模型收斂說本地迭代輪數超過一個預設的閾值,再進行一次全局的模型平均,并以此均值做為最新的全局模型繼續訓練。但是MA算法通常會帶來精度損失,實踐中需要仔細調整參數設置,或者通過增加數據塊粒度的動量來獲取更好的效果。EASGD方法則不強求全局模型的一致性,而是為每個工作節點保持了獨立的探索能力。 閱讀全文
    posted @ 2022-06-30 15:05 orion-orion 閱讀(91) 評論(0) 推薦(0) 編輯
    国产美女a做受大片观看