綜合LSTM、transformer,DeepMind強化學習智慧體提高資料效率2021-12-05 TAG: CoBERLLSTMTransformerMPO研究者選自arXiv作者:Andrea Banino等機器之心編譯編輯:陳萍、杜偉來自 DeepMind 的研究者提出了用於強化學習的 CoBERL 智慧體,它結合了新的對比損失以及混合 LSTM-transformer 架構,可以提高處理資料效... [ 檢視更多... ]