Transformer模型*早由谷歌在2017年的“Attention is all you need”一文中提出,用于自然語言處理(NLP)領域的翻譯和文本生成任務。與傳統(tǒng)的RNN、LSTM模型不同,Transformer的自注意力機制(Self-Attention)允許其處理任意長度的輸入序列,且并行計算性能強,因此在大規(guī)模數(shù)據處理和高效計算方面有**優(yōu)勢。隨著AI深度學習的興起,Transformer被應用在BEV空間轉換、時間序列上,形成了一個端到端的模型。