Disclaimer: Eu coleto notícias aqui de forma absolutamente subjetiva.
Parte da notícia é novidade só para mim e poderia ter aparecido por muito tempo. Acabei de percebê-los agora.
Acompanho a notícia com o meu comentário, no qual declaro o motivo pelo qual essa notícia me interessa.
Parece que Transformers do Hugginface está se tornando o principal repositório de modelos prontos na seção PNL ( Processamento de Linguagem Natural ).
…….. Google . Google, TensorFlow Hub, , . Google . NLP, Microsoft Facebook, . . . , PyTorch, TensorFlow. , , . .
sktime - time series. time series forecasting , . Facebook Prophet Amazon DeepAR . , sktime, PyTorch Forecasting, Amazon GluonTS. sktime , open source .
O Google fez uma afirmação interessante com o modelo SMITH . O líder anterior em PNL é BERT. O SMITH, segundo os autores, permite trabalhar com texto 4 vezes mais longo que o BERT (2K tokens versus 0,5K). Os autores adicionaram alguns truques ao design e treinamento do modelo. Essas mudanças não parecem fazer nenhuma diferença fundamental. Truques semelhantes podem ser vistos em grande número em outros pesquisadores. O Google é ilimitado em recursos e pode treinar muitos modelos semelhantes até o nível de última geração.