Notícias sobre aprendizado de máquina

Disclaimer:  Eu coleto notícias aqui de forma absolutamente subjetiva. 





Parte da notícia é novidade só para mim e poderia ter aparecido por muito tempo. Acabei de percebê-los agora. 





Acompanho a notícia com o meu comentário, no qual declaro o motivo pelo qual essa notícia me interessa.





  1. Parece que Transformers do Hugginface está se tornando o principal repositório de modelos prontos na seção PNL ( Processamento de Linguagem Natural ).





    …….. Google . Google, TensorFlow Hub, , . Google .  NLP, Microsoft Facebook, . . . , PyTorch, TensorFlow. , , . .





  2. sktime - time series. time series forecasting , . Facebook Prophet Amazon DeepAR . , sktime, PyTorch Forecasting, Amazon GluonTS. sktime , open source .





  3. O Google fez uma afirmação interessante com o modelo SMITH . O líder anterior em PNL é BERT. O SMITH, segundo os autores, permite trabalhar com texto 4 vezes mais longo que o BERT (2K tokens versus 0,5K). Os autores adicionaram alguns truques ao design e treinamento do modelo. Essas mudanças não parecem fazer nenhuma diferença fundamental. Truques semelhantes podem ser vistos em grande número em outros pesquisadores. O Google é ilimitado em recursos e pode treinar muitos modelos semelhantes até o nível de última geração.








All Articles