Q910182 | Engenharia de Software, Analista de Sistemas, TCEPA, FGV, 2024As arquiteturas de modelos de linguagem de larga escala (Large Language Models – LLM) surgiram recentemente, revolucionando a área de inteligência artificial nas áreas de processamento e geração de texto. A arquitetura desses modelos baseia-se, majoritariamente, nas redes neurais do tipo transformers. Relacione as arquiteturas a seguir as suas características principais. 1. BERT 2. GPT 3. T5 ( ) Utiliza decoders das redes transformer para prever novos tokens a partir de uma sequência, tornando-se ideal para a geração de textos. ( ) Utiliza encoders das redes transformer para "entender" o contexto de frases, tornando-se ideal para classificação de textos. ( ) Utiliza encoders e decoders das redes transformer, sendo adaptável a situações em que seja necessário gerar novos textos ou processar textos para "entender" o contexto das frases. ( ) Em comparação com as outras arquiteturas, tem menor necessidade de fine-tuning para melhora de performance. A relação correta, na ordem apresentada, é a) 1 – 3 – 2 – 2. b) 2 – 3 – 1 – 3. c) 3 – 2 – 1 – 2. d) 3 – 1 – 2 – 2. e) 2 – 1 – 3 – 3. Resolver questão 🗨️ Comentários 📊 Estatísticas 📁 Salvar 📎 Anexos 🏳️ Reportar erro