1Q1050611 | Programação, Linguagens de Programação, Ciência de Dados, TCE PA, FGV, 2024As arquiteturas de modelos de linguagem de larga escala (Large Language Models - LLM) surgiram recentemente, revolucionando a área de inteligência artificial nas áreas de processamento e geração de texto. A arquitetura desses modelos baseia-se, majoritariamente, nas redes neurais do tipo transformers. Relacione as arquiteturas a seguir com suas características principais: 1. BERT 2. GPT 3. T5 ( ) Utiliza decoders das redes transformer para prever novos tokens a partir de uma sequência, tornando-se ideal para a geração de textos. ( ) Utiliza encoders das redes transformer para "entender" o contexto de frases, tornando-se ideal para classificação de textos. ( ) Utiliza encoders e decoders das redes transformer, sendo adaptável a situações em que seja necessário gerar novos textos ou processar textos para "entender" o contexto das frases. ( ) Em comparação com as outras arquiteturas, tem menor necessidade de fine-tuning para melhora de performance. A relação correta, na ordem apresentada, é ✂️ a) 1 – 3 – 2 – 2. ✂️ b) 2 – 3 – 1 – 3. ✂️ c) 3 – 2 – 1 – 2. ✂️ d) 3 – 1 – 2 – 2. ✂️ e) 2 – 1 – 3 – 3. Resolver questão 🗨️ Comentários 📊 Estatísticas 📁 Salvar 📑 Conteúdos 🏳️ Reportar erro