O processamento MapReduce consiste na aplicação de um algoritmo
de computação distribuída para processar grandes conjuntos de
dados em um cluster de computadores, dividindo cálculos
complexos em tarefas menores e que podem ser executadas em
paralelo. O MapReduce é implementado em etapas. Em uma dessas
etapas, os dados de entrada divididos em partes são transformados
em conjuntos de pares chave-valor (i.e., key-value pairs) adequados
para o processamento paralelo e distribuído.
A essa etapa do MapReduce dá-se o nome de
A essa etapa do MapReduce dá-se o nome de