Resposta :
Resposta:
Não. O cristianismo foi trazido para o Brasil pelos portugueses e imposto como a única e principal religião do país, embora os nativos tivessem outras religiões e crenças. Os colonizadores obrigaram os indígenas a seguir o cristianismo