o cristianismo era a região dos índios antes deles terem contato com o homem branco?

me ajudem por favor​


Resposta :

Resposta:

Não. O cristianismo foi trazido para o Brasil pelos portugueses e imposto como a única e principal religião do país, embora os nativos tivessem outras religiões e crenças. Os colonizadores obrigaram os indígenas a seguir o cristianismo