História do Teatro no Brasil, conheça

O teatro com certeza é uma das melhores atrações culturais que existe no Brasil e no mundo, na qual é possível ver ao vivo os melhores atores brasileiros fazendo comedias, romances, tragédias, entre outros assuntos que podem fazer ou não parte do nosso dia a dia.

imagem ilustrativa

O teatro na verdade é denominado uma forma de arte que o ator mostra ao seu público em um determinado lugar. São situações variadas que precisam sim de muito talento e de muitos improvisos para que o resultado final seja como o desejado.

O teatro no Brasil surgiu quando o país Portugal começou fazer aqui sua colônia, pois os jesuítas tinham como principal objetivo fazer com que os índios mudassem de religião, de cultura e também de costumes, e isso incluía a literatura e o teatro.

imagem ilustrativa

O teatro antigamente, logo no seu surgimento aqui no Brasil, era caracterizado como danças, e tinha um caráter pedagógico, ou seja, de ensinar as pessoas fatos da bíblia entre outras coisas.

Mas o teatro nacional veio se estabilizar no século XIX, logo no início do Romantismo, na qual podemos afirmar que o Martins Pena foi um dos principais responsáveis por esse acontecimento. E até os dias de hoje o teatro é sim um grande sucesso em nosso país.

Deixe o Seu Depoimento