Le cinéma et son emprise sur la société
Depuis son apparition, le cinéma a toujours fasciné les gens, et ce n’est pas maintenant que cela est sur le point de changer. Surtout, depuis que l’on a libéralisé sa production, ce qui a fait bien des intéressés.
Un casse-tête pour génie
En effet, nombreux sont ceux qui ont presque perdu la tête à vouloir trouver la bonne réponse à une énigme précise. À savoir, si le cinéma est le reflet de la société à travers un écran, ou si le cinéma est celui qui façonne la société. Sachant que des deux côtés, les arguments se présentent quand même convaincants. Mais pour avoir un avis tranché sur la question, il est nécessaire de remonter aux sources du cinéma, et comprendre comment il a basculé du tout au tout.
Le pouvoir sur la société
Il est indéniable que le cinéma tient un rôle important dans l’avenir de notre société en ce moment, car c’est ce qui implante premièrement des idées dans la tête des gens. Certains ont voulu devenu des criminels à partir de certains films, tandis que d’autres ont décidés de se rallier du côté des gentils en devenant un bon citoyen ou en faisant partie des forces de l’ordre. Quoi qu’il en soit, même en termes d’amour, le cinéma a complètement redéfini ce concept à sa sauce, jusqu’à le vulgariser.
Le cinéma ne peut vivre sans la société, mais d’un autre côté, les gens essaient aussi de vivre leur vie de société à l’image de ceux des cinémas. Et pour y arriver, chacun a pris les armes qui lui convient.