El hecho es que Hollywood, ya desde los años sesenta hasta la actualidad, ha convertido el cine en una industria de marketing. Al hacer esto, el público ha perdido el contacto con los aspectos de la película que eran informativos, educativos e incluso espirituales.