di Ilaria Myr
Sono un diritto considerato ormai inalienabile nei contratti di lavoro (ahimè solo in quelli regolari) e sono un bene per i lavoratori. Le ferie pagate però sono state introdotte solo nel XX secolo nel Paese nostro vicino di casa: la Francia.



