Czy kobiety bardziej dbają o zdrowie?
W naszym społeczeństwie istnieje przekonanie, że kobiety bardziej dbają o zdrowie niż mężczyźni. To facetów trzeba zazwyczaj na siłę ciągnąć do lekarza. Jednak czy z tego wynika, że kobiety bardziej o siebie dbają? Przyjrzyjmy się tej teorii.