La Enfermería y las Mujeres

Definir la enfermería, arrastra consigo una tradición que se remonta al origen de los pueblos y de la sociedad misma. La historia de la enfermería es la historia de los cuidados, todo un entramado de hechos históricos, relaciones sociales e interpersonales donde las mujeres fueron las protagonistas.

La enfermería es una profesión que requiere de un valor personal y profesional. Es una disciplina en el área de la medicina que maneja el cuidado de la salud durante todo el ciclo vital. Aunque hoy en día, son cada vez más los hombres dedicados a esta profesión , las mujeres fueron y siguen siendo las principales encargadas del cuidado humano de la salud

La enfermería a través de los años, evolucionó y fue cambiando sus conceptos y definiciones. Se estableció como campo científico y se describió en numerosas oportunidades como una serie de tareas y técnicas (subordinadas a la medicina); como un servicio humano amplio, una vocación aprendida y más recientemente, una disciplina en el área de la salud que maneja el cuidado durante todo el ciclo vital.

Para conocer mas de este tema te invitamos a leer : La Enfermería, las Mujeres y la Importancia del Cuidado Humano de la Salud