wegetarianizm

Wegetarianizm
Wegetarianizm to dieta, w której celowo rezygnujesz z mięsa i produktów pochodzenia zwierzęcego. Dieta wegetariańska i wegańska ma korzystny wpływ na zdrowie, ale wiąże się także z ryzykiem niedoborów niektórych witamin i składników mineralnych. Zobacz, jak ich uniknąć!

Redakcja poleca

REKLAMA