La définition du naturisme fréquemment donnée émane du Congrès de la Fédération Internationale de Naturisme en 1974 :
« Le naturisme est une manière de vivre en harmonie avec la nature, caractérisée par une pratique de la nudité en commun, qui a pour conséquence de favoriser le respect de soi-même, le respect des autres et celui de l’environnement. »
Le naturisme permet d’accepter la nudité, la sienne et celle des autres. C’est un cadeau que nous pouvons faire à notre corps et à notre esprit. Ils le méritent bien !
Le naturisme est l’ultime expression de la liberté et de l’égalité ; nus, nous sommes tous plus égaux et libres dans notre corps. Les fractures et les exclusions du monde textile (classes sociales, défauts physiques…) sont estompées dans le monde naturiste.