orgonomia
orgonomìa s. f. [comp. di orgo(ne) e -nomia]. – Teoria e pratica terapeutica proposta da W. Reich (v. orgone), volta a liberare nei pazienti l’energia sessuale repressa, e che avrebbe dovuto portare alla risoluzione delle tensioni psicofisiche e quindi alla guarigione da numerose malattie.