Reiki, die sehr alte japanische Heilmethode, ist auch in Deutschland immer mehr auf dem Vormarsch.
Ich habe gerade in der letzten Zeit viele Anbieter dieser Energietechnik gefunden.
Für mich stellt sich die Frage, kann man mit Reiki wirklich heilen?
Diese Frage ist sehr umstritten, da es manche Menschen gibt, die die Frage bejahen, andere wiederum sehen es ganz anders und finden, dass Reiki nur eine Geldmacherei ist.
Eine Bekannte von mir ist Reikimeisterin und bildet sogar andere darin aus, diese Energiearbeit an Hilfesuchenden anzuwenden.
Sie hat mir erzählt, dass sie schon sehr große Erfolge bei Klienten erzielt hat, die bei einem Arzt keine entsprechende Behandlung genießen konnten.
Wie steht ihr dazu?