Die Vergewaltigung deutscher Frauen am Ende des Zweiten Weltkriegs. Die verdrängten Verbrechen am Ende des Krieges. Die Soldaten, die am Ende des Zweiten Weltkriegs Deutschland von der nationalsozialistischen Herrschaft befreiten, brachten für viele Frauen neues Leid.