Anatomie (Begriffsklärung)
aus Wikipedia, der freien Enzyklopädie
Anatomie steht für:
- Anatomie, die Lehre vom äußeren und inneren Aufbau eines menschlichen oder tierischen Körpers
- Lehrstätte für Anatomie, siehe Anatomisches Institut
- Pflanzenanatomie, siehe Phytotomie
- Anatomie (Film), deutscher Spielfilm (2000)
- Anatomie 2, deutscher Spielfilm (2003)
- Anatomie einer Entführung, US-amerikanisch-deutsches Filmdrama (2004)
- Anatomie eines Mordes, Kriminalroman 1958 von Robert Traver
- Anatomie der menschlichen Destruktivität, sozialwissenschaftliches Werk von Erich Fromm
Siehe auch:
Wiktionary: Anatomie – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Wikiquote: Anatomie – Zitate
__DISAMBIG__