Afghanistan: Der Westen überlässt das Land den Taliban
#1
Afghanistan: Der Westen überlässt das Land den Taliban

Die Islamisten haben in Afghanistan rund die Hälfte aller Provinzhauptstädte erobert – die Armee leistet kaum Widerstand. Nun räumt Deutschland weitestgehend seine Botschaft, andere Länder ergreifen noch drastischere Maßnahmen.


https://www.spiegel.de/ausland/afghanist...2b#ref=rss
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste