Faz 1 mês e meio que estou aqui na terra da batata com linguiça (q falta faz o trema..rsrs) porém só agora me surgiu a dúvida: Pq nós brasileiros chamamos de Alemanha, os americanos de Germany e os Alemães de Deutschland?
Então eu fui procurar e achei isso no Wikipédia:
Então eu fui procurar e achei isso no Wikipédia:
- O termo "Alemanha" deriva do francês Allemagne — terra dos alamanos — em referência a um povo bárbaro de nome homônimo, que vivia na atual região fronteiriça entre aFrança e a Alemanha, o qual cruzou oRio Reno e invadiu a Gália Romana durante o século V;
- O país também é conhecido pelo gentílico Germânia, que deriva do latim Germania — terra dos germanos (em inglês: Germany);
- Bom, só faltou saber o significado de Deutschland, quem tiver uma boa explicação me ajude...
Sabedoria a parte senti a necessidade de escrever sobre minhas percepções do mundo fora do Brasil, pois muito se fala sobre as outras culturas, principalmente como os extrangeiros são frios e etc então pensei que quando chegasse aqui encontraria pessoas carrancudas, mal educadas e sei mais lá o que... ledo engano pois são pessoas como nós e é o que eu vou escrever no decorrer desse período.
Por hora é só, beijitos... té
o que é "gentílico" ?
ResponderExcluir