Muchos hispanos llegaron a Estados Unidos a cumplir el sueño americano, a comprar su propia casa y tener dinero, pero...¿ Vale la pena seguir invirtiendo en este país?
La economía del país no anda nada bien. Todo está caro, los salarios no alcanzan y por si fuera poco las inversiones no están dando lo que deberían.
¿Es mejor invertir en Estados Unidos o en el 'Terre'?