Search
   >> Home >> Resources & support >> User Group meetings >> 2013 Mexican Stata Users Group meeting >> Abstracts

2013 Mexican Stata Users Group meeting: Abstracts

Deep analysis of progressivity for taxes or transfers using cprog and cprogbt DASP modules for Stata

Luis Huesca Reynoso
Centro de Investigación en Alimentación y Desarrollo (CIAD)
In order to determine whether a tax or transfer is progressive, this presentation shows the benefits offered by the modules cprog and cprogbt within the environment of STATA through the distributive analysis stata package (DASP). The goal is to compute progressivity curves and check whether taxes or transfers are progressive and whether a given transfer is more progressive than a given tax. An empirical case for both taxes and transfers is shown for the current Mexican situation.

Additional information
mex13_hesca.pptx

Inflation and poverty in México 1993–2009

Carlo Alcaraz
Banco de México
In this paper, we analyze the effects of inflation on poverty in Mexico from 1993 to 2009. We also include sector composition of GDP and informal work as determinants of poverty in Mexico. We use two measures for poverty: the percentage population whose household income per capita is below the poverty line, and poverty gap. We estimate a fixed-effects model and obtain the following results: 1) a 10% increase in inflation translates into 13% more poverty and a 17% increase in the poverty gap; 2) there is a positive relation between poverty and informal employment; and 3) relative growth of the services sector has contributed to the reduction of poverty.

Additional information
mex13_alcaraz.pptx

Aplicación del método de regresión en discontinuidad para la medición del impacto del programa de créditos fiscales a la investigación, desarrollo tecnológico e innovación de las empresas en solicitudes de registro de patentes

Angel Calderón-Madrid
Carlos Chiapa-Labastida
Alberto Aguilar López
COLMEX
Entre 2001 y 2008, la manera en que el gobierno incentivaba a que las empresas privadas en México aumentaran su actividad innovadora relacionada con la investigación científica y con el desarrollo tecnológico era a través de su programa EFIDE T, acrónimo correspondiente a Programa de Estímulos Fiscales al Gasto en Investigación y Desarrollo de Tecnología de las Empresas Privadas en México. El estímulo fiscal consistía en el otorgamiento de un crédito fiscal que se concedía a las empresas para la realización de proyectos de investigación, desarrollo tecnológico e innovación (IDTI). Se determinaba a partir de una tasa máxima fija de 30% sobre la base total (no incremental) de los gastos e inversiones que las empresas realizaran en ese rubro durante el año en que resultaron beneficiarios del programa.

La Ley de Ingresos de la Federación de cada ejercicio fiscal establecía el monto total del estímulo fiscal a distribuir entre los aspirantes del beneficio. La disponibilidad de recursos del programa, en ninguno de los años en que éste se implementó, alcanzó para apoyar a todas las empresas cuyos proyectos de IDTI fueron evaluados con una calificación por arriba del mínimo establecido por el CONACYT para ser candidatas a recibir el apoyo económico ofrecido.

La participación en el programa requería que las empresas presentaran de manera detallada los proyectos de IDTI que pretendían realizar y que éstos fueran calificados por evaluadores acreditados por el CONACYT.

La necesidad de decidir entre empresas para dar o negar el estímulo económico solicitado hizo que el CONACYT, ante la limitación de recursos disponibles durante cada año, seleccionara a las empresas beneficiarias a partir de un criterio basado en un orden descendente de calificaciones promedio que los evaluadores de los proyectos otorgaron a cada una de las empresas. Es decir, las calificaciones sirvieron para fijar un umbral, que en última instancia estuvo determinado por los fondos disponibles para apoyar a las empresas: aquellas cuyos proyectos tuvieron calificación igual o por arriba de éste resultaron beneficiarias del programa y a las que lo tuvieron por debajo se les negó el apoyo financiero solicitado.

Additional information
mex13_calderon.pdf

Combinación de Stata y LATEX en la evaluación de estudiantes de un curso de estadística o econometría

Rodrigo Taborda
Universidad del Rosario
El aprendizaje de estadística o econometría en la actualidad implica evaluar la aplicación de métodos en programas (software) de análisis estadístico. En términos usuales esta evaluación se lleva a cabo a partir de una (1) base de datos y una(s ) pregunta(s) que genera(n) una(s) respuesta(s) única(s). Desafortunadamente esta opción de evaluación es abusada por los estudiantes que al saber que existe una sola respuesta copian y pegan resultados conocidos sin la utilización del método o el programa (software). En este ambiente el profesor tiene el problema de no poder discriminar es- fuerzo real y premiar aprendizaje real.

Stata ofrece la capacidad de escribir un archivo .tex, ordenar su compilación a través de LATEX, y generar un archivo .pdf. Mediante el uso de esta opción, a partir de una (1) base de datos, y el mismo grupo de preguntas a evaluar (taller/problem set), se propone la generación de una submuestra (para cada estudiante) de la base de datos, y la generación automática de un texto diferente (para cada estudiante) con respuestas diferentes (para cada estudiante) del cuestionario.

El procedimiento implica incluir en un "loop" la generación de la submuestra y la generación automática de documentos. El procedimiento tiene como puntos a favor: 1. Solucionar el problema de la copia de la misma respuesta. En el momento que cada estudiante tiene una única base de datos, se ve forzado a obtener un resultado que es único, reportarlo y comentarlo. 2. Esfuerzo mínimo para el profesor, la repetición del "loop" es indiferente si se tienen 5 o 50 estudiantes. 3. Conocer las respuestas de antemano puede ayudar a identificar errores involuntarios y de aprendizaje en los estudiantes. 4. La calificación de los reportes de los estudiantes es directa. En contra se puede argumentar la necesidad de nivel de aprendizaje medio de Stata y LATEX.

Additional information
mex13_taborda_en.pdf (English)
mex13_taborda_sp.pdf (Español)

Herramientas de Stata para resolver retos analíticos frecuentes en la evaluación de pruebas de tamizaje

Eduardo Ortiz-Panozo
INSP
Introducción: Las pruebas de tamizaje se usan ampliamente en salud pública para identificar fases tempranas de enfermedad. Generalmente los resultados del tamizaje se categorizan como positivo o negativo, y es común que sólo se evalúe el resultado positivo, lo cual puede ocasionar el denominado sesgo de verificación. Además es frecuente que a un mismo individuo se le aplique más de una prueba de tamizaje en un mismo estudio, lo cual origina correlación entre observaciones.

Objetivo: Explorar las herramientas de Stata para la evaluación de pruebas de tamizaje, tomando en cuenta los retos analíticos que frecuentemente se presentan en este tipo de estudios

Métodos y resultados: En este análisis, se usan datos reales para explorar las bondades de Stata para la evaluación de pruebas de tamizaje. Se revisa el programa escrito por usuario diagt y aplicaciones de modelos log-lineales, con errores estándar ajustados por mediciones repetidas y por el sesgo de verificación. Los datos usados corresponden a la comparación de la prueba de detección del virus del papiloma humano (VPH) y el Papanicolaou en el programa de detección de cáncer cervicouterino de Morelos, México (n=5,980). A diferencia del módulo de modelos lineales generalizados, el programa diagt no permitió ajustar por el sesgo de verificación ni por la correlación entre observaciones. Con el módulo de modelos lineales generalizados, hubo diferencias importantes en las estimaciones según se ajustó o no por el sesgo de verificación y por la correlación entre observaciones. Mediante modelos log-lineales se estimaron tanto indicadores relativos como absolutos de la sensibilidad, especificidad y valores predictivos comparando prueba de detección de VPH contra Papanicolaou.

Conclusión: El módulo de modelos lineales generalizados de Stata permite hacer las especificaciones necesarias para la evaluación de las pruebas de tamizaje, ajustando por los retos comunes en este tipo de estudios, como lo son la correlación entre observaciones y el sesgo de verificación.

Additional information
mex13_ortiz_en.pptx (English)
mex13_ortiz_sp.pptx (Español)

Forecasting tools in Stata

Gustavo A. Sánchez
StataCorp
After one fits regression models, it is quite common to produce out-of-sample forecasts to evaluate the predictive accuracy of the model or simply to estimate the expected behavior of one or more dependent variables (assuming that the model is valid be yond the estimation sample). I selected a few examples to illustrate some of the tools available in Stata to produce single or joint forecasts based on parameter estimates from a set of regression models.

Additional information
mex13_sanchez_forecast.pdf

The alternative of a smoother parameter in the Hodrick-Prescott filter

Miguel Angel Ramirez
UNAM
From its beginnings in the second half of the nineteenth century until today, the study of economic time series has involved a variety of research anchored in stylized mathematical methods in order to simulate, verify, test, and forecast the behavior of key economic variables to describe economic activity and its phenomena intertemporally.

Despite the proliferation of studies, it was not until the 1980s that the procedure outlined by Robert James Hodrick and Edward Christian Prescott acquired special relevance. Their method, isolating the effects and trend-cycle series, denoted a turning point in modern econometric modeling. However, the spread of the "HP filter" in economic applications used by researchers, academics, students, and policy-makers has led to implausible results because of inadequate specifications in the decomposition of the series.

In this context, this analysis attempts to overcome the methodological problems inherent in the filter, indicate a brief theoretical outline of the time series, formulate a sui generis consistent parameter of variables, and show in Stata a simulation of the real exchange rate in Norway.

Additional information
mex13_angel_en.pptx (English)
mex13_angel_sp.pptx (Español)

Commands for financial data management and portfolio optimization

C. Alberto Dorantes
Tecnológico de Monterrey, EGA, Campus Querétaro
Several econometric software offer portfolio management tools for practitioners and researchers. For example, MatLab and R offer a great variety of tools for the simulation, optimization, and analysis of financial time series. Stata, together with Mata, offers powerful programming tools for the simulation, optimization, and analysis of financial data. However, related user commands are scarce. In this presentation, commands for online market data collection, data manipulation, and financial analysis for portfolio optimization are presented. Besides illustrating how these commands work, I will present the optimization algorithm used for portfolio optimization. Some of the commands include retornosyh. Based on the stockquote user command, this command retrieves online market data about stocks and indices (prices), computes returns—simple and continuously compounded—and then integrates the data into a formatted time-series dataset ready for further analysis.

The following commands can be used to analyze data obtained with this command: gmvportws and gmvportwos, using series of continuously compounded returns, estimate the global minimum variance portfolio with and without short sales; and efrontier generates N portfolios in the efficient frontier and provides a graph showing the efficient frontier with and without short sales.

The optimization algorithm was designed to estimate minimum variance portfolios according to Markowitz portfolio theory. When allowing for short sales, the minimum variance portfolio is analytically estimated based on Lagrange multipliers. When short sales are not allowed (nonnegative weights), there is no analytical solution, so the literature recommends using quadratic programming to find the minimum variance portfolio. Instead of following this numeric algorithm, I used an algorithm based on iterations and the analytical formula derived from Lagrange multipliers to estimate the minimum variance portfolio. Details and results will be described in the presentation.

Additional information
mex13_dorantes.pdf

Implementing new econometric tools in Stata

Christopher F. Baum
Boston College and DIW, Berlin
I discuss the implementation of two state-of-the-art econometric estimators in Stata. The first addresses the problem of estimating a binary response with one or more limited endogenous variables. Lewbel, Dong, and Yang (Canadian J. Econ., 2012) present a solution based on Lewbel's "special regressor" method, a version of which I have implemented in Stata as sspecialreg. The second considers the problem of estimating an equation with instrumental variables techniques where sufficient instruments may not be available. Lewbel (J. Bus. Econ. Stat., 2012) presents a solution based on generated instruments that take advantage of heteroskedasticity. I have implemented that routine as an extension of Baum, Schaffer, and Stillman's ivreg2 (Stata J., 2003, 2007) as ivreg2h. I will motivate these two extensions to Stata's econometric capabilities with illustrations of their use.

Additional information
mex13_baum.pdf

Economic Outlook: An application with cointegrating VAR models and probability forecasting

Gustavo A. Sánchez
StataCorp
In this presentation, I discuss two applications of the vec commands. First, I use the cointegrating VAR approach discussed in Garratt et al. (2006) to fit a vector error-correction model. In contrast with the application of the traditional Johansen statistical restrictions for the identification of the coefficients of the cointegrating vectors, I use Stata to show an alternative specification of those restrictions based on the theoretical framework for the long-run cointegrating relationships. Second, I apply probability forecasting to simulate probability distributions for the forecasted periods. This approach produces probabilities for future single and joint events instead of only producing point forecasts and confidence intervals. For example, we could estimate the joint probability of two-digit inflation combined with a decrease in the GDP.

Additional information
mex13_sanchez_vec.pdf

Introduction to contingent valuation using Stata

Alejandro López-Feldman
CIDE
Cost-benefit analysis is a key input for the ex-ante evaluation of public projects and policies. An ideal cost-benefit analysis incorporates all the social costs and benefits of a project for all members of a society. One of the big challenges to achieve this is the need to place monetary values on nonmarketed goods and services. The objective of the presentation is to provide the audience with the basic tools to obtain estimates of willingness to pay from a contingent valuation survey using Stata. The use of the user-written commands singleb and doubleb is illustrated.

Additional information
mex13_lopez.pdf

A double-hurdle count model for completed fertility data from the developing world

Alfonso Miranda
CIDE
I report on a study of the socioeconomic determinants of completed fertility in Mexico. An innovative Poisson double-hurdle count model is developed for the analysis. This methodological approach allows low- and high-order parities to be determined by two different data-generating mechanisms and explicitly accounts for potential endogenous switching between regimes. Unobserved heterogeneity is properly controlled. Special attention is given to study how socioeconomic characteristics such as religion and ethnic group affect the likelihood of transition from low- to high-order parities. Findings indicate that education and Catholicism are associated with reductions in the likelihood of transition from parities lower than four to high-order parities. However, being an indigenous language speaker increases the odds of a large family.

Additional information
mex13_miranda_en.pdf (English)
mex13_miranda_sp.pdf (Español)

Treatment Effects using Stata

Enrique Pinzon
StataCorp
Treatment-effects estimation is a fundamental tool in the empirical analysis of program and policy evaluations. Its importance in this area is reflected in the ample body of work that has been done in the last decades. Using Stata, I will illustrate estimation of the more traditional treatment-effects estimators used by researchers in this area and some of the more recent advances.

Additional information
mex13_pinzon.pdf

Sistemas geo-referenciados en Stata y su aplicación a los procesos de focalización de acciones en desarrollo social

Ignacio Ibarra López
UPAEP and BUAP
La presentación de información enfrenta el reto de integrar la mayor cantidad y calidad de información. Por otro lado, aunque no es un asunto estrictamente necesario, también es importante que en este proceso se considere la estética de las gráficas y tablas que se generan. Finalmente, si se integra una mayor cantidad de información, es posible que se confunda en cierta medida a quien la interpreta. Stata es un software que permite crear una serie de recursos gráficos que a lo largo de los años han sido mejorados y expandidos por la comunidad de usuarios. Tal es el caso del comando spmap, desarrollado por Maurizio Pisati (Pisati, 2008), el cual permite desarrollar información espacial que facilita tanto el análisis como la presentación de la misma. En el presente trabajo, se aplica este comando para la generación de mapas temáticos del estado de Puebla así como de sus municipios y localidades. Los diferentes mapas ilustran la relación que tienen a nivel geoestadístico las causas de mortalidad (catálogo CIE-10 para México) y carencias sociales (medidas por el CONEVAL). La finalidad es conocer si las denominadas enfermedades de la pobreza siguen un patrón geográfico y económico en el estado, identificando aquellas localidades cuya atención debería ser prioritaria. Para el análisis se ha construido una rutina (do-file) que comprende los siguientes procesos:
  1. Integración de la información en sus distintos niveles.
  2. Generación de los mapas en archivos legibles en Stata.
  3. Identificación de regiones y localidades prioritarias.
  4. Desarrollo de mapas temáticos.
  5. Presentación de estadísticas a nivel región y a nivel localidad prioritaria.
Additional information
mex13_ibarra_en.ppt (English)
mex13_ibarra_sp.pptx (Español)

Análisis geoespacial con STATA. Elaboración de mapas de rezago social a nivel de AGEB urbana para México, 2010.

Enrique Minor-Campa
David Rojas-Rosey¡
Martí Lima
CONEVAL
En la actualidad existen diferentes programas en el mercado que permiten realizar análisis de información geográfica. Sin embargo, estos programas presentan limitaciones para realizar análisis geográficos a partir de datos estadísticos, debido a que no siempre aceptan algoritmos que ejecuten una misma rutina. Gracias a los comandos shp2dta y spmap, STATA permite realizar rutinas para construir mapas con información estadística georeferenciada sin importar el nivel de desagregación geográfica. El objetivo de este trabajo consiste en presentar el uso de STATA para generar aproximadamente 10 mil mapas de rezago social a nivel AGEB con una sola rutina (do file), las cualidades, ventajas y desventajas para realizar este tipo de análisis y obtener información geográfica a partir de este ejercicio realizado por el Consejo Nacional de Evaluación de la Política de Desarrollo Social (CONEVAL).

Additional information
mex13_coneval.pptx

Report to users and Wishes and grumbles

Gustavo A. Sánchez
StataCorp
The Stata Blog: Not Elsewhere Classified Find us on Facebook Follow us on Twitter LinkedIn Google+ Watch us on YouTube